阅读原文

发行说明

发行说明包括产品增强和通知、错误修复和已解决的问题。

VMware vSphere 7.0 发行说明

介绍

ESXi 7.0 | 2020 年 4 月 2 日 | ISO 内部版本 15843807

vCenter Server 7.0 | 2020 年 4 月 2 日 | ISO 内部版本 15952498

检查这些发行说明的补充和更新。

什么是新的

此版本的 VMware vSphere 7.0 包含 VMware ESXi 7.0 和 VMware vCenter Server 7.0。请参阅vSphere 7.0 的新增功能,了解此版本的新增功能和增强功能。

国际化

vSphere 7.0 提供以下语言版本:

  • 英语
  • 法语
  • 德语
  • 西班牙语
  • 日本人
  • 韩国人
  • 简体中文
  • 繁体中文

vSphere 7.0 的组件(包括 vCenter Server、ESXi、vSphere Client 和 vSphere Host Client)不接受非 ASCII 输入。

兼容性Compatibility

ESXi 和 vCenter Server 版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server 和可选 VMware 产品)当前版本与早期版本的兼容性。在安装 ESXi 或 vCenter Server 之前,还请查看 VMware 产品互操作性列表 ,了解有关受支持的管理和备份代理的信息。

vSphere Lifecycle Manager 和 vSphere Client 与 vCenter Server 打包在一起。

ESXi 的硬件兼容性

要查看与 vSphere 7.0 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请使用 《VMware 兼容性指南》中的 ESXi 7.0 信息。

ESXi 的设备兼容性

要确定哪些设备与 ESXi 7.0 兼容,请使用 《VMware 兼容性指南》中的 ESXi 7.0 信息。

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 vSphere 7.0 兼容,请使用 《VMware 兼容性指南》中的 ESXi 7.0 信息。

ESXi 的虚拟机兼容性

ESXi 7.0 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。不支持与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机。要在 ESXi 7.0 上使用此类虚拟机,请升级虚拟机兼容性。请参阅ESXi 升级文档。

开始之前

vSphere 7.0 要求一个 CPU 许可证最多可支持 32 个物理核心。如果 CPU 的核心数超过 32 个,则需要额外的 CPU 许可证,如“更新 VMware 的每 CPU 定价模型”中所述。在升级 ESXi 主机之前,您可以使用“计算新 VMware 许可策略下所需的 CPU 许可证数”中所述的许可证计数工具来确定所需的许可证数量。

此版本的安装和升级

此版本的安装说明

阅读ESXi 安装和设置和 vCenter Server 安装和设置有关安装和配置 ESXi 和 vCenter Server 的指导文档。

虽然安装过程很简单,但仍然需要完成几个后续配置步骤。请阅读以下文档:

  • “许可证管理” vCenter Server 和主机管理文档
  • “网络” vSphere 网络文档
  • “安全” vSphere 安全性有关防火墙端口的信息文档

VMware 的最高配置工具可帮助您规划 vSphere 部署。使用此工具可以查看虚拟机、ESXi、vCenter Server、vSAN、网络等的限制。您还可以比较两个或多个产品版本的限制。VMware的最高配置工具最适合在大型设备(例如台式机和笔记本电脑)上查看。

ESXi 7.0 中的 VMware Tools 捆绑更改

在 ESXi 7.0 中,VMware Tools 11.0.5 和 VMware Tools 10.3.21 ISO 映像的子集与 ESXi 7.0 主机捆绑在一起。

以下 VMware Tools 11.0.5 ISO 映像与 ESXi 捆绑在一起:

  • windows.iso:适用于 Windows Vista 或更高版本的 VMware Tools 映像

以下 VMware Tools 10.3.21 ISO 映像与 ESXi 捆绑在一起:

  • linux.iso:适用于 Linux 操作系统(带有 glibc 2.5 或更高版本)的 VMware Tools 映像

以下 VMware Tools 11.0.5 ISO 映像可供下载:

  • darwin.iso:适用于 OSX 的 VMware Tools 映像

按照以下文档中列出的步骤下载未与 ESXi 捆绑的平台的 VMware Tools:

迁移第三方解决方案

有关使用第三方定制升级的信息,请参阅ESXi 升级文档。有关使用 Image Builder 制作自定义 ISO 的信息,请参阅 ESXi 安装和设置文档。

不允许对不受支持的 CPU 进行升级和安装

与 vSphere 6.7 支持的处理器相比,vSphere 7.0 不再支持以下处理器:

  • 英特尔家族 6,型号 = 2C (Westmere-EP)
  • 英特尔家族 6,型号 = 2F (Westmere-EX)

在安装或升级过程中,安装程序会检查主机 CPU 与 vSphere 7.0 的兼容性。如果主机硬件不兼容,则会出现紫色屏幕,其中包含不兼容信息消息,并且 vSphere 7.0 安装过程将停止。

vSphere 7.0 版本支持以下 CPU,但未来版本的 vSphere 可能不再支持这些 CPU。请做好相应的规划:

  • 英特尔家族 6,型号 = 2A(Sandy Bridge DT/EN,GA 2011)
  • 英特尔系列 6,型号 = 2D(Sandy Bridge EP,GA 2012)
  • 英特尔家族 6,型号 = 3A(Ivy Bridge DT/EN,GA 2012)
  • AMD 系列 0x15,型号 = 01(推土机,GA 2012)

此版本的升级说明

有关升级 ESXi 主机和 vCenter Server 的说明,请参阅 ESXi 升级和 vCenter Server 升级文档。

vSphere 7.0 的开源组件

适用于 vSphere 7.0 中分发的开源软件组件的版权声明和许可证可在 http://www.vmware.com上找到。您需要登录您的 My VMware 帐户。然后,从

下载菜单,选择 vSphere. 在开源选项卡中,您还可以下载任何 GPL、LGPL 或其他类似许可证的源文件,这些许可证要求为 vSphere 的最新可用版本提供源代码或对源代码的修改。

产品支持通知

  • VMware vSphere 客户端在 vSphere 7.0 中,您可以利用 vSphere Client (HTML5) 中提供的功能。基于 Flash 的 vSphere Web Client 已弃用,不再可用。有关详细信息,请参见 再见,vSphere Web Client。VMware Host Client 是一个基于 Web 的应用程序,您可以使用它来管理未连接到 vCenter Server 系统的各个 ESXi 主机。
  • VMware vSphere 7.0 和 TLS 协议在 vSphere 7.0 中,TLS 1.2 默认启用。TLS 1.0 和 TLS 1.1 默认禁用。如果您将 vCenter Server 升级到 7.0,并且该 vCenter Server 实例连接到 ESXi 主机、其他 vCenter Server 实例或其他服务,则可能会遇到通信问题。要解决此问题,您可以使用 TLS 配置器实用程序在 7.0 系统上临时启用旧版本协议。之后,您可以在所有连接都使用 TLS 1.2 后禁用安全性较低的旧版本。有关信息,请参阅使用 TLS 配置器实用程序管理 TLS 协议配置
  • 删除外部平台服务控制器在 vSphere 7.0 中,部署或升级 vCenter Server 需要使用 vCenter Server Appliance,这是一款针对运行 vCenter Server 进行了优化的预配置 Linux 虚拟机。新的 vCenter Server 包含所有 Platform Services Controller (PSC) 服务,并保留了其功能和工作流,包括身份验证、证书管理和许可。您不再需要也无法部署和使用外部 Platform Services Controller。所有 PSC 服务均已整合到 vCenter Server 中,部署和管理也得到了简化。
  • 删除 vCenter Server for Windows 支持在 vSphere 7.0 中,适用于 Windows 的 vCenter Server 已被移除,并且不再提供支持。有关详细信息,请参见告别适用于 Windows 的 vCenter Server
  • 从 ESXi 中删除 VNC 服务器在 vSphere 7.0 中,ESXi 内置 VNC 服务器已被移除。用户将无法再通过设置远程显示.vnc.启用配置为 true。用户应通过 vSphere Client、ESXi Host Client 或 VMware Remote Console 使用虚拟机控制台连接虚拟机。希望通过 VNC 访问虚拟机的客户应使用 VirtualMachine.AcquireTicket(“webmks”) API,该 API 提供 VNC-over-websocket 连接。webmks 票证提供对虚拟机控制台的身份验证访问。更多信息,请参阅VMware HTML Console SDK 文档
  • VMKLinux 的弃用在 vSphere 7.0 中,VMKLinux 驱动程序兼容性已被弃用并移除。vSphere 7.0 将不再支持 VMKLinux API 及其关联的 VMKLinux 驱动程序。自定义 ISO 将无法包含任何 VMKLinux 异步驱动程序。ISO 中包含的所有驱动程序都必须是原生驱动程序。所有当前受支持但原生驱动程序不支持的设备都将无法运行,并且在安装或升级过程中无法识别。VCG 不会显示任何原生驱动程序不支持的设备(在 vSphere 7.0 中受支持)。
  • 不再支持 32 位用户世界在 vSphere 7.0 中,32 位用户环境支持已弃用。用户环境是 ESXi 的组件,合作伙伴使用它来提供驱动程序、插件和其他系统扩展(以 VIB 形式分发)。客户无法访问用户环境。vSphere 7.0 通过合作伙伴开发套件提供 64 位用户环境支持,并将在此主要版本中保留 32 位用户环境支持。下一个主要 ESXi 版本将永久移除对 32 位用户环境的支持。为避免功能损失,客户应确保在升级到 vSphere 7.0 以上版本之前,将任何正在使用的供应商提供的 VIB 迁移到 64 位。
  • 更新管理器插件弃用在 vSphere 7.0 中,用于管理 vSphere Update Manager 的 Update Manager 插件已被 Lifecycle Manager 插件取代。在 Lifecycle Manager 插件下仍然可以进行 vSphere Update Manager 的管理操作,并且还可以使用 vSphere Lifecycle Manager 的新功能。
  • 集成 Windows 身份验证的弃用集成 Windows 身份验证 (IWA) 在 vSphere 7.0 中已弃用,并将在未来版本中移除。有关详细信息,请参阅 VMware 知识库文章 78506
  • 弃用 DCUI 智能卡身份验证在未来的 vSphere 版本中,DCUI 将不再支持智能卡身份验证。届时,用户将不再使用个人身份验证 (PIV)、通用访问卡 (CAC) 或 SC650 智能卡访问 DCUI,而是建议用户通过 vCenter、PowerCLI、API 调用或使用用户名和密码登录来执行操作。
  • 主机配置文件中的核心分区配置文件弃用在 vSphere 7.0 中,主机配置文件中对“核心转储分区”的支持已弃用。用户应改用“核心转储分区”,而不是“核心转储文件”。
  • 软件 FCoE 适配器弃用从 vSphere 7.0 开始,VMware 弃用在 ESXi 中使用本机 FCoE 堆栈的软件 FCoE 适配器的配置,并计划在未来的 vSphere 版本中删除该功能。
  • MyVMware 中用于 vSphere Lifecycle Manager 的供应商加载项在 vSphere 7.0 中,如果 vCenter Server 实例已配置为使用代理或 Update Manager 下载服务,则可以通过 vCenter Server 的 vSphere Lifecycle Manager 访问供应商加载项。要从 MyVMware 访问加载项,请导航至自定义 ISO 和附加组件选项卡下OEM定制安装程序CD和附加组件,您可以找到来自各个供应商的自定义加载项。有关 vSphere Lifecycle Manager 和供应商加载项的更多信息,请参见管理主机和集群生命周期文档。

已知问题

安装、升级和迁移问题
  • 升级到 ESXi 7.0 后,vmnic 和 vmhba 设备名称发生变化

在某些硬件平台上,从早期 ESXi 版本升级到 ESXi 7.0 后,vmnic 和 vmhba 设备名称(别名)可能会发生变化。这种情况发生在固件提供 ACPI _SUN 方法的系统上,该方法会为不在可插拔插槽中的设备返回物理插槽号 0。

解决办法:您可以按照 VMware 知识库文章 2091560中的说明重命名设备。

  • vCenter 升级/迁移预检查失败,并显示“意外错误 87”

如果安全令牌服务 (STS) 证书不包含“主体备用名称 (SAN)”字段,vCenter Server 升级/迁移预检查将失败。当您将 vCenter 5.5 Single Sign-On 证书替换为不包含 SAN 字段的自定义证书,并尝试升级到 vCenter Server 7.0 时,就会出现这种情况。升级过程会将 STS 证书视为无效,并且预检查会阻止升级过程继续进行。

解决办法:将 STS 证书替换为包含 SAN 字段的有效证书,然后继续执行 vCenter Server 7.0 升级/迁移。

  • 使用现有 CIM 提供程序升级到 vSphere 7.0 时出现问题

升级后,先前安装的 32 位 CIM 提供程序将停止工作,因为 ESXi 需要 64 位 CIM 提供程序。客户可能会丢失与 CIMPDK、NDDK(本机 DDK)、HEXDK、VAIODK(IO 筛选器)相关的管理 API 功能,并看到与以下相关的错误:

uwglibc依赖关系。系统日志报告模块丢失,“未加载 32 位共享库”。

解决方法:没有解决方法。解决方法是从供应商处下载新的 64 位 CIM 提供程序。

  • 升级到 vCenter Server 7.0 后,智能卡和 RSA SecurID 身份验证可能会停止工作

如果您已将 vCenter Server 配置为使用智能卡或 RSA SecurID 身份验证,请在开始 vSphere 7.0 升级过程之前,请参阅 VMware 知识库文章 https://kb.vmware.com/s/article/78057 。如果不按照知识库文章中所述执行解决办法,您可能会看到以下错误消息,并且智能卡或 RSA SecurID 身份验证将不起作用。

“智能卡身份验证可能停止工作。智能卡设置可能无法保存,并且智能卡身份验证可能停止工作。”

或者

“RSA SecurID 身份验证可能会停止工作。RSA SecurID 设置可能无法保留,并且 RSA SecurID 身份验证可能会停止工作。”

解决办法:升级到 vSphere 7.0 之前,请参阅 VMware 知识库文章 https://kb.vmware.com/s/article/78057

  • 将具有外部 Platform Services Controller 的 vCenter Server 从 6.7u3 升级到 7.0 失败,并出现 VMAFD 错误

使用外部 Platform Services Controller 升级 vCenter Server 部署时,需要将 Platform Services Controller 融合到 vCenter Server Appliance 中。如果升级失败并显示错误 install.vmafd.vmdir_vdcpromo_error_21,则表示 VMAFD 首次引导过程失败。VMAFD 首次引导过程会从源 Platform Services Controller 和复制合作伙伴 vCenter Server Appliance 复制 VMware 目录服务数据库 (data.mdb)。

解决办法:在升级具有外部 Platform Services Controller 的 vCenter Server 之前,请在源 Platform Services Controller 或复制合作伙伴 vCenter Server Appliance 的以太网适配器上禁用 TCP 分段卸载 (TSO) 和通用分段卸载 (GSO)。请参阅知识库文章:https://kb.vmware.com/s/article/74678

  • 使用 CLI 升级 vCenter Server 错误地保留了 vSphere Authentication Proxy 服务的传输安全层 (TLS) 配置

如果 vSphere Authentication Proxy 服务 (vmcam) 配置为使用默认 TLS 1.2 协议以外的特定 TLS 协议,则此配置将在 CLI 升级过程中保留。默认情况下,vSphere 支持 TLS 1.2 加密协议。如果必须使用 TLS 1.0 和 TLS 1.1 协议来支持不支持 TLS 1.2 的产品或服务,请使用 TLS 配置器实用程序启用或禁用不同的 TLS 协议版本。

解决办法:使用 TLS 配置器实用程序配置 vmcam 端口。要了解如何管理 TLS 协议配置以及如何使用 TLS 配置器实用程序,请参阅 VMware 安全文档。

  • vCenter Server 升级期间可能无法保留智能卡和 RSA SecurID 设置

升级到 vCenter Server 7.0 后,使用 RSA SecurID 进行身份验证将无法正常工作。尝试使用 RSA SecurID 登录时,将出现一条错误消息,提醒您注意此问题。

解决方法:重新配置智能卡或 RSA SecureID。

  • 将适用于 Windows 的 vCenter Server 迁移到 vCenter Server Appliance 7.0 失败并显示网络错误消息

将适用于 Windows 的 vCenter Server 迁移到 vCenter Server Appliance 7.0 失败,并显示错误消息“网络中已存在 IP 地址”。这导致迁移过程无法在新的 vCenter Server Appliance 上配置网络参数。有关更多信息,请查看日志文件:/var/log/vmware/upgrade/UpgradeRunner.log

解决方法:

1、验证源 vCenter Server 上适用于 Windows 实例的所有 Windows 更新是否已完成,或者禁用自动 Windows 更新,直至迁移完成。

2、重新尝试将适用于 Windows 的 vCenter Server 迁移到 vCenter Server Appliance 7.0。

  • 使用 max_vfs 模块参数配置 SR-IOV 设备的虚拟功能数量时,更改可能不会生效

在 vSphere 7.0 中,您可以使用虚拟基础架构管理 (VIM) API(例如,通过 vSphere Client)配置 SR-IOV 设备的虚拟功能数量。此任务无需重新引导 ESXi 主机。使用 VIM API 配置后,如果您尝试使用 max_vfs 模块参数配置 SR-IOV 虚拟功能数量,则更改可能不会生效,因为它们会被 VIM API 配置覆盖。

解决办法:无。要配置 SR-IOV 设备的虚拟功能数量,请每次使用相同的方法。使用 VIM API 或使用 max_vfs 模块参数,然后重新引导 ESXi 主机。

  • 升级后的 vCenter Server Appliance 实例不会保留源实例中的所有辅助网络(网卡)

在主要升级期间,如果 vCenter Server Appliance 的源实例配置了除 VCHA 网卡以外的多个辅助网络,则目标 vCenter Server 实例将不会保留除 VCHA 网卡以外的辅助网络。如果源实例配置了属于 DVS 端口组的多个网卡,则升级期间将不会保留网卡配置。属于标准端口组的 vCenter Server Appliance 实例的配置将被保留。

解决办法:无。在目标 vCenter Server Appliance 实例中手动配置辅助网络。

  • 升级或迁移具有外部 Platform Services Controller 的 vCenter Server 后,使用 Active Directory 进行身份验证的用户将失去对新升级的 vCenter Server 实例的访问权限

升级或迁移具有外部 Platform Services Controller 的 vCenter Server 后,如果新升级的 vCenter Server 未加入 Active Directory 域,则使用 Active Directory 进行身份验证的用户将无法访问 vCenter Server 实例。

解决办法:验证新的 vCenter Server 实例是否已加入 Active Directory 域。请参阅知识库文章:https://kb.vmware.com/s/article/2118543

  • 使用 Oracle 数据库迁移具有外部 Platform Services Controller 的适用于 Windows 的 vCenter Server 失败

如果 Oracle 事件和任务表中存在非 ASCII 字符串,则在导出事件和任务数据时迁移可能会失败。系统会显示以下错误消息:UnicodeDecodeError

解决方法:无。

  • ESXi 主机升级后,主机配置文件合规性检查显示不合规状态,而主机修复任务失败

不合规状态表示配置文件和主机之间不一致。

出现这种不一致的情况可能是因为 ESXi 7.0 不允许重复的声明规则,但您使用的配置文件包含重复的规则。例如,如果您尝试使用在将 ESXi 6.5 或 ESXi 6.7 升级到版本 7.0 之前从主机中提取的主机配置文件,并且该主机配置文件包含任何与系统默认规则重复的声明规则,则可能会遇到问题。

解决方法:

1、从主机配置文件文档中删除系统默认规则的任何重复的声明规则。

2、检查合规状态。

3、修复主机。

4、如果上述步骤没有帮助,请重新启动主机。

  • vCenter Server 管理界面中显示错误消息

安装或升级到 vCenter Server 7.0 后,当您导航到 vCenter Server 管理界面中的“更新”面板时,会显示错误消息“请检查 URL 并重试”。该错误消息不会阻止您使用“更新”面板中的功能,您可以查看、准备和安装任何可用的更新。

解决方法:无。

安全功能问题
  • 当启用 HA 的受信任集群包含未经证明的主机时,加密虚拟机无法启动

在 VMware® vSphere Trust Authority™ 中,如果您已在受信任集群上启用 HA,并且集群中的一个或多个主机未通过认证,则加密虚拟机将无法启动。

解决方法:删除或修复所有未通过受信任集群证明的主机。

  • 当启用 DRS 的受信任集群包含未经证明的主机时,加密虚拟机无法启动

在 VMware® vSphere Trust Authority™ 中,如果您已在受信任集群上启用 DRS,并且集群中的一个或多个主机未通过认证,则 DRS 可能会尝试在集群中未经认证的主机上启动加密虚拟机。此操作会使虚拟机处于锁定状态。

解决方法:删除或修复所有未通过受信任集群证明的主机。

  • 尝试使用 vSphere Client 跨 vCenter Server 实例迁移或克隆加密虚拟机时失败

如果您尝试使用 vSphere Client 跨 vCenter Server 实例迁移或克隆加密虚拟机,操作将失败并显示以下错误消息:“当前状态下不允许该操作。”

解决办法:您必须使用 vSphere API 跨 vCenter Server 实例迁移或克隆加密虚拟机。

网络问题

  • 英特尔 82599/X540/X550 网卡的网络性能吞吐量降低

ixgben 驱动程序中添加的新队列对功能可提高 Intel 82599EB/X540/X550 系列 NIC 上的网络性能,与 vSphere 6.7 相比,它可能会降低 vSphere 7.0 中某些工作负载下的吞吐量。

解决办法:为了实现与 vSphere 6.7 相同的网络性能,可以使用模块参数禁用队列对。要禁用队列对,请运行以下命令:

# esxcli 系统模块参数设置 -p “QPair=0,0,0,0…” -m ixgben

运行命令后,重新启动。

  • 启用网络 I/O 控制 (NetIOC) 时,高吞吐量虚拟机的网络性能可能会下降

在启用 NetIOC 的情况下从 vSphere 6.7 升级到 vSphere 7.0 时,需要高网络吞吐量的虚拟机可能会遇到吞吐量下降的情况。

解决方法:调整 ethernetx.ctxPerDev 设置以启用多个世界。

  • IPv6 流量无法使用 IPsec 通过 VMkernel 端口

当您将 VMkernel 端口从一个端口组迁移到另一个端口组时,IPv6 流量不会使用 IPsec 穿过 VMkernel 端口。

解决方法:从受影响的服务器移除 IPsec 安全关联 (SA),然后重新应用该 SA。要了解如何设置和移除 IPsec SA,请参阅 vSphere 安全性文档。

  • ESX 网络性能更高,但 CPU 使用率有所提高

ESX 网络性能可能会随着 CPU 使用率的提高而提高。

解决方法:移除并添加仅具有 1 个 rx 调度队列的网络接口。例如:

esxcli 网络 IP 接口删除 –interface-name=vmk1

esxcli 网络 ip 接口添加 –interface-name=vmk1 –num-rxqueue=1

  • 热添加、热删除或存储 vMotion 后,虚拟机可能会丢失以太网流量

虚拟机在执行热添加、热移除或存储 vMotion 后可能会停止接收以太网流量。此问题会影响 VNIC 上行链路已启用 SR-IOV 的虚拟机。当虚拟网络的上行链路是支持 Mellanox RDMA 的 NIC 且配置了 RDMA 命名空间时,PVRDMA 虚拟网卡会出现此问题。

解决办法:您可以热移除并热添加虚拟机受影响的以太网网卡以恢复流量。在 Linux 客户机操作系统上,重新启动网络也可能解决问题。如果这些解决办法无效,您可以重新启动虚拟机以恢复网络连接。

  • 更改使用静态 IP 地址部署的 VCSA 的 IP 地址需要您提前创建 DNS 记录

引入 DDNS 后,DNS 记录更新仅适用于部署了 DHCP 配置网络的 VCSA。通过 VAMI 更改 vCenter Server 的 IP 地址时,显示以下错误:

指定的 IP 地址无法解析为指定的主机名。

解决方法:有两种可能的解决方法。

1、使用相同的 FQDN 和所需的 IP 地址创建额外的 DNS 条目。登录 VAMI 并按照步骤更改 IP 地址。

2、使用 ssh 登录 VCSA。执行以下脚本:

./opt/vmware/share/vami/vami_config_net

使用选项 6 更改 eth0 的 IP 地址。更改后,执行以下脚本:

./opt/likewise/bin/lw-update-dns

重新启动 VCSA 上的所有服务以更新 DNS 服务器上的 IP 信息。

  • 在 NSX Manager 中删除相应的逻辑交换机后,可能需要几秒钟才能移除 NSX 分布式虚拟端口组 (NSX DVPG)。

随着逻辑交换机数量的增加,在 NSX Manager 中删除相应的逻辑交换机后,从 vCenter Server 中删除 NSX DVPG 可能需要更长时间。在包含 12000 个逻辑交换机的环境中,从 vCenter Server 中删除 NSX DVPG 大约需要 10 秒钟。

解决方法:无。

  • 如果创建大量 NSX 分布式虚拟端口组,Hostd 将耗尽内存并发生故障。

在 vSphere 7.0 中,NSX 分布式虚拟端口组消耗的内存量比不透明网络大得多。因此,在内存量相同的情况下,NSX 分布式虚拟端口组无法支持与不透明网络相同的规模。

解决办法:要支持使用 NSX 分布式虚拟端口组,请增加 ESXi 主机中的内存量。如果您确认系统有足够的内存来支持虚拟机,则可以使用以下命令直接增加 hostd 的内存。

localcli –plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig –group-path host/vim/vmvisor/hostd –units mb –min 2048 –max 2048

请注意,这将导致 hostd 使用通常为您环境中的虚拟机保留的内存。这可能会导致 ESXi 主机能够支持的虚拟机数量减少。

  • 如果在虚拟机上配置了网络预留,DRS 可能会错误地启动 vMotion

如果在虚拟机上配置了网络预留,则 DRS 预计仅将虚拟机迁移到满足指定要求的主机。在包含 NSX 传输节点的集群中,如果某些传输节点通过 NSX-T 虚拟分布式交换机 (N-VDS) 加入传输区域,而其他传输节点通过 vSphere 分布式交换机 (VDS) 7.0 加入传输区域,则 DRS 可能会错误启动 vMotion。在以下情况下可能会遇到此问题:

1、虚拟机连接到配置了网络预留的 NSX 逻辑交换机。

2、一些传输节点使用 N-VDS 加入传输区域,其他传输节点通过 VDS 7.0 加入传输区域,或者,传输节点通过不同的 VDS 7.0 实例加入传输区域。

解决方法:让所有传输节点通过 N-VDS 或同一个 VDS 7.0 实例加入传输区域。

  • 将 VMkernel 网卡 (vmknic) 添加到 NSX 端口组时,vCenter Server 报告错误“不支持将 VMKernel 适配器连接到无状态主机上的 NSX 端口组。请改用分布式端口组。”

1、对于分布式虚拟交换机 (DVS) 上的无状态 ESXi,NSX 端口组上的 vmknic 已被阻止。您必须改用分布式端口组。

2、对于 DVS 上的有状态 ESXi,支持 NSX 端口组上的 vmknic,但如果 vSAN 在 NSX 端口组上使用 vmknic,则可能会出现问题。

解决方法:在同一 DVS 上使用分布式端口组。

  • 从 vCenter 为 QLogic 4x10GE QL41164HFCU CNA 启用 SRIOV 可能会失败

如果您导航至 编辑设置 物理网络适配器对话框并尝试启用 SR-IOV 时,使用 QLogic 4x10GE QL41164HFCU CNA 时操作可能会失败。尝试启用 SR-IOV 可能会导致 ESXi 主机网络中断。

解决办法:在 ESXi 主机上使用以下命令启用 SRIOV:

esxcfg模块

  • 新 如果使用分布式资源调度程序 (DRS) 的集群中的主机通过不同的虚拟分布式交换机 (VDS) 或 NSX-T 虚拟分布式交换机 (NVDS) 和 VDS 的组合加入 NSX-T 网络,则 vCenter Server 会失败

在 vSphere 7.0 中,在具有 DRS 群集的 vSphere VDS 上使用 NSX-T 网络时,如果主机未通过相同的 VDS 或 NVDS 加入 NSX 传输区域,则可能导致 vCenter Server 出现故障。

解决办法:让 DRS 群集中的主机使用相同的 VDS 或 NVDS 加入 NSX 传输区域。

存储问题

  • 在配备 SmartPQI 控制器的 HPE Gen10 服务器上,磁盘热移除和热插入后,VMFS 数据存储区不会自动挂载

当 HPE Gen10 服务器上配备 SmartPQI 控制器(不带扩展器)的 SATA 磁盘被热拔出并热插回同一台计算机的不同磁盘托架时,或者当多个磁盘以不同的顺序被热拔出并热插回时,有时会为该磁盘分配一个新的本地名称。该磁盘上的 VMFS 数据存储将显示为快照,并且由于设备名称已更改,因此不会自动重新挂载。

解决方法:无。SmartPQI 控制器不支持无序热移除和热插入操作。

  • 设置 nvme_pcie 驱动程序的日志级别失败并出现错误

使用命令 esxcli nvme driver loglevel set -l < 设置 nvme_pcie 驱动程序的日志级别时

日志级别

>,操作失败并显示错误消息:

无法设置日志级别 0x2。

保留此命令是为了与 NVMe 驱动程序兼容,但 nvme_pcie 驱动程序不支持该命令。

解决方法:无。启用 nvme_pcie 功能时,将存在此情况。

  • 由于所有活动路径上都存在错误,ESXi 可能会终止 NVMeOF 设备的 I/O

有时,由于链路问题或控制器状态,所有指向 NVMeOF 设备的活动路径都会记录 I/O 错误。如果其中一条路径的状态变为“不工作”,高性能插件 (HPP) 可能不会选择其他路径(如果该路径显示大量错误)。因此,I/O 失败。

解决方法:禁用配置选项

/Misc/HppManageDegradedPaths

解除对 I/O 的阻塞。

  • 基于 NVMe 的 VMFS 数据存储上的 VOMA 检查失败并出现错误

VOMA 检查不支持基于 NVMe 的 VMFS 数据存储,并且会失败并出现以下错误:

错误:无法预留设备。功能未实现

例子:

# voma -m vmfs -f check -d /vmfs/devices/disks/: <分区号>

在检查模式下运行 VMFS Checker 版本 2.1

初始化 LVM 元数据,将完成基本检查

检查文件系统活动

执行文件系统活跃度检查..|扫描 VMFS-6 主机活动(4096 字节/HB,1024 HB)。

错误:无法预留设备。功能未实现

中止 VMFS 卷检查

VOMA 无法检查设备:常规错误

解决办法:无。如果需要分析 VMFS 元数据,请使用 -l 选项收集元数据,然后将其传递给 VMware 客户支持。收集转储的命令如下:

voma -l -f dump -d /vmfs/devices/disks/:<分区号>

  • 使用虚拟机重新配置 API 将加密的 First Class Disk 附加到加密的虚拟机可能会失败并出现错误

如果 FCD 和 VM 使用不同的加密密钥加密,则尝试使用 VM 重新配置 API 将加密的 FCD 附加到加密的 VM 可能会失败,并显示错误消息:

无法解密磁盘,因为密钥或密码不正确。

解决方法:使用 attachDisk API 而不是 VM 重新配置 API 将加密的 FCD 附加到加密的 VM。

  • 如果 ESXi 主机的跨 VMFS 数据存储的非头范围进入永久设备丢失 (PDL) 状态,则 ESXi 主机可能会进入无响应状态

当跨区 VMFS 数据存储的非头区域与头区域同时发生故障时,不会出现此问题。在这种情况下,整个数据存储将变得无法访问,并且不再允许 I/O。

相反,如果只有非头区发生故障,而头区仍可访问,则数据存储心跳似乎正常。主机和数据存储之间的 I/O 操作将继续进行。但是,任何依赖于故障非头区的 I/O 操作也会开始失败。在等待故障 I/O 解决期间,其他 I/O 事务可能会累积,并导致主机进入无响应状态。

解决方法:修复非头部范围的 PDL 条件以解决此问题。

  • 从 APD 或 PDL 情况恢复后,启用了群集虚拟磁盘支持的 VMFS 数据存储可能仍然无法访问

仅在启用了群集虚拟磁盘支持的数据存储上才会遇到此问题。当数据存储从全部路径异常 (APD) 或永久设备丢失 (PDL) 状态恢复时,它仍然无法访问。VMkernel 日志可能会显示多个类似以下内容的 SCSI3 预留冲突消息:

2020-02-18T07:41:10.273Z cpu22:1001391219)ScsiDeviceIO:vm 1001391219:SCSIDeviceCmdCompleteCB:2972:针对设备“naa.624a9370b97601e346f64ba900024d53”的命令 0x45ba814b8340(操作:0x89)的预留冲突重试 544 次

出现此问题的原因是,参与群集的 ESXi 主机丢失了数据存储区的 SCSI 预留,并且在数据存储区恢复后无法始终自动重新获取它们。

解决方法:使用以下命令手动注册预留:

vmkfstools -L registerkey /vmfs/devices/disks/<设备名称>

其中 <设备名称> 是创建数据存储的设备的名称。

  • 虚拟 NVMe 控制器是 Windows 10 客户操作系统的默认磁盘控制器

使用硬件版本 15 或更高版本时,虚拟 NVMe 控制器是以下客户操作系统的默认磁盘控制器:

Windows 10 Windows 服务器 2016 Windows 服务器 2019

使用虚拟 NVMe 控制器时,某些功能可能无法使用。更多信息,请参阅 https://kb.vmware.com/s/article/2147714

笔记

:某些客户端使用先前默认的 LSI Logic SAS。这包括 ESXi 主机客户端和 PowerCLI。

解决方法:如果您需要虚拟 NVMe 上不可用的功能,请切换到 VMware 准虚拟 SCSI (PVSCSI) 或 LSI Logic SAS。有关使用 VMware 准虚拟 SCSI (PVSCSI) 的信息,请参阅 https://kb.vmware.com/s/article/1010398

  • ESXi 主机升级到 vSphere 7.0 后,存在重复的核心声明规则可能会导致意外行为

声明规则决定哪个多路径插件(例如 NMP、HPP 等)拥有特定存储设备的路径。ESXi 7.0 不支持重复声明规则。但是,如果您将重复规则添加到通过从旧版本升级继承的现有声明规则中,ESXi 7.0 主机不会发出警报。由于使用重复规则,存储设备可能会被非预期的插件声明,从而导致意外结果。

解决方法:请勿使用重复的核心声明规则。在添加新的声明规则之前,请删除所有现有的匹配声明规则。

  • 设置了合规状态过滤器的 CNS 查询可能需要很长时间才能完成

CNS QueryVolume API 可让您获取有关 CNS 卷的信息,例如卷的运行状况和合规性状态。当您检查单个卷的合规性状态时,可以快速获得结果。但是,当您调用 CNS QueryVolume API 检查多个卷(几十个或几百个)的合规性状态时,查询可能会很慢。

解决方法:避免使用批量查询。需要获取合规性状态时,请一次查询一个卷,或将查询 API 中的卷数量限制为 20 个或更少。使用查询时,请避免运行其他 CNS 操作以获得最佳性能。

  • 新删除的 CNS 卷可能会暂时在 CNS UI 中显示为现有卷

删除支持 CNS 卷的 FCD 磁盘后,该卷可能仍会显示在 CNS UI 中。但是,删除该卷的尝试会失败。您可能会看到类似以下内容的错误消息:找不到引用的对象或项目。

解决方法:下一次完全同步将解决不一致问题并正确更新 CNS UI。

  • 尝试将多个 CNS 卷附加到同一个 pod 时,偶尔可能会失败并出现错误

当您同时将多个卷挂载到同一个 Pod 时,挂载操作有时可能会选择同一个控制器插槽。这会导致只有一个操作成功,而其他卷挂载都会失败。

解决方法:Kubernetes 重试失败的操作后,如果节点 VM 上有可用的控制器插槽,则操作成功。

  • 新在某些情况下,当 CNS 操作失败时,任务状态在 vSphere Client 中显示为成功

例如,当您使用不合规的存储策略创建 CNS 卷时,可能会发生这种情况。操作失败,但 vSphere Client 显示任务状态为成功。

解决办法:vSphere Client 中的“成功”任务状态并不能保证 CNS 操作成功。要确保操作成功,请验证其结果。

  • 新问题:如果 CNS 持久卷的删除操作失败,可能会导致该卷在 vSphere 数据存储区中未被删除

当 CNS Delete API 尝试删除仍连接到 Pod 的持久卷时,可能会出现此问题。例如,当您删除 Pod 运行所在的 Kubernetes 命名空间时。结果,该卷会从 CNS 中清除,并且 CNS 查询操作不会返回该卷。但是,该卷仍然驻留在数据存储区中,无法通过重复的 CNS Delete API 操作删除。

解决方法:无。

vCenter Server 和 vSphere Client 问题

  • PNID 更改后,供应商提供商下线

当您更改 vCenter IP 地址(PNID 更改)时,注册的供应商提供商将离线。

解决方法:重新注册供应商提供商。

  • 虚拟机跨 vCenter 迁移失败并出现错误

当您使用跨 vCenter vMotion 将虚拟机的存储和主机移动到不同的 vCenter 服务器实例时,您可能会收到错误“当前状态下不允许该操作”。

当虚拟机具有包含基于主机的规则(例如加密或任何其他 IO 过滤规则)的分配存储策略时,此错误会在主机选择步骤之后和数据存储选择步骤之前出现在 UI 向导中。

解决办法:将虚拟机及其磁盘分配给不包含基于主机的规则的存储策略。如果源虚拟机已加密,则可能需要解密虚拟机。然后重试跨 vCenter vMotion 操作。

  • “硬件运行状况”选项卡中的存储传感器信息在 vCenter UI、主机 UI 和 MOB 上显示的值不正确

当您导航至

主机 > 监控 > 硬件健康 > 存储传感器

在 vCenter UI 中,存储信息显示不正确或未知的值。在主机 UI 和 MOB 路径“runtime.hardwareStatusInfo.storageStatusInfo”上也观察到了同样的问题。

解决方法:无。

  • vSphere UI 主机高级设置显示当前产品储物柜位置为空,默认值为空

vSphere UI 主机高级设置显示当前产品存储位置为空,默认值为空。这与实际产品位置符号链接已创建且有效不一致。这会给用户带来困惑。该默认值无法通过 UI 更正。

解决办法:用户可以使用主机上的 esxcli 命令来更正当前产品储物柜位置默认值,如下所示。

  1. 使用以下命令删除现有的产品储物柜位置设置:“esxcli system settings advanced remove -o ProductLockerLocation”
  2. 使用适当的默认值重新添加产品储物柜位置设置:

2.a. 如果ESXi是完整安装,默认值为“/locker/packages/vmtoolsRepo” export PRODUCT_LOCKER_DEFAULT=”/locker/packages/vmtoolsRepo”

2.b. 如果 ESXi 是 PXEboot 配置(例如 autodeploy),则默认值为:“/vmtoolsRepo” export PRODUCT_LOCKER_DEFAULT=”/vmtoolsRepo”

运行以下命令自动找出位置:export PRODUCT_LOCKER_DEFAULT=readlink /productLocker

添加设置:esxcli system settings advanced add -d “Path to VMware Tools repository” -o ProductLockerLocation -t string -s $PRODUCT_LOCKER_DEFAULT

您可以通过发出单个命令将上述所有步骤组合在步骤 2 中:

esxcli 系统设置高级添加 -d “VMware Tools 存储库路径” -o ProductLockerLocation -t 字符串 -s readlink /productLocker

  • 如果 vCenter Cloud Gateway 链接到 SDDC,则链接的软件定义数据中心 (SDDC) vCenter Server 实例将出现在本地 vSphere Client 中。

当 vCenter Cloud Gateway 与本地 vCenter Server 部署在同一环境中并链接到 SDDC 时,SDDC vCenter Server 将显示在本地 vSphere Client 中。这是意外行为,应忽略链接的 SDDC vCenter Server。所有涉及链接的 SDDC vCenter Server 的操作都应在 vCenter Cloud Gateway 中运行的 vSphere Client 上执行。

解决方法:无。

虚拟机管理问题

  • 自定义脚本的后自定义部分在客户机自定义之前运行

为 Linux 客户机操作系统运行客户机自定义脚本时,自定义规范中定义的自定义脚本的预自定义部分会在客户机自定义之前运行,而后自定义部分则会在客户机自定义之后运行。如果在虚拟机的客户机操作系统中启用 Cloud-Init,则由于 Cloud-Init 中存在已知问题,后自定义部分会在自定义之前运行。

解决方法:禁用 Cloud-Init 并使用标准客户机自定义。

  • vSphere vMotion、Storage vMotion 和无共享存储的 vMotion 中的组迁移操作失败并出现错误

在具有多个磁盘和多级快照的虚拟机上执行组迁移操作时,操作可能会失败,并显示错误 com.vmware.vc.GenericVmConfigFault 等待数据失败。错误 195887167。远程主机关闭连接,可能由于超时。

解决办法:对失败的虚拟机逐个重试迁移操作。

  • 从 URL 部署 OVF 或 OVA 模板失败,并出现 403 Forbidden 错误

不支持包含 HTTP 查询参数的 URL。例如,http://webaddress.com?file=abc.ovf 或 Amazon 预签名 S3 URL。

解决方法:从本地文件系统下载文件并部署它们。

  • 导入或部署名称中包含非 ASCII 字符的本地 OVF 文件可能会失败并出现错误

导入名称中包含非 ASCII 字符的本地 .ovf 文件时,可能会收到“400 错误请求”错误。使用此类 .ovf 文件在 vSphere Client 中部署虚拟机时,部署过程会在 0% 处停止。因此,您可能会收到“400 错误请求”错误或“500 内部服务器错误”。

解决方法:

    1. 从 .ovf 和 .vmdk 文件名中删除非 ASCII 字符。
      • 要编辑 .ovf 文件,请使用文本编辑器打开它。
      • 搜索非 ASCII .vmdk 文件名并将其更改为 ASCII。
    2. 再次导入或部署已保存的文件。
  • 新增 虚拟机文件夹中的第三级嵌套对象不可见

执行以下步骤:

    1. 导航到数据中心并创建虚拟机文件夹。
    2. 在虚拟机文件夹中,创建一个嵌套的虚拟机文件夹。
    3. 在第二个文件夹中,创建另一个嵌套虚拟机、虚拟机文件夹、vApp 或 VM 模板。

因此,您无法从虚拟机和模板清单树中看到第三个嵌套文件夹中的对象。

解决方法:要查看第三个嵌套文件夹中的对象,请导航到第二个嵌套文件夹并选择“虚拟机”选项卡。

vSphere HA 和容错问题

  • 从存储无法访问(例如集群范围的 APD)中恢复后,集群中已修改的虚拟机可能会成为孤立虚拟机

即使在集群上启用了 HA 和 VMCP,集群范围的 APD 恢复后,某些虚拟机仍可能处于孤立状态。

当以下情况同时发生时,可能会遇到此问题:

    • 集群中的所有主机都会经历 APD,并且直到达到 VMCP 超时才能恢复。
    • HA 主服务器由于主机上的 APD 启动故障转移。
    • 由于以下原因之一,HA 故障转移期间 API 电源启动失败:
      • 跨同一主机的 APD
      • 在整个集群中级联 APD
      • 存储问题
      • 资源不可用
    • 在 FDM 尚未注销故障虚拟机且 VC 的主机同步响应多个主机报告同一虚拟机的时间段内,可能会启动 FDM 注销和 VC 窃取虚拟机的逻辑。FDM 和 VC 都会从不同的主机注销同一虚拟机的不同已注册副本,导致虚拟机成为孤立虚拟机。

解决方法:APD 恢复后,您必须在集群内手动取消注册并重新注册孤立的虚拟机。

如果您不手动重新注册孤立的虚拟机,HA 将尝试对孤立的虚拟机进行故障转移,但这可能需要 5 到 10 个小时,具体取决于 APD 恢复的时间。

在这些情况下,集群的整体功能不会受到影响,HA 将继续保护虚拟机。这只是问题持续期间 VC 上显示的异常情况。

vSphere Lifecycle Manager 问题

  • 您无法在已启用管理所有主机上的映像设置和更新的群集上启用 NSX-T

NSX-T 与 vSphere Lifecycle Manager 的映像管理功能不兼容。当您启用群集以在群集中的所有主机上同时进行映像设置和更新时,您无法在该群集上启用 NSX-T。但是,您可以将 NSX Edge 部署到此群集。

解决方法:将主机移动到可以使用基准管理的新集群,并在新集群上启用 NSX-T。

  • 在 vSphere 7.0 版本中,无法在 vSAN 群集上同时启用 vSphere Lifecycle Manager 和 vSAN 文件服务

如果在集群上启用了 vSphere 生命周期管理器,则无法在同一集群上启用 vSAN 文件服务,反之亦然。要在已启用 vSAN 文件服务的集群上启用 vSphere 生命周期管理器,请先禁用 vSAN 文件服务,然后重试此操作。请注意,如果您过渡到由单个映像管理的集群,则无法在该集群上禁用 vSphere 生命周期管理器。

解决方法:无。

  • ESXi 7.0 主机无法添加到使用 vSphere Auto Deploy 通过单个映像管理的集群中

尝试使用 vSphere Auto Deploy 中的“添加到清单”工作流将 ESXi 主机添加到使用单个映像管理的集群时失败。失败的原因是现有 Auto Deploy 规则集中没有匹配的模式。该任务失败且不显示任何提示,主机仍保留在“已发现的主机”选项卡中。

解决方法:

    1. 从“发现的主机”选项卡中移除与规则集不匹配的 ESXi 主机。
    2. 创建规则或编辑现有的自动部署规则,其中主机目标位置是由映像管理的集群。
    3. 重新启动主机。

主机将添加到您通过 vSphere Lifecycle Manager 中的映像管理的集群中。

  • 当硬件支持管理器不可用时,vSphere High Availability (HA) 功能会受到影响

如果您使用单个映像管理的集群(其中选择了固件和驱动程序插件并启用了 vSphere HA)的硬件支持管理器不可用,则 vSphere HA 功能会受到影响。您可能会遇到以下错误。

    • 在群集上配置 vSphere HA 失败。
    • 无法完成主机上的 vSphere HA 代理的配置:在群集上应用 HA VIB 遇到失败。
    • 修复 vSphere HA 失败:发生常规系统错误:无法获取有效组件图。
    • 禁用 vSphere HA 失败:删除解决方案任务失败。发生常规系统错误:无法从软件仓库或硬件支持管理器中找到硬件支持包。

解决方法:

    • 如果硬件支持管理器暂时不可用,请执行以下步骤。
    1. 将硬件支持管理器重新连接到 vCenter Server。
    2. 从主机和集群菜单中选择一个集群。
    3. 选择“配置”选项卡。
    4. 在“服务”下,单击“vSphere 可用性”。
    5. 重新启用 vSphere HA。
    • 如果硬件支持管理器永久不可用,请执行以下步骤。
    1. 从图像规范中删除硬件支持管理器和硬件支持包
    2. 重新启用 vSphere HA。
    3. 从主机和集群菜单中选择一个集群。
    4. 选择“更新”选项卡。
    5. 单击“编辑”。
    6. 删除固件和驱动程序插件并单击“保存”。
    7. 选择“配置”选项卡。
    8. 在“服务”下,单击“vSphere 可用性”。
    9. 重新启用 vSphere HA。
  • 在 vSphere Lifecycle Manager 中执行修复过程后,I/OFilter 不会从集群中移除

通过在 vSphere Lifecycle Manager 中修复集群来从集群中移除 I/OFilter 失败,并显示以下错误消息:iofilter XXX 已存在。iofilter 仍列为已安装。

解决方法:

    1. 从 vCenter Server 管理对象 (IoFilterManager) 调用 IOFilter API UninstallIoFilter_Task。
    2. 在 vSphere Lifecycle Manager 中修复集群。
    3. 从 vCenter Server 管理对象 (IoFilterManager) 调用 IOFilter API ResolveInstallationErrorsOnCluster_Task 来更新数据库。
  • 在 vSphere Lifecycle Manager 中修复启用 vSphere HA 的集群时,添加主机会导致 vSphere HA 错误状态

在启用 vSphere HA 的群集的修复过程中添加一个或多个 ESXi 主机会导致以下错误消息:在群集上应用 HA VIB 时遇到故障。

解决方法:集群修复操作完成后,执行以下任务之一。

    • 右键单击发生故障的 ESXi 主机并选择 重新配置 vSphere HA。
    • 禁用并重新启用集群的 vSphere HA。
  • 在 vSphere Lifecycle Manager 中修复已启用 vSphere HA 的集群时,禁用并重新启用 vSphere HA 会导致 vSphere HA 错误状态

在集群修复过程中禁用并重新启用 vSphere HA,可能会导致修复过程失败,因为 vSphere HA 运行状况检查会报告主机未安装 vSphere HA VIB。您可能会看到以下错误消息:设置集群所需的映像规格失败。

解决办法:集群修复操作完成后,禁用并重新启用集群的 vSphere HA。

  • 在 vSphere Lifecycle Manager 中检查推荐的映像在大型集群中性能较慢

在包含超过 16 台主机的大型集群中,建议生成任务可能需要一个多小时才能完成,或者可能会挂起。建议任务的完成时间取决于每台主机上配置的设备数量,以及 vSphere Lifecycle Manager 在获取有效映像进行推荐之前需要处理的来自库的候选映像数量。

解决方法:无。

  • 在 vSphere Lifecycle Manager 中检查硬件兼容性在大型集群中性能较慢

在包含超过 16 台主机的大型集群中,验证报告生成任务可能需要长达 30 分钟才能完成,或者可能会挂起。完成时间取决于每台主机上配置的设备数量以及集群中配置的主机数量。

解决办法:无

  • 在 vSphere Lifecycle Manager 中修复集群时,显示非英语语言的不完整错误消息

您可能会在 vCenter Server 用户界面中遇到本地化语言的不完整错误消息。这些消息在 vSphere Lifecycle Manager 中的集群修复过程失败后显示。例如,您可能会看到以下错误消息。 英语错误消息:在集群“Cluster-1”上运行的虚拟机“VMC on DELL EMC -FileServer”报告了一个阻止进入维护模式的问题:无法访问虚拟机配置:无法访问文件 [local-0] VMC on Dell EMC – FileServer/VMC on Dell EMC – FileServer.vmx 法语错误消息:虚拟机“VMC on DELL EMC -FileServer”,位于集群“{Cluster-1}”,表示存在一个阻止进入维护模式的问题:无法访问虚拟机配置:无法访问文件 [local-0] VMC on Dell EMC – FileServer/VMC on Dell EMC – FileServer.vmx

解决方法:无。

  • 将没有供应商插件、组件或固件和驱动程序插件的映像导入到包含此类元素的群集中,不会删除现有映像的映像元素

仅 ESXi 基础映像被替换为导入的映像中的映像。

解决方法:导入过程完成后,编辑图像,如果需要,删除供应商插件、组件以及固件和驱动程序插件。

  • 将使用基线的集群转换为使用单个映像的集群时,会显示一条警告,提示 vSphere HA VIB 将被移除

将使用基线的已启用 vSphere HA 的群集转换为使用单个映像的群集,可能会导致出现一条警告消息,显示 vmware-fdm 组件将被删除。

解决办法:可以忽略此消息。转换过程会安装 vmware-fdm 组件。

  • 如果将 vSphere Update Manager 配置为通过代理服务器从 Internet 下载修补程序更新,则升级到将 Update Manager 转换为 vSphere Lifecycle Manager 的 vSphere 7.0 后,从 VMware 修补程序存储库下载修补程序可能会失败

在早期版本的 vCenter Server 中,您可以为 vCenter Server 和 vSphere Update Manager 配置独立的代理设置。升级到 vSphere 7.0 后,vSphere Update Manager 服务将成为 vSphere Lifecycle Manager 服务的一部分。对于 vSphere Lifecycle Manager 服务,代理设置是根据 vCenter Server Appliance 设置进行配置的。如果您已将 Update Manager 配置为通过代理服务器从 Internet 下载修补程序更新,但 vCenter Server Appliance 没有代理设置配置,则在 vCenter Server 升级到版本 7.0 后,vSphere Lifecycle Manager 将无法连接到 VMware 库,并且无法下载修补程序或更新。

解决办法:登录 vCenter Server Appliance 管理界面,https://

vCenter 服务器设备的 FQDN 或 IP 地址

:5480,为 vCenter Server Appliance 配置代理设置并启用 vSphere Lifecycle Manager 来使用代理。

其他问题
  • 将版本 6.5 的主机配置文件应用于版本 7.0 的 ESXi 主机时,合规性检查失败

将版本 6.5 的主机配置文件应用到版本 7.0 的 ESXi 主机,会导致 Coredump 文件配置文件被报告为与主机不兼容。

解决方法:有两种可能的解决方法。

1、创建版本 6.5 的主机配置文件时,请在 ESXi 主机上将高级配置选项 VMkernel.Boot.autoCreateDumpFile 设置为 false。

2、应用现有 6.5 版本的主机配置文件时,在主机配置文件中添加高级配置选项 VMkernel.Boot.autoCreateDumpFile,将该选项配置为固定策略,并将值设置为 false。

  • 当您的浏览器设置为非英语语言时,“操作”下拉菜单不包含任何项目

当您的浏览器设置为英语以外的语言时,您点击 切换到新视图 虚拟机中的按钮 概括 vSphere Client 清单选项卡 行动 下拉菜单中的 客户操作系统 面板不包含任何项目。

解决方法:选择 行动 虚拟机页面顶部的下拉菜单。

  • 当启用动态接收方缩放 (DYN_RSS) 或通用 RSS (GEN_RSS) 功能时,Mellanox ConnectX-4 或 ConnectX-5 本机 ESXi 驱动程序可能会出现轻微的吞吐量下降

当 DYN_RSS 和 GEN_RSS 功能打开时,Mellanox ConnectX-4 或 ConnectX-5 本机 ESXi 驱动程序可能会出现不到 5% 的吞吐量下降,这不太可能影响正常工作负载。

解决方法:您可以使用以下命令禁用 DYN_RSS 和 GEN_RSS 功能:

# esxcli 系统模块参数设置 -m nmlx5_core -p “DYN_RSS=0 GEN_RSS=0”

# 重启

  • 在 PVRDMA 环境中,同一主机上的两个虚拟机之间的 RDMA 流量可能会失败

在 vSphere 7.0 的 PVRDMA 环境实现中,如果存在 HCA,虚拟机会通过 HCA 进行流量传输,以进行本地通信。但是,RDMA 流量的环回在 qedrntv 驱动程序上不起作用。例如,在同一上行链路端口下配置的虚拟机上运行的 RDMA 队列对无法相互通信。

在 vSphere 6.7 及更早版本中,如果启用了 SRQ,则使用 HCA 进行本地 RDMA 流量传输。vSphere 7.0 使用 HCA 环回机制,用于运行启用了 SRQ 的 PVRDMA 版本的虚拟机,且最低版本为 HW v14,并使用 RoCE v2。

Marvell FastLinQ 适配器固件的当前版本不支持同一 PF 或端口的 QP 之间的环回流量。

解决办法:已在 vSphere 7.0 认证的开箱即用驱动程序中添加了所需的支持。如果您使用的是内置 qedrntv 驱动程序,则必须使用 3 主机配置,并将虚拟机迁移到第三台主机。

  • qedrntv 驱动程序中的不可靠数据报流量 QP 限制

Marvell FastLinQ qedrntv RoCE 驱动程序和不可靠数据报 (UD) 流量存在限制。涉及批量流量的 UD 应用程序可能会在使用 qedrntv 驱动程序时失败。此外,UD QP 只能与 DMA 内存区域 (MR) 配合使用。不支持物理 MR 或 FRMR。尝试将物理 MR 或 FRMR 与 UD QP 一起使用的应用程序在使用 qedrntv 驱动程序时将无法传输流量。此类测试应用程序的已知示例包括 ibv_ud_pingpong 和 ib_send_bw。

VMware ESXi 环境中的标准 RoCE 和 RoCEv2 用例(例如 iSER、NVMe-oF (RoCE) 和 PVRDMA)不受此问题影响。UD 流量的用例有限,并且此问题会影响一小部分需要大量 UD 流量的应用程序。

Marvell FastLinQ 硬件不支持 RDMA UD 流量卸载。为了满足 VMware PVRDMA 对 GSI QP 的支持要求,qedrntv 驱动程序中添加了仅限软件的 UD QP 支持实现。该实现的目标是提供对控制路径 GSI 通信的支持,而非支持批量流量和高级功能的 UD QP 的完整实现。

由于 UD 支持是通过软件实现的,因此该实现可能无法应对高流量,数据包可能会被丢弃。这可能会导致大量 UD 流量失败。

解决方法:qedrntv 驱动程序不支持批量 UD QP 流量,目前尚无解决方法。iSER、NVMe、RDMA 和 PVRDMA 等 VMware ESXi RDMA (RoCE) 用例不受此问题影响。

  • 配备 QLogic 578xx NIC 的服务器在频繁连接或断开 iSCSI LUN 时可能会出现故障

如果您在短时间内频繁触发 QLogic 578xx NIC iSCSI 连接或断开连接,则服务器可能由于 qfle3 驱动程序问题而出现故障。这是由设备固件中的已知缺陷引起的。

解决方法:无。

  • 在 Broadcom NVMe over FC 环境中,ESXi 可能会在驱动程序卸载或控制器断开操作期间失败

在 Broadcom NVMe over FC 环境中,ESXi 可能会在驱动程序卸载或控制器断开操作期间失败,并显示以下错误消息:@BlueScreen: #PF Exception 14 in world 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19

解决方法:无。

  • ESXi 不显示某些戴尔服务器上 i350/X550 网卡的 OEM 固件版本号

内置 ixgben 驱动程序仅识别 i350/X550 网卡的固件数据版本或签名。在某些戴尔服务器上,OEM 固件版本号已编入 OEM 软件包版本区域,而内置 ixgben 驱动程序无法读取此信息。仅显示 8 位固件签名。

解决方法:要显示 OEM 固件版本号,请安装异步 ixgben 驱动程序版本 1.7.15 或更高版本。

  • X710 或 XL710 网卡可能会在 ESXi 中出现故障

当您对 X710 或 XL710 NIC 启动某些破坏性操作(例如重置 NIC 或操作 VMKernel 的内部设备树)时,NIC 硬件可能会从非数据包内存中读取数据。

解决方法:不要重置 NIC 或操作 vmkernel 内部设备状态。

  • NVMe-oF 不保证系统重启后 VMHBA 名称持久有效

NVMe-oF 是 vSphere 7.0 中的一项新功能。如果您的服务器安装了使用 vmhba30+ 的 USB 存储,并且还配置了 NVMe over RDMA,则系统重新引导后,VMHBA 名称可能会发生变化。这是因为 NVMe over RDMA 的 VMHBA 名称分配与 PCIe 设备不同。ESXi 不保证持久性。

解决方法:无。

  • vCenter 数据库大小为 300 GB 或更大时备份失败

如果 vCenter 数据库大小为 300 GB 或更大,基于文件的备份将失败并超时。将显示以下错误消息:超时!72000 秒内无法完成

解决方法:无。

  • 根据版本 6.5 或 6.7 的主机配置文件检查 ESXi 7.0 主机的合规性状态时,会导致 vmhba 和 vmrdma 设备出现错误

检查使用 nmlx5_core 或 nvme_pcie 驱动程序的 ESXi 7.0 主机与版本 6.5 或 6.7 的主机配置文件的合规性时,您可能会观察到以下错误,其中 address1 和 address2 特定于受影响的系统。

1、您的主机上不存在总线类型为逻辑、地址为 1 的 vmhba 设备。

2、您的主机上不存在总线类型为逻辑、地址为 2 的 vmrdma 设备。

该错误是由于 ESXi 版本 7.0 及更早版本中的 nmlx5_core 或 nvme_pcie 驱动程序生成的设备地址不匹配造成的。

解决办法:可以忽略该错误。ESXi 主机功能不受影响。要解决合规性状态错误,请从 ESXi 主机版本 7.0 中重新提取主机配置文件,然后将新的主机配置文件应用到该主机。

  • 从具有外部 Platform Services Controller 的 vCenter Server 6.x 升级到 vCenter Server 7.0 后,还原 vCenter Server 7.0 可能会失败

将使用外部 Platform Services Controller 升级的 vCenter Server 7.0 从 6.x 还原到 vCenter Server 7.0 时,还原可能会失败并显示以下错误:无法检索设备存储列表

解决办法:在还原过程的第一阶段,增加 vCenter Server 7.0 的存储级别。例如,如果 vCenter Server 6.7 外部 Platform Services Controller 设置存储类型为“小”,则在还原过程中选择“大”存储类型。

  • 主机配置文件修复过程中未配置“启用 SSL 协议”配置参数

主机配置文件修复期间未配置“已启用 SSL 协议”配置参数,并且仅启用了系统默认协议 tlsv1.2。在 vCenter Server 7.0 环境中,版本 7.0 及更低版本的主机配置文件会出现此行为。

解决办法:要为 SFCB 启用 TLSV 1.0 或 TLSV 1.1 SSL 协议,请使用 SSH 登录到 ESXi 主机,然后运行以下 ESXCLI 命令:esxcli system wbem -P <protocol_name>

  • 无法使用主机配置文件配置锁定模式设置

锁定模式无法使用安全主机配置文件进行配置,也无法同时应用于多个 ESXi 主机。您必须手动配置每个主机。

解决办法:在 vCenter Server 7.0 中,您可以使用安全主机配置文件配置锁定模式并管理锁定模式例外用户列表。

  • 将主机配置文件应用于群集时,ESXi 主机缺少增强型 vMotion 兼容性 (EVC) 设置

VMware 配置文件 /etc/vmware/config 中的某些设置不受主机配置文件管理,因此在修改该配置文件时会被阻止。因此,当主机配置文件应用于群集时,EVC 设置会丢失,从而导致 EVC 功能丧失。例如,未屏蔽的 CPU 可能会暴露给工作负载。

解决方法:重新配置集群上的相关 EVC 基线以恢复 EVC 设置。

  • 在 vCenter Server 7.0 中使用定义核心转储分区的主机配置文件会导致错误

在 vCenter Server 7.0 中,无法在主机配置文件中配置和管理核心转储分区。尝试应用定义了核心转储分区的主机配置文件时,会导致以下错误:未找到有效的核心转储分区。

解决办法:无。在 vCenter Server 7.0 中,主机配置文件仅支持基于文件的核心转储。

  • 从 ESXi 主机复制主机配置文件或编辑主机配置文件时,用户输入的值将丢失

即使提供了明确的密钥生成规则,某些主机配置文件密钥仍是通过哈希计算生成的。因此,当您从主机复制设置或编辑主机配置文件时,应答文件中的用户输入值会丢失。

解决办法:在 vCenter Server 7.0 中,从 ESXi 主机复制主机配置文件或修改主机配置文件时,用户输入的设置会被保留。

  • 某些库向 vSphere 发出的 HTTP 请求可能会被拒绝

vSphere 7.0 中的 HTTP 反向代理强制执行比以前版本更严格的标准合规性。这可能会暴露应用程序用于对 vSphere 进行 SOAP 调用的某些第三方库中预先存在的问题。

如果您开发使用此类库的 vSphere 应用程序,或在 vSphere 堆栈中包含依赖此类库的应用程序,则当这些库向 VMOMI 发送 HTTP 请求时,您可能会遇到连接问题。例如,从 vijava 库发出的 HTTP 请求可能采用以下形式:

POST /sdk HTTP/1.1

SOAP动作

内容类型:text/xml;字符集=utf-8

用户代理:Java/1.8.0_221

此示例中的语法违反了 HTTP 协议标头字段的要求,该要求要求 SOAPAction 后必须使用冒号。因此,该请求在传输过程中被拒绝。

解决方法:如果开发者在其应用程序中使用了不合规的库,可以考虑改用遵循 HTTP 标准的库。例如,使用 vijava 库的开发者可以考虑改用最新版本的 yavijava 库。

  • 编辑主机配置文件中的高级选项参数并将值设置为 false,会导致将值设置为 true

尝试将主机配置文件中高级选项参数的值设置为 false 时,用户界面会创建一个非空字符串值。非空值会被解释为 true,并且主机配置文件中的高级选项参数会收到 true 值。

解决方法:有两种可能的解决方法。

1、在参考 ESXi 主机上将高级选项参数设置为 false,并从主机配置文件中的该主机复制设置。

注意:在修改主机上的高级选项参数之前,主机必须符合主机配置文件。

2、在引用 ESXi 主机上将高级选项参数设置为 false,并从该主机创建主机配置文件。然后将主机配置文件设置从新主机配置文件复制到现有主机配置文件。

  • SNMP 动态防火墙规则集在修复过程中被主机配置文件修改

SNMP 防火墙规则集是动态的,在运行时进行处理。应用主机配置文件时,规则集的配置由主机配置文件和 SNMP 同时管理,这可能会意外修改防火墙设置。

解决方法:有两种可能的解决方法。

1、为了允许规则集动态地管理自身,请在主机配置文件的配置中排除 SNMP 防火墙规则集选项。

2、要继续进行规则集的双重管理,请在需要时更正防火墙规则集状态。

  • 使用 Broadcom 驱动程序 lsi_msgpt3、lsi_msgpt35 和 lsi_mr3 时可能会看到转储文件

使用 lsi_msgpt3、lsi_msgpt35 和 lsi_mr3 控制器时,可能会出现转储文件 lsuv2-lsi-drivers-plugin-util-zdump。退出此插件实用程序中使用的 storelib 时会出现问题。这不会对 ESXi 操作产生影响,您可以忽略该转储文件。

解决办法:您可以放心地忽略此消息。您可以使用以下命令移除 lsuv2-lsi-drivers-plugin:esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin

  • 您可能会看到在 vCenter 中配置 PCI 设备的 SR-IOV 后不需要重新启动,但第三方扩展所做的设备配置可能会丢失,需要重新启动才能重新应用。

在 ESXi 7.0 中,无需重新引导即可应用 SR-IOV 配置,并且会重新加载设备驱动程序。ESXi 主机可能使用第三方扩展来执行设备配置,这些配置需要在引导期间加载设备驱动程序后运行。这些第三方扩展需要重新引导才能重新应用设备配置。

解决方法:配置 SR-IOV 后必须重新启动才能应用第三方设备配置。


0 条评论

发表回复

Avatar placeholder

您的邮箱地址不会被公开。 必填项已用 * 标注