Questions tagged «vmware-vsphere»

vSphere是企业级虚拟化解决方案。它充当管理一组基于VMware ESXi的主机的云计算OS。

10
如何[礼貌地?]告诉软件供应商他们不知道他们在说什么
但这不是一个技术问题,而是一个有效的问题。场景: HP ProLiant DL380 Gen 8,带有2个8核Xeon E5-2667 CPU和256GB RAM,运行ESXi 5.5。给定供应商系统的八个VM。用于测试的四个VM,用于生产的四个VM。每个环境中的四个服务器执行不同的功能,例如:Web服务器,主应用程序服务器,OLAP DB服务器和SQL DB服务器。 已配置CPU份额,以阻止测试环境影响生产。所有存储在SAN上。 我们对性能有一些疑问,供应商坚持认为我们需要为生产系统提供更多的内存和vCPU。但是,从vCenter可以清楚地看到,现有分配没有被触及,例如:主应用程序服务器上CPU使用率的每月视图徘徊在8%左右,奇数峰值高达30%。峰值往往与备份软件的启动相吻合。 RAM上的情况与此类似-服务器上的最高利用率约为35%。 因此,我们一直在使用Process Monitor(Microsoft SysInternals)和Wireshark进行一些挖掘,我们建议该供应商首先对它们进行一些TNS调整。但是,这不是重点。 我的问题是:我们如何让他们确认我们发送给他们的VMware统计数据足以证明更多的RAM / vCPU无效? -更新2014年12月7日- 有趣的一周。我们的IT管理层表示,我们应该更改VM分配,现在我们正在等待业务用户的一些停机时间。奇怪的是,业务用户说应用程序的某些方面运行缓慢(与我所不知道的相比),但是当我们需要关闭系统时,他们会“让我们知道”(抱怨) ,发牢骚!)。 顺便说一句,系统的“慢”方面显然不是HTTP(S)元素,即:大多数用户使用的“瘦应用” 。听起来像是主要财务机构使用的“胖客户端”安装,显然“速度较慢”。这意味着我们现在正在调查中考虑客户端和客户端-服务器的交互。 由于该问题的最初目的是寻求帮助,是沿着“戳”路线,还是只是进行更改,而我们现在正在进行更改,因此,我将使用longneck的答案将其关闭。 谢谢大家的意见; 像往常一样,serverfault不仅仅是一个论坛-就像心理学家的沙发:-)

2
vSphere教育-配置RAM过多的VM有何弊端?
VMware内存管理似乎是一个棘手的平衡行为。有了群集RAM,资源池,VMware的管理技术(TPS,热气球,主机交换),来宾内的RAM利用率,交换,预留,份额和限制,存在很多变量。 我处于客户端使用专用vSphere群集资源的情况。但是,他们就像在物理硬件上一样配置虚拟机。反过来,这意味着标准的VM构建可能具有4个vCPU和16GB或更多的RAM。我来自一个小学校(1个vCPU,最小的RAM),检查实际使用情况并根据需要进行调整。不幸的是,许多供应商的要求和不熟悉虚拟化的人们要求的资源比必要的要多。我对量化此决定的影响很感兴趣。 来自“问题”集群的一些示例。 资源池摘要-看起来几乎4:1过量使用。注意大量增加的RAM。 资源分配-最坏情况分配列显示这些VM在受限条件下只能访问其配置RAM的不到50%。 上面列表中顶级VM的实时内存利用率图。分配了4个vCPU和64GB RAM。平均使用量不到9GB。 同一VM的摘要 在vSphere环境中过度使用和过度配置资源(特别是RAM)有哪些弊端? 假设VM可以在更少的RAM中运行,是否可以公平地配置具有比其实际需要更多的RAM的虚拟机? 反驳参数是什么:“如果VM分配了16GB的RAM,但仅使用4GB,那有什么问题? ”?例如,是否需要告知客户虚拟机与物理硬件不同? 应该使用什么特定指标来度量RAM使用率。跟踪“活动”与时间的峰值?看“已消费”? 更新:我使用vCenter Operations Manager对此环境进行了配置,并获得了有关上面列出的群集统计信息的一些详细信息。虽然事情肯定是过量的,但VM实际上配置得过多了不必要的RAM,以至于实际的(微小的)内存占用量在群集/主机级别上都没有显示任何内存争用... 我的收获是,虚拟机的大小应该确实合适,并具有用于操作系统级缓存的一些缓冲区。出于无知或供应商“需求”而过度使用导致出现此处出现的情况。内存膨胀似乎在每种情况下都是不好的,因为这会影响性能,因此正确调整大小可以帮助防止这种情况。 更新2: 其中一些虚拟机开始崩溃: kernel:BUG: soft lockup - CPU#1 stuck for 71s! VMware将其描述为过度使用内存过多的症状。所以我想这回答了问题。 vCops“超大型虚拟机”报告... vCops“可回收废物”图...

7
用开源替代品替代VMware vSphere基础架构?
我们正计划从VMware(和第三方应用程序)缓慢迁移到开源替代方案(免费会很棒)。 基本上,我们想从一些小型集群实验室开始,然后在将来(X年,现在不急着迁移)迁移生产环境(35个以上的ESX,1500个VM)。 我们的选择是选择CentOS / Scientific Linux作为操作系统,将KVM作为虚拟机管理程序。 我们正在考虑的vCenter替代方案是Convirt,但我们不知道我们在VMware中使用的所有功能是否都将由Convirt提供(HA,DRS,群集等),还是我们应该尝试其他替代方案(有任何想法吗?) 监视已由Nagios取代,备份/复制将由某些脚本魔术取代。 那么,有没有人可以给我们一些建议或类似的情况? PS。-这是我在serverfault中遇到的第一个问题,英语水平不是很好,但是我希望这个问题可以理解。 PS2-我忘了提一下,我们也提供VDI。我们一直在考虑的替代方法是Spice。

5
VMware ESXi 5修补程序是否累积?
这似乎很基本,但是我对手动更新独立的VMware ESXi主机所涉及的修补策略感到困惑。VMware vSphere博客试图解释这一点,但是实际过程对我来说仍然不清楚。 从博客中说: Patch01包括以下VIB的更新:“ esxi-base”,“ driver10”和“ driver 44”。然后,稍后Patch02发行了对“ esxi-base”,“ driver20”和“ driver 44”的更新。P2是累积的,因为“ esxi-base”和“ driver44” VIB将在Patch01中包含更新。但是,必须注意,Patch02不包含“驱动程序10” VIB,因为该模块尚未更新。 这篇VMware社区文章给出了不同的答案。这个与另一个矛盾。 我遇到的许多ESXi安装都是独立的,没有使用Update Manager。可以使用通过VMWare修补程序下载门户提供的修补程序来更新单个主机。该过程非常简单,因此该部分很有意义。 更大的问题是确定什么确切实际下载和安装。就我而言,我有大量的HP特定的ESXi构建,其中包含传感器和HP ProLiant硬件管理。 假设这些服务器从9/2011开始以ESXi build#474610开始。 查看下面的补丁程序门户屏幕快照,有一个适用于ESXi update01的补丁程序,内部版本#623860。也有用于版本#653509和#702118的补丁。 即将推出ESXi的旧版本(例如,特定于供应商的内部版本)时,什么是使系统完全最新的正确方法?哪些补丁是累积的,哪些需要顺序应用?是安装最新版本的正确方法,还是我需要逐步退步并逐步进行修补? 另一个考虑因素是补丁下载量很大。在带宽有限的站点,很难下载多个〜300mb的补丁。

4
最佳实践:每个物理核心的vCPU
我正在尝试找到一些有关虚拟化的文档或最佳实践指南,这些虚拟化与每个(CPU)物理核心的vCPU设置有关。如果重要的话,我正在寻找用于虚拟化实施的vmWare。例如,Intel Xeon CPU可能具有4、8等核。我有兴趣了解更多有关每个物理内核仅配置一个vCPU以外的资源的信息。我与之交谈的供应商肯定认为可以将单个内核配置到多个vCPU中。 到目前为止,我在研究中通常看到的是:“嗯,这取决于您的应用程序。” 在那种情况下,我的应用程序是编辑代码,编译/链接,测试和配置管理。当然,并非所有的VM都需要为每个内核配置多个vCPU,但通常情况下。

6
为什么快照被视为临时备份而不是真实备份?
我正在使用VMware ESXi。在我们的团队中,我们用于提供快照以进行长期备份。 然后,我们面临诸如内存溢出和服务器挂起的问题。 我开始阅读VMware知识库文章以及所有地方。建议在任何地方长时间不要创建快照。 甚至VMware也建议保留快照最多三天。 但是我们的团队一直要求我们至少拥有两个永久快照(直到删除VM)。有时我们可能会使用VM一年)。 一个快照用于全新的计算机状态。(因此,当我们完成对一个应用程序的测试时,我们将恢复到新的状态并安装另一个应用程序)(如果我不允许这样做,则可能经常需要托管VM。) 用于使VM保持某种状态的下一个快照(也许他们会发现问题并将其保持一段时间。或者他们可以为应用程序安装先决条件并使机器准备好进行测试。) 从逻辑上讲,他们的需求似乎是公平的。但是,如果允许的话,我将允许他们长时间保存快照。我们没有将我们的VM用作邮件服务器或数据库服务器。 为什么长时间保留快照会产生不利影响? 为什么将快照视为临时备份,而不是真实备份?

4
VMware中有多少争用太多?
一段时间以来,我一直在试图弄清楚为什么我们的许多业务关键型系统都收到了从缓慢到极端的“缓慢”报告。我最近把目光投向了托管所有相关服务器的VMware环境。 我最近下载并安装了SCOM 2012的Veeam VMware管理包的试用版,但是我很难确定(我的老板也是如此)它向我报告的数字。为了试图说服老板,我告诉我的数字是真实的,我开始调查VMware客户端本身以验证结果。 我看了这篇VMware KB文章;专门用于Co-Stop的定义,其定义为: MP虚拟机准备运行的时间,但是由于co-vCPU调度争用而导致延迟 我要翻译成的 来宾操作系统需要主机时间,但是必须等待资源可用,因此可以被视为“无响应” 这个翻译看起来正确吗? 如果是这样,这就是我很难理解的地方:包含大多数“慢速” VM的主机当前显示的CPU Co-stop平均为127,835.94毫秒! 这是否意味着该主机上的VM平均需要等待2分钟以上的CPU时间? 该主机上确实有两个4核CPU,并且它具有1x8 CPU来宾和14x4 CPU来宾。

2
未知的工具正在擦除我们的虚拟机,我们无法对其进行标识
vSphere上Windows 2008 R2 VM的控制台视图显示以下屏幕: “操作2之2”“擦拭磁盘” 有人可以建议这个程序是什么吗? 有关此谜的一些信息: 现在已实现了许多虚拟机。症状是重启后出现“找不到操作系统”消息。 VM在ESXi上运行。VM正在特定的数据存储上运行 Netapp NFS在工作盒中安装磁盘不会显示分区表,还无法进行十六进制转储。 VM不是硬重置的,必须是操作系统启动的软重置 没有安装iso,没有对VM的“非来宾”访问,因此需要是RDP或类似的名称 整夜使用netapp备份软件执行备份 所讨论的NFS在后端(阵列级别)进行了精简配置,并且在我们看到这些问题后就没有足够的空间。

1
vSphere-为什么要升级VM硬件版本?
年初,我们将vSphere环境从vSphere 5.0升级到vSphere 5.1 U1 Build 1063329,其中包含十几个ESXi主机和Windows Server 2008 R2 SP1上托管的vCenter实例。该项目的突出问题之一是虚拟机虚拟硬件的升级。 我无法理解为什么我应该去上班和停机才能在我们所有的VM上升级虚拟硬件版本。我们新创建的虚拟机使用的是Virtual Hardware v.9,这是vSphere 5.1 U1中受支持的最新版本,可解决我们在较旧的vSphere 5.0实例上使用Windows Server 2012 R2和WinPE 4.0时遇到的问题。我们所有的旧虚拟机都是兼容的虚拟硬件版本(KB2007240),因此我们没有被迫升级其硬件版本。 由于客户机操作系统和ESXi兼容性没有问题,我是否缺少将所有虚拟机的虚拟硬件升级到“最新”版本9的技术原因?升级虚拟硬件并不是一件容易的事,因为我必须关闭虚拟机,对其进行快照或备份,然后针对数百个虚拟机进行升级。除了避免以后再做,并且让我们所有的VM都在最新的虚拟硬件版本上运行而感到困惑之外,为什么在更换虚拟机时还要烦恼进行直接转换而不是滚动升级?

3
了解免费版本的VMware ESXi限制
我正在运行ESXi Vsphere Client版本6.0.0,但是使用所有不同的文档和更改时,我很难理解我的限制。从官方文档中可以看到,我对物理CPU的限制应该不受限制,但是我最多只能给一个VM配备8个vCPU。 从其他资料看,我在免费版本中限制了2个物理CPU。我看到内存限制已消失,对此我感到高兴。 是否有任何文件或任何可以给我带来实际限制的文件?看来VMware有点隐藏了它;),至少我无法有效地使用google在这里收集正确的信息。 我只对硬件限制感兴趣,而不对创建故障转移的限制感兴趣。

3
如何破解ESXi和VNXe之间的1 Gbit iSCSI限制
我的iSCSI网络遇到大麻烦,似乎无法使其尽快运行。 因此,在涉及VMware和EMC专家的情况下,我已经尝试了几乎所有方法来从SAN获得完整性能。 我的设备的简短描述:3个HP DL360 G7 / vSphere 5.5 / 4个板载NIC / 4个PCIe iSCSI英特尔NIC 2个HP 2510-24G 1个EMC VNXe 3100/2个存储处理器,每个存储处理器有2个iSCSI专用NIC / 24个15k SAS RAID10 / 6个7.2k SAS RAID6 我采用了最佳实践,并将存储池均匀地放在两个iSCSI服务器上。我创建了2个iSCSI服务器,每个存储处理器上一个。请查看我的iSCSI配置的图像。 iSCSI通信是通过VLAN分开的(禁止为其他VLAN设置),我什至在29xx系列的另一台HP交换机上也尝试过。启用了流量控制(也尝试将其禁用),禁用了巨型。不涉及路由。 在ESX主机上,正在使用所有iSCSI NIC,因为我对每个数据存储都使用了“循环”设置。我还使用1 IO的路径更改策略进行了尝试,因为很多其他人似乎都以这种方式获得了性能。我也尝试过内部NIC(Broadcom),但是没有区别。在交换机上,我可以看到端口在ESX端和VNXe端的使用非常均匀。我有一个完美的负载平衡,但是:我总共不能超过1 Gbit。我确实知道VNXe已针对多个连接进行了优化,而Round Robin确实也需要这样做,但是即使我在2个主机和2个数据存储之间(使用不同的iSCSI服务器)进行存储vMotion时,也可以看到一条大约84 MBit /通过Unisphere Web界面。我经常看到那条线的价格与我不敢相信我的磁盘会完全相同的值 不能交付更多或任务要求不高。情况变得越来越好:在每台主机和每台存储处理器上仅使用一根电缆,即可达到相同的性能。因此,我有很多冗余,但是根本没有额外的速度。 正如我已经看到很多人谈论其iSCSI性能一样,我非常想找出我的配置出了什么问题(该配置已由受过VMware和EMC培训的人员进行了测试和验证)。我感谢每一个意见! 编辑: 是的,我已将vMotion配置为使用多个NIC。除该存储外,vMotion始终通过iSCSI适配器而不是vMotion适配器。我已附上我的配置的屏幕截图。 我知道存储vMotion没有基准,但是最近几天我不得不做很多这样的事情,并且上限一直保持在80 MB / s左右。RAID 10中的6个15k 600 GB SAS磁盘池应该可以轻松地处理更多数据,您认为吗?我为您做了IO Meter测试-尝试了其中一些,最快的是256 KiB …

5
为100台VM Web服务器选择SAN技术
问题 我们在现有平台上的性能存在问题,因此,我正在蜂巢式地寻求对此的第二种意见。到目前为止,性能问题与IOPS有关,而不与吞吐量有关。 场景 16个主机的刀片中心,每个主机具有64GB的RAM。(这是一台带M610的Dell M1000e,但这可能不相关)500个VM,所有Web服务器(或相关的Web技术,例如MySQL,负载均衡器等),其中约90%是Linux,其余的是Windows。系统管理程序是VMWare vSphere。我们需要提供主机HA,因此本地存储空间不足。这样,主机只需启动一张SD卡即可。 有点背景思维 目前,我们最多可容纳6台主机(以当前的增长,刀片服务器中心将在几年内达到满负荷状态),并且我们正在iSCSI上运行Dell MD3220i w / MD1220进行扩展。 我们已经考虑了可能的选择,以及随之而来的即时想法: 在NFS数据存储中分布VM,并运行满足多达给定数量VM的性能要求的NFS存储。NFS似乎更便宜,而且比块级存储要抽象得多,因此我们可以根据需要进行移动。 添加更多的MD3220i控制器/目标。尽管我们担心这样做会在某种程度上对VMWare处理具有许多目标的方式产生负面影响。 将所有磁盘从Nearline SAS交换到SSD。这应该可以完全解决IOPS问题,但是会明显降低我们的存储容量。而且它仍然非常昂贵。 vSphere 5具有存储设备。我们没有做太多研究,但是它必须运作良好吗? 问题 您将在所有这些存储下运行哪种存储?它不需要扩展到另一个刀片服务器中心,只需要为所有这些VM提供相对良好的性能即可。 我不是在寻找“购买SAN x,因为它是最好的”答案。我正在寻找关于各种SAN技术(iSCSI,FC,FCoE,InfiniBand,NFS等),不同类型的存储(SATA,SAS,SSD)以及用于处理100个VM的存储方法(整合,分离)的想法。 ,分片等)。 对此绝对欢迎任何想法,链接,指南,指针等。我也很想听听我们已经考虑过的上述选择的想法。 非常感谢您的任何投入! 12年3月5日更新 到目前为止,一些精彩的回复,非常感谢大家! 到目前为止,按照对这个问题的回答,我开始认为以下方法是可行的: 将可用存储分层到VMWare群集,并将VM磁盘放置在适合其工作负载的存储上。 潜在地利用能够自动管理将数据放置到合适的存储上的SAN的SAN。 Infiniband似乎是最具成本效益的,可在主机满载时获得所需带宽。 绝对听起来像是要利用主要SAN供应商的售前服务来解决这个问题。 我将继续考虑这个问题一段时间。同时,我们再感激收到任何更多的建议!

1
为什么vCenter 5.1u1使主机退出维护模式?
该vCenter Server刚刚升级到5.1更新1。我正在研究主机并更新固件,然后将它们从5.0版本升级到5.1u1。 vCenter 5.1u1似乎有一个有趣的新行为:当主机在断开连接后重新连接时,它将主机从维护模式中删除-但非常不一致的是,在25至30台主机重新启动后,我看到它可能是4到5次。我只看到它发生在尚未升级到5.1的5.0主机上。 在图中,我将主机置于维护模式,然后将其重新引导到HP SPP DVD的自动更新模式。在经过通常的约40分钟的更新过程后,主机重新联机。并且在甚至记录主机已重新连接的7秒钟之前,vCenter已向主机发送任务以退出维护模式。 据我了解,vCenter唯一应将主机退出维护模式的时间是vCenter本身将其置于维护模式时(例如VUM升级任务)。 为什么此vCenter会单方面从用户启动的维护模式退出主机? 编辑其他信息: 我同时在另外5台主机上运行了固件升级。其中两个重新连接后退出维护模式,三个没有。那些退出维护模式的共同因素似乎是他们离线了多长时间。尝试启动虚拟介质的两个是退出维护模式的两个。 esx31(上图):45分钟无响应 esx19(退出维护):87分钟无响应 esx24(停留在维护中):32分钟无响应 esx29(停留在维护中):39分钟无响应 esx32(停留在维护中):30分钟无响应 esx34(退出维护):70分钟无响应 编辑:断开时间的想法似乎是一个红色的鲱鱼,因为它不是一直在发生。 另外,在vpxd.log退出维护模式下,任务启动似乎总是立即跟随此vim.EnvironmentBrowser.queryProvisioningPolicySOAP调用。以下是为清晰起见而略微修剪的线条: 15:27:49.535 [info 'vpxdvpxdVmomi'] [ClientAdapterBase::InvokeOnSoap] Invoke done (esx31, vim.EnvironmentBrowser.queryProvisioningPolicy) 15:27:49.560 [info 'commonvpxLro'] [VpxLRO] -- BEGIN task -- esx31 -- HostSystem.exitMaintenanceMode -- 请注意,在未获得退出任务的节点上,vim.EnvironmentBrowser.queryProvisioningPolicy事件仍然发生。除了由于退出维护模式而导致的额外事件之外,在重新连接过程中,此事件之前或之后我没有看到其他任何事件差异。 考虑到日志中提到的配置策略,寻找与自动部署相关的维护模式问题会引发对类似行为的抱怨(尽管我根本没有使用自动部署)。

2
如何管理整个数据中心的全局VM启动顺序?
假设您具有完全虚拟化的VMware基础架构:ESXi,vCenter,vMotion,HA,DRS,整个软件包。 在内部,您有很多VM,这些VM在任何给定时间都可以驻留在一个或另一个主机上(这是整个群集的重点,不是吗?)。 您会遇到断电的情况,并且尝试以一种或多种方式正常关闭所有VM和所有主机。让我们暂时不研究它,我们假设您的UPS软件可以处理它。或者,至少,我们假设关机不是那么正常,但是一旦恢复电源,一切仍然可以再次出现。 重新通电,主机重新启动。 您的环境非常复杂,并且在VM之间具有自然依赖性:域控制器应首先启动,除非后端数据库服务器已启动并正在运行,否则应用程序服务器无法启动,依此类推。 我们都知道(或希望知道)如何在单个ESX / i主机上配置虚拟机自动启动以及如何指定虚拟机启动顺序和延迟。 但是如何在整个数据中心内做到这一点? 是否有任何方法可以告诉vSphere“以这种全局顺序启动这些VM,而不管它们在哪个物理主机上运行”? 优点:如果vCenter本身在虚拟机上运行,​​这将如何改变?

4
如何解决“错误:软锁定-CPU#0卡住了17163091968s”的问题?
更新:我更新了邮件的标题,因为在此精确时间范围内,我最近看到了更多这些问题17163091968s。这应该可以帮助调查症状的人们找到此页面。请参阅下面我的(自我)接受的答案。 我在VMware vSphere数据中心中有一堆64位的Ubuntu 10.04 LTS VM。VMware工具已安装(vSphere Client说“确定”)。 我已经看到几次VM挂起,并在syslog中出现以下错误。从vSphere检查情况时,控制台为黑色,“重新启动来宾”命令没有执行任何操作,因此我必须关闭虚拟机电源,然后再打开。 Dec 1 11:44:15 s0 kernel: [18446744060.007150] BUG: soft lockup - CPU#0 stuck for 17163091988s! [jed:26674] Dec 1 11:44:15 s0 kernel: [18446744060.026854] Modules linked in: btrfs zlib_deflate crc32c libcrc32c ufs qnx4 hfsplus hfs minix ntfs vfat msdos fat jfs xfs exportfs reiserfs xt_tcpudp …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.