Questions tagged «storage-area-network»

SAN是存储区域网络,用于通过网络提供对存储子系统的块级访问。



5
不要关注幕后的SAN
曾几何时,我建立了自己的SQL服务器,并控制了驱动器配置,RAID级别等。分离数据,日志,tempdb,备份(取决于预算!)的传统建议始终是非常重要的部分SQL Server设计过程。 现在有了企业级SAN,我只需要为新的SQL Server 请求特定数量的驱动器空间,该驱动器空间分为用于数据,备份和文件共享的逻辑驱动器。当然,这使我的工作更加轻松,但是我当中有一部分人感到不完全自在,因为我不能真正地“窥视”在幕后,看看那里到底发生了什么。 我的理解是,SAN团队不会以不同的方式配置不同的“类型”的驱动器(针对随机访问优化数据驱动器,针对流写入优化日志驱动器)。其中一些可能取决于SAN产品本身(我们有HP XP12000和HP XP24000),但是我确信HP软件可以进行各种动态性能配置(监视IO热点并即时重新配置以优化这些LUN),从而使应用团队和DBA无需担心任何这些问题。关于“将大量服务器上的所有服务器的负载分散到许多主轴上”之类的事情。 我的问题/讨论: 在不与SAN团队抗衡的情况下,如何使自己和应用程序开发人员确信我们的SQL Server不会遭受配置不当的存储的困扰?只是使用性能统计?其他基准,例如sqlio? 如果我在这些SAN驱动器上进行负载测试,是否真的给我可靠,可重复的衡量标准,以衡量我们上线时会看到的内容?(假设SAN软件可能在不同的时间点以不同的方式“动态配置”。) SAN的一部分(例如Exchange服务器)中的大量IO是否会影响我的SQL服务器?(假设它们没有为每台服务器提供专用磁盘,据我所知它们没有) 请求为不同功能的逻辑驱动器(数据vs日志vs tempdb)分离逻辑驱动器在这里有帮助吗?SAN是否会在这些应用程序上看到不同的IO活动,并以不同的最佳方式配置它们? 我们现在处于空间紧缩状态。要求应用程序团队削减数据存档等。由于空间问题,SAN团队是否会就如何配置内部存储(RAID级别等)做出不同的决定,从而影响服务器的性能? 感谢您的想法(此SF问题中简要讨论了类似的话题)

3
调整iSCSI存储
这是有关iSCSI 的规范问题,我们可以将其用作参考。 iSCSI是一种协议,它将SCSI命令作为有效负载放入TCP网络数据包。因此,与光纤通道相比,它面临着一系列不同的问题。例如,如果链路拥塞并且交换机的缓冲区已满,则默认情况下,以太网将丢弃帧,而不是告诉主机减速。这导致重传,从而导致极少的存储流量出现高延迟。 有此问题的解决方案,具体取决于客户端操作系统,包括修改网络设置。对于以下操作系统列表,最佳的iSCSI客户端配置是什么样的?是否需要更改开关上的设置?那存储呢? VMWare 4和5 Windows Hyper-V 2008和2008r2 裸机上的Windows 2003和2008 裸机上的Linux AIX VIO 您碰巧认为其他任何相关的操作系统

4
测试巨型帧是否真正起作用
是否有命令测试巨型帧是否真正起作用?即某种“ ping”,它报告数据包在途中是否被破坏。 我有一台具有Ubuntu VM的ESXi主机,该VM通过iSCSI挂载Dell MD3000i。我怀疑交换机上未启用巨型帧,并且无法轻松地获得管理员对其的访问权限。我可以选择将磁盘阵列直接连接到ESXi主机,但是想以某种方式先确认巨型帧是一个问题。


9
人们实际上将哪种存储用于VMware ESX服务器?
VMware和许多网络传播者试图告诉您,复杂的(=昂贵的)光纤SAN是VMware ESX和ESXi服务器的“唯一”存储选项。好,是的,当然。使用SAN是快速,可靠的,并使vMotion成为可能。大。但是:所有ESX / ESXi用户能否真正负担得起SAN? 我的理论是,在这个星球上,只有不到20%的VMware ESX安装实际使用光纤或iSCS SAN。这些安装大多数将在有能力承担费用的较大公司中进行。我预计大多数VMware安装都将使用“附加存储”(vmdks存储在服务器内部的磁盘上)。他们中的大多数都在中小型企业中经营,其中有很多! 我们运行两个带有附加存储的ESX 3.5服务器,以及两个带有iSCS san的ESX 4服务器。两者之间的“真实生活差异”几乎不明显:-) 您知道这个问题的任何官方统计信息吗?您将什么用作存储介质?


15
Windows 2008 / SQL Server群集最便宜的iSCSI SAN?
已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 是否有适用于Windows Server 2008 / SQL Server进行故障转移群集的生产质量的iSCSI SAN? 到目前为止,我只看到过戴尔的MD3000i和惠普的MSA 2000(2012i),两者的价格都在6,000美元左右,而且磁盘配置最少。Buffalo(是的,我知道)有一个支持iSCSI的价格为1000美元的设备,但他们表示,该设备不适用于2008故障转移群集。 我对看到适用于生产环境中的故障​​转移但IO需求非常低的东西感兴趣。(例如,群集一个30GB的数据库。) 至于使用软件:在Windows上,StarWind似乎是一个很好的解决方案。但这实际上比购买硬件SAN要多花钱。(据我了解,只有企业版支持复制,这是3000美元的许可费用。) 我当时以为我可以使用Linux,例如DRBD + iSCSI target就可以了。但是,我还没有看到任何支持SCSI-3持久保留的免费或低成本iSCSI软件,而Windows 2008则需要该软件来进行故障转移群集。 我知道$ 6K根本不多,只是好奇地看看是否有实用的更便宜的解决方案。最后,是的,该软件价格昂贵,但是许多小型企业都可以使用MS BizSpark,因此Windows 2008 Enterprise / SQL 2008许可证是完全免费的。

4
为什么在磁盘上占用大量磁盘的应用程序在SAN上的运行速度比在物理磁盘上的运行速度快?
为什么在磁盘上占用大量磁盘的应用程序在SAN上的运行速度比在物理磁盘上的运行速度快?我本来希望物理磁盘稍微快一点,但实际上,当将工作驱动器设置为SAN上的分区时,该过程的运行速度快了100倍。 我们的猜测是,SAN开箱即用地进行了优化,以实现快速的发展,而物理磁盘调优设置与OS(Solaris)相关,尚未被修改或打补丁。 在最高活动期间,磁盘I / O的运行速度为100%,完成写入的时间超过2秒,因为有多个进程同时向磁盘写入数据。 (仅供参考,所涉及的应用程序是Informatica PowerCenter)

3
150 TB并在增长,但是如何增长?
我的小组目前有两台大型存储服务器,两台NAS均运行debian linux。第一个是已经使用了几年的多合一24磁盘(SATA)服务器。我们在LVM之上设置了两个硬件RAIDS。第二台服务器是64个磁盘,分布在4个机箱中,每个机箱都通过外部SAS连接到一个硬件RAID 6。我们将XFS与LVM结合使用,以创建100TB可用存储。所有这些工作都很好,但是我们已经淘汰了这些系统。已经构建了两个这样的服务器并且仍在增长,我们希望构建一些东西,使我们在将来的增长,备份选项方面具有更大的灵活性,在磁盘故障下表现更好(检查较大的文件系统可能需要一天或更长时间),并且可以承受在高度并发的环境中(例如小型计算机集群)。我们没有系统管理支持, 因此,我们寻求的是一种相对低成本,可接受的性能存储解决方案,该解决方案将允许未来的增长和灵活的配置(请考虑具有不同池且具有不同运行特性的ZFS)。我们可能不在单个NAS的范围内。我们一直在考虑将ZFS(例如,在openindiana上)或每台服务器的btrfs与运行在其上的glusterfs组合在一起。我们所反对的只是简单地钻研子弹,并投资Isilon或3Par存储解决方案。 任何建议或经验表示赞赏。

5
将服务器虚拟化到SAN的最佳做法?
好了,所以我想比以往更多地利用SAN,同时利用ESXi。 目前,我已将Dell PowerEdge 1955刀片阵列连接到单机箱EMC AX4-5 FC存储阵列。我实质上是将SAN用作DAS。我在SAN上有指向特定物理计算机的LUN,这些计算机将LUN用于任何用途(主要是数据库和Samba / NFS共享,具体取决于目标服务器)。 我有多个物理文件服务器,每个服务器都有一个samba配置设置来提供适当的共享。由于我从未使RHCS正常工作,因此只有一台文件服务器一次安装了LUN。万一文件服务器死了,我会手动对其进行防护(通过卸载和展示驱动器,使用navisphere实用程序或通过DRAC关闭电源),然后使用navisphere实用程序在下一个竞争者上启动显示的LUN(之后,启动apache和其他守护程序。现在全部由手工完成。 我感觉像Ferris Bueller演奏单簧管一样。从来没有上过课! 无论如何,我正在努力改善。我想做的是在物理主机上安装ESXi,然后创建LUN来容纳两个文件服务器映像(以防一个损坏/丢失),其中一个将是活动的,另一个将是备用的。至少这样,我并没有提高自动化程度(尽管我很快就会写一个脚本来切换“活动的”服务器),但是我感觉自己正在增加灵活性,而且我可以使用ESXi主机可容纳其他VM,并且不会像现在这样浪费硬件。 我的问题是: 1)我的计划有多愚蠢? 2)关于实际实现,我应该在LUN上创建普通的vmdk映像,还是应该给它一个“原始”分区(如果在ESXi中甚至可以做到这一点?) 3)是否有使用非群集文件服务器的“好”方式?

5
ZFS和SAN-最佳做法?
关于 ZFS的大多数讨论都建议关闭硬件RAID,ZFS应该直接与磁盘通信并管理主机上的RAID(而不是RAID控制器)。 这在具有2至16个甚至更多本地磁盘的计算机上是有意义的,但是在具有大型SAN的环境中呢? 例如,我工作的企业拥有一个中等大小的SAN,其中有2个完整的磁盘架,例如400个磁盘。我见过SAN架子比我们的架子更密集,SAN部署的架子比我们更大。 人们是否将100个磁盘直接暴露给大型ZFS服务器?300个磁盘?3000个磁盘?SAN管理工具是否有助于这种事情的自动化管理?

5
为100台VM Web服务器选择SAN技术
问题 我们在现有平台上的性能存在问题,因此,我正在蜂巢式地寻求对此的第二种意见。到目前为止,性能问题与IOPS有关,而不与吞吐量有关。 场景 16个主机的刀片中心,每个主机具有64GB的RAM。(这是一台带M610的Dell M1000e,但这可能不相关)500个VM,所有Web服务器(或相关的Web技术,例如MySQL,负载均衡器等),其中约90%是Linux,其余的是Windows。系统管理程序是VMWare vSphere。我们需要提供主机HA,因此本地存储空间不足。这样,主机只需启动一张SD卡即可。 有点背景思维 目前,我们最多可容纳6台主机(以当前的增长,刀片服务器中心将在几年内达到满负荷状态),并且我们正在iSCSI上运行Dell MD3220i w / MD1220进行扩展。 我们已经考虑了可能的选择,以及随之而来的即时想法: 在NFS数据存储中分布VM,并运行满足多达给定数量VM的性能要求的NFS存储。NFS似乎更便宜,而且比块级存储要抽象得多,因此我们可以根据需要进行移动。 添加更多的MD3220i控制器/目标。尽管我们担心这样做会在某种程度上对VMWare处理具有许多目标的方式产生负面影响。 将所有磁盘从Nearline SAS交换到SSD。这应该可以完全解决IOPS问题,但是会明显降低我们的存储容量。而且它仍然非常昂贵。 vSphere 5具有存储设备。我们没有做太多研究,但是它必须运作良好吗? 问题 您将在所有这些存储下运行哪种存储?它不需要扩展到另一个刀片服务器中心,只需要为所有这些VM提供相对良好的性能即可。 我不是在寻找“购买SAN x,因为它是最好的”答案。我正在寻找关于各种SAN技术(iSCSI,FC,FCoE,InfiniBand,NFS等),不同类型的存储(SATA,SAS,SSD)以及用于处理100个VM的存储方法(整合,分离)的想法。 ,分片等)。 对此绝对欢迎任何想法,链接,指南,指针等。我也很想听听我们已经考虑过的上述选择的想法。 非常感谢您的任何投入! 12年3月5日更新 到目前为止,一些精彩的回复,非常感谢大家! 到目前为止,按照对这个问题的回答,我开始认为以下方法是可行的: 将可用存储分层到VMWare群集,并将VM磁盘放置在适合其工作负载的存储上。 潜在地利用能够自动管理将数据放置到合适的存储上的SAN的SAN。 Infiniband似乎是最具成本效益的,可在主机满载时获得所需带宽。 绝对听起来像是要利用主要SAN供应商的售前服务来解决这个问题。 我将继续考虑这个问题一段时间。同时,我们再感激收到任何更多的建议!


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.