Questions tagged «iscsi»

iSCSI-IP上的SCSI-跨网络安装磁盘

3
调整iSCSI存储
这是有关iSCSI 的规范问题,我们可以将其用作参考。 iSCSI是一种协议,它将SCSI命令作为有效负载放入TCP网络数据包。因此,与光纤通道相比,它面临着一系列不同的问题。例如,如果链路拥塞并且交换机的缓冲区已满,则默认情况下,以太网将丢弃帧,而不是告诉主机减速。这导致重传,从而导致极少的存储流量出现高延迟。 有此问题的解决方案,具体取决于客户端操作系统,包括修改网络设置。对于以下操作系统列表,最佳的iSCSI客户端配置是什么样的?是否需要更改开关上的设置?那存储呢? VMWare 4和5 Windows Hyper-V 2008和2008r2 裸机上的Windows 2003和2008 裸机上的Linux AIX VIO 您碰巧认为其他任何相关的操作系统

4
测试巨型帧是否真正起作用
是否有命令测试巨型帧是否真正起作用?即某种“ ping”,它报告数据包在途中是否被破坏。 我有一台具有Ubuntu VM的ESXi主机,该VM通过iSCSI挂载Dell MD3000i。我怀疑交换机上未启用巨型帧,并且无法轻松地获得管理员对其的访问权限。我可以选择将磁盘阵列直接连接到ESXi主机,但是想以某种方式先确认巨型帧是一个问题。

2
LV状态:不可用。如何使其可用?
我连接一个iSCSI目标,在其上创建一个物理卷和卷组。 然后创建一个LV,然后 mkfs.ext3 /dev/vg00/vm 一切都很好。 然后我断开目标 iscsiadm -m node -T iqn.2004-04.com.qnap:ts-509:iscsi.linux01.ba4731 -p 192.168.0.4 -u 登录到另一台Linux服务器,并在那里连接目标 iscsiadm -m node -T iqn.2004-04.com.qnap:ts-509:iscsi.linux01.ba4731 -p 192.168.0.4 -l 我得到: linux01:~ # lvdisplay --- Logical volume --- LV Name /dev/vg00/vm VG Name vg00 LV UUID NBNRGV-FkSR-ZNZ9-9AVk-chLQ-j5nc-RazeBw LV Write Access read/write LV Status NOT available LV Size …
27 linux  iscsi  lvm 


15
Windows 2008 / SQL Server群集最便宜的iSCSI SAN?
已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 是否有适用于Windows Server 2008 / SQL Server进行故障转移群集的生产质量的iSCSI SAN? 到目前为止,我只看到过戴尔的MD3000i和惠普的MSA 2000(2012i),两者的价格都在6,000美元左右,而且磁盘配置最少。Buffalo(是的,我知道)有一个支持iSCSI的价格为1000美元的设备,但他们表示,该设备不适用于2008故障转移群集。 我对看到适用于生产环境中的故障​​转移但IO需求非常低的东西感兴趣。(例如,群集一个30GB的数据库。) 至于使用软件:在Windows上,StarWind似乎是一个很好的解决方案。但这实际上比购买硬件SAN要多花钱。(据我了解,只有企业版支持复制,这是3000美元的许可费用。) 我当时以为我可以使用Linux,例如DRBD + iSCSI target就可以了。但是,我还没有看到任何支持SCSI-3持久保留的免费或低成本iSCSI软件,而Windows 2008则需要该软件来进行故障转移群集。 我知道$ 6K根本不多,只是好奇地看看是否有实用的更便宜的解决方案。最后,是的,该软件价格昂贵,但是许多小型企业都可以使用MS BizSpark,因此Windows 2008 Enterprise / SQL 2008许可证是完全免费的。

3
如何破解ESXi和VNXe之间的1 Gbit iSCSI限制
我的iSCSI网络遇到大麻烦,似乎无法使其尽快运行。 因此,在涉及VMware和EMC专家的情况下,我已经尝试了几乎所有方法来从SAN获得完整性能。 我的设备的简短描述:3个HP DL360 G7 / vSphere 5.5 / 4个板载NIC / 4个PCIe iSCSI英特尔NIC 2个HP 2510-24G 1个EMC VNXe 3100/2个存储处理器,每个存储处理器有2个iSCSI专用NIC / 24个15k SAS RAID10 / 6个7.2k SAS RAID6 我采用了最佳实践,并将存储池均匀地放在两个iSCSI服务器上。我创建了2个iSCSI服务器,每个存储处理器上一个。请查看我的iSCSI配置的图像。 iSCSI通信是通过VLAN分开的(禁止为其他VLAN设置),我什至在29xx系列的另一台HP交换机上也尝试过。启用了流量控制(也尝试将其禁用),禁用了巨型。不涉及路由。 在ESX主机上,正在使用所有iSCSI NIC,因为我对每个数据存储都使用了“循环”设置。我还使用1 IO的路径更改策略进行了尝试,因为很多其他人似乎都以这种方式获得了性能。我也尝试过内部NIC(Broadcom),但是没有区别。在交换机上,我可以看到端口在ESX端和VNXe端的使用非常均匀。我有一个完美的负载平衡,但是:我总共不能超过1 Gbit。我确实知道VNXe已针对多个连接进行了优化,而Round Robin确实也需要这样做,但是即使我在2个主机和2个数据存储之间(使用不同的iSCSI服务器)进行存储vMotion时,也可以看到一条大约84 MBit /通过Unisphere Web界面。我经常看到那条线的价格与我不敢相信我的磁盘会完全相同的值 不能交付更多或任务要求不高。情况变得越来越好:在每台主机和每台存储处理器上仅使用一根电缆,即可达到相同的性能。因此,我有很多冗余,但是根本没有额外的速度。 正如我已经看到很多人谈论其iSCSI性能一样,我非常想找出我的配置出了什么问题(该配置已由受过VMware和EMC培训的人员进行了测试和验证)。我感谢每一个意见! 编辑: 是的,我已将vMotion配置为使用多个NIC。除该存储外,vMotion始终通过iSCSI适配器而不是vMotion适配器。我已附上我的配置的屏幕截图。 我知道存储vMotion没有基准,但是最近几天我不得不做很多这样的事情,并且上限一直保持在80 MB / s左右。RAID 10中的6个15k 600 GB SAS磁盘池应该可以轻松地处理更多数据,您认为吗?我为您做了IO Meter测试-尝试了其中一些,最快的是256 KiB …

7
SQL Server文件是本地文件还是NAS或SAN?
我必须在SQL Server 2008上安装一台新服务器,您推荐什么?一台具有RAID 10的服务器或NAS中的文件? 我应该如何使用iSCSI? 那SAN呢? 该服务器具有4Gb RAM,该数据库文件约为2GB。 今天要明确地说,服务器没有RAID,我必须实施某种策略,以便在发生问题时可以保护文件安全,那么应该选择什么本地文件,NAS,SAN?哪个选项具有最佳性能,哪个更安全?

1
快照删除速度非常慢
我有一个ESXi盒,其中的HP LeftHand存储通过iSCSI公开。 我有一个带有1TB磁盘的虚拟机,其中800GB已被使用。磁盘厚配置在LeftHand存储上。 已在VM上打开快照(以便Veeam Backup and Recovery可以执行其操作),并且快照已打开约6个小时。在此期间创建了大约5GB的增量磁盘。 现在,删除快照已花费了5个多小时,但仍未完成。存储阵列报告该阵列上几乎没有IOPS(大约600,这是背景噪声),没有吞吐量(大约8MB /秒,这又是背景噪声),平均队列深度为9。 换句话说,快照合并过程似乎不受IO限制,我看不到任何导致快照删除速度如此之慢的事情。通过查看增量文件来判断它正在工作。 关于为什么这个(相对较小的)快照是如此之慢以至于无法删除,我还有什么要看的? 根据VMWare文档,我现在正在监视ls -lh | grep -E "delta|flat|sesparse",并且看到两个变化中的增量文件: -rw------- 1 root root 194.0M Jun 15 01:28 EXAMPLE-000001-delta.vmdk -rw------- 1 root root 274.0M Jun 15 01:27 EXAMPLE-000002-delta.vmdk 我推断一个快照文件正在合并,而另一个快照文件在合并过程中收集增量。然后合并新的变量,并在该过程中创建另一个增量。 文件大小是在每次迭代(当然,大多数迭代)下降,所以我认为这最终整合过程将完成(也许我需要把虚拟机断网30分钟,让这个完成,而不会产生任何变化) 。 每百兆增量需要约2分钟的时间来合并。这当然从来没有发生过。在普通的Veeam备份下删除快照大约需要40分钟(因此肯定不是很快,但不会那么慢)。 6小时2分钟后,快照最终被删除。但是,我仍然想知道通常是否有任何方法可以解决此类问题(存储性能之外)。

1
如何在Linux中显示连接的目标?
当我做 localhost:~# iscsiadm -m discovery -t st -p 192.168.0.4 192.168.0.4:3260,1 iqn.2004-04.com.qnap:ts-509:iscsi.linux02.ba4731 192.168.0.4:3260,1 iqn.2004-04.com.qnap:ts-509:iscsi.linux01.ba4731 192.168.0.4:3260,1 iqn.2004-04.com.qnap:ts-509:iscsi.linux03.ba4731 localhost:~# 我看到了可用的目标,但是如何查看CentOS5服务器上实际连接了哪个目标? 编辑: 当然可以这样做,但是像这样的程序不能iscsiadm告诉我吗? localhost:~# ls /dev/disk/by-path/ ip-192.168.0.4:3260-iscsi-iqn.2004-04.com.qnap:ts-509:iscsi.linux02.ba4731-lun-0@ pci-0000:00:1f.2-scsi-0:0:0:0-part2@ pci-0000:00:1f.1-ide-0:0@ pci-0000:00:1f.2-scsi-0:0:0:0-part3@ pci-0000:00:1f.2-scsi-0:0:0:0@ pci-0000:00:1f.2-scsi-1:0:0:0@ pci-0000:00:1f.2-scsi-0:0:0:0-part1@ pci-0000:00:1f.2-scsi-1:0:0:0-part1@
12 linux  centos  iscsi 

6
如何利用备用工作站驱动器空间进行服务器存储/备份
因此,鉴于您现在只能以最便宜的价格购买到大约160GB的硬盘,我发现我在遍布办公室的工作站上有大量的额外驱动器空间。我想将此空间用作类似冗余RAID的某种阵列,用于低优先级文件和备份。 我有大约100个工作站,只需要40GB的磁盘空间即可运行,剩下约120GB的可用空间,这些空间我已经分区了。我想知道是否有某种方法可以使用iSCSI或类似方法将这些分区安装在某种类似于RAID的阵列中。我的意思是,大约有12.5TB的磁盘存储可供我使用,工作站将不会使用它们(它们已被锁定并且不允许用户摆弄它)。 另外,工作站始终处于打开状态,因此这不是问题,但是由于各种原因(已知的Windows)重启,系统应该可以偶尔出现停机。 是否有任何现成的解决方案?开源呢?如果不需要,我宁愿不自己动手。 我的服务器环境是带有Windows主机的ESX 3.5。SQL Server等...工作站都是Windows。

1
SSD磁盘和10 Gbe网络的iSCSI性能不佳
iSCSI目标 带有16 GB RAM和16个核心CPU的Ubuntu 14.04(Trusty Tahr)作为LVM支持的iSCSI目标,使用三个Samsung SSD磁盘,每个磁盘都可以使用带有板载高速缓存的LSI 6 Gbit / s控制器执行65k IOPS。 目标中的SSD磁盘基准: fio --filename=/dev/sdd --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporting --name=ssd-max iops=65514 凡sdd在硬件配置RAID 0使用三个三星850固态硬盘EVO。 发起人 我在具有32 GB RAM和8个核心CPU的Ubuntu 14.04客户端上导出了500G LUN。 导出的LUN基准 fio --filename=/dev/sdg --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporting --name=client-max iops=2400 在进行DAS和通过网络进行操作时,性能会显着下降,我预计IOPS至少为10k。 目标与启动器之间的通信少于1 …
10 linux  iscsi  ssd  open-iscsi 

1
9x7驱动器raidz2(ZFS ZoL 0.8.1)上的慢速顺序速度
我正在运行一个大型ZFS池,该池针对256K +请求大小的序列化读写,通过Ubuntu(04.04)上的iSCSI(用于备份)进行。考虑到对高吞吐量和空间效率的需求,以及对随机小块性能的需求减少,我选择了条带化raidz2而不是条带化镜像。 但是,256K顺序读取性能远远低于我的预期(100-200MBps,峰值高达600MBps)。当zvol在iostat中的iowait达到约99%时,后备设备的iowait通常在10%到40%的iowait之间运行,这对我来说是瓶颈,在配置中我缺少这个东西,因为它不应该是背板或CPU此系统以及顺序的工作负载不应使ARC太费劲。 我已经使用了很多模块参数(下面的当前配置),阅读了数百篇文章,有关OpenZFS github的问题,等等。调整预取和聚合使我达到了这种性能水平-默认情况下,我的运行速度约为50MBps ZFS向磁盘发送TINY请求时(约16K),顺序读取。通过聚合和预取工作正常(我认为),磁盘读取会更高,在iostat中平均约为64K。 NIC是具有cxgbit卸载功能的LIO iscsi目标+ Windows Chelsio iscsi启动器在ZFS zvols之外可以很好地工作,通过直接映射的optane返回NIC上几乎全线速(读写3.5GBps)。 我期望太多了吗?我知道ZFS优先考虑安全性而不是性能,但是我希望7x9 raidz2比单个9驱动器mdadm raid6提供更好的顺序读取。 系统规格和日志/配置文件: Chassis: Supermicro 6047R-E1R72L HBAs: 3x 2308 IT mode (24x 6Gbps SAS channels to backplanes) CPU: 2x E5-2667v2 (8 cores @ 3.3Ghz base each) RAM: 128GB, 104GB dedicated to ARC HDDs: 65x HGST 10TB HC510 …

3
为什么通过10G以太网,open-iscsi的写入速度比Samba慢两倍?
在我的本地文件服务器上,我在7个HDD驱动器上具有raid-6。 dd if=/dev/zero of=tempfile bs=1M count=2048 conv=fdatasync 本地速度测试为我提供了349 MB / s的写入速度。 从SSD到Samba的远程写入(读取速度> 2Gb / s)为我提供259 MB / s的写入速度。但是对iSCSI驱动器的远程写入(在Win10 iSCSI启动器上)仅给我151 Mb / s的写入。 raid6 config-128K块大小,stripe_cache_size =8191。写意图位图位于SSD(三星860 PRO,4096K位图块)上。 阵列安装有选件: rw,noatime,nobarrier,commit=999,stripe=128,data=writeback open-iscsi设置:目标基于4TB文件。 有什么暗示为什么iSCSI在写时比Samba慢?关于如何提高iSCSI写入速度的任何提示? 我认为这与open-iscsi希望在每次操作后刷新对磁盘的写入有关,由于过多的奇偶校验重写,这增加了raid6上的写入放大。但是我不确定如何解决它。断电时,速度比当前写入数据的安全性更为重要。 附带说明,较早的ietd iSCSI目标具有启用回写模式(使用IOMode=wb)的能力, 并且持续的写入速度要快得多。不幸的是,它目前似乎无法维护。

6
iSCSI和AoE均性能低下
我们正在寻找合理的速度存储。由于预算低,我们决定使用软件iSCSI或AoE目标。在更改生产基础结构之前,我们正在进行一些测试以选择最佳技术。 为了进行测试,我们使用: 目标富士通西门子RX200 S4 富士通西门子RX200 S4作为启动器 NetGear管理的1GBit交换机 板载NIC(Broadcom w / TOE),EdiMax NIC,Broadcom NIC w / TOE-全部1GBit 目标服务器正在使用带有6个2TB WD蓝色SATA驱动器的QLogic控制器。 目标和启动程序操作系统均为具有所有更新的Ubuntu 16.04 LTS。交换机专用于存储。我们测试绑定和多路径。 我们的问题是读取速度低。为了进行测试,我们使用dd了40-100GB的文件。 目标服务器上的本地读写速度超过300MB / s。 通过iSCSI或AoE写入服务器的速度超过200MB / s,这使我们满意。 从服务器读取的数据始终为95-99MB / s。 我们已经尝试过ietd,aoetools,LIO。我们使用了2个NIC的绑定:balance-rr和LACP,与rr进行多路径。使用普通和巨型帧。最终,我们甚至在目标和主机之间进行了直接以太网连接(无需切换)。 所有测试给出的结果更少(当然,使用不带TOE和iSCSI的普通NIC得出的结果要差20-30%)。 使用iperf进行的测试网络显示传输速度约为200MB / s(2GBit)。用bmon观察目标上的NIC使用情况,发现两个设备的利用率均相等(读取时每个设备大约50MB / s,写入时大约100MB / s)。 由于运气不好,我们决定使用第三个NIC(当然是双方)。结果很奇怪: 2个NIC-每个50MB / s 3个NIC-每个33MB / s 目标软件是否有任何限制,可禁用高于1GBit / s的输出? …

1
10GbE VMware分布式交换机的iSCSI设计选项?MPIO与LACP
我正在为数据中心的几个VMware vSphere 5.5和6.0群集扩展存储后端。在我的VMware经验中,我主要使用NFS数据存储(Solaris ZFS,Isilon,VNX,Linux ZFS),并且可能将Nimble iSCSI阵列以及可能的Tegile(ZFS)混合阵列引入环境中。 当前的存储解决方案是Nexenta ZFS和基于Linux ZFS的阵列,它们可向vSphere主机提供NFS挂载。通过存储头上的2 x 10GbE LACP中继和每个ESXi主机上的2 x 10GbE来提供网络连接。交换机是配置为MLAG对等体的双Arista 7050S-52机架顶部单元。 在vSphere方面,我正在使用在2个10GbE上行链路上配置了LACP绑定的vSphere Distributed Switch(vDS)和VM端口组,NFS,vMotion和管理流量的网络I / O控制(NIOC)分配份额。 多年来,这种解决方案和设计方法一直表现出色,但是增加iSCSI块存储对我来说是一个很大的转变。在可预见的将来,我仍然需要保留NFS基础结构。 我想了解如何在不更改物理设计的情况下将iSCSI集成到此环境中。ToR开关上的MLAG对我来说非常重要。 对于基于NFS的存储,LACP是提供路径冗余的常用方法。 对于iSCSI,通常不赞成LACP,建议使用MPIO多路径设计。 我到处都在使用10GbE,并希望保持到每个服务器的简单两端口链接。这是为了布线和简化设计。 鉴于以上所述,如何充分利用iSCSI解决方案? 通过LACP配置iSCSI? 在vDS上创建VMkernel iSCSI适配器,并尝试将它们绑定到单独的上行链路,以实现某种形式的突变MPIO? 添加更多的网络适配器?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.