Questions tagged «storage»

主要是有关磁盘存储的问题,有时是有关应用程序存储或云存储的问题。总是对存储数据有疑问。

2
CentOS 6比CentOS 5做更多的IO
我正在对两个相同服务器上的应用程序进行基准测试,一个是Centos 5.8,另一个是Centos 6.2。我的应用程序在Centos 6.2机器上的运行速度要慢得多(50%或更少)。 在尝试诊断问题时,我在整个基准测试运行期间跟踪CPU,RAM和IO。我看到,使用iostat进行测量,Centos 6.2盒上的磁盘读取量明显更高。 两个系统都在运行基准测试的XFS上运行。两者都是带有512MB高速缓存RAID控制器的HP服务器,并带有运行RAID 10的8 x 300GB SAS。 这是每个xfs_info的输出: centos5 meta-data=/dev/cciss/c0d0p5 isize=256 agcount=32, agsize=8034208 blks = sectsz=512 attr=0 data = bsize=4096 blocks=257094144, imaxpct=25 = sunit=32 swidth=128 blks, unwritten=1 naming =version 2 bsize=4096 log =internal bsize=4096 blocks=32768, version=1 = sectsz=512 sunit=0 blks, lazy-count=0 realtime =none extsz=4096 blocks=0, rtextents=0 …

1
使用VSA的两台机器ESXi群集的配置以向VM提供本地存储
我正在为我们的一个远程站点设计一个小的vSphere 5集群。我们有一些IBM x3650,其中装有6个300GB 10K RPM驱动器,以及双四核CPU和24GB RAM。因为我们在主站点上使用HP P4500 G2,所以我们拥有可用于HP P4000 VSA的许可证。我认为这将是使用它们的绝佳机会。 下面是我要完成的基本图纸: 我想在每台服务器上运行P4000 VSA,并在网络RAID-10中运行它们(左手代表网络镜像,可以将其视为跨节点的RAID 1或活动/活动存储集群)。然后,我将向将在此微型集群上运行的来宾展示此存储。它将由我们主站点上的vCenter Server管理。 所有连接均为GbE,其中两个专用于存储。管理和数据将共享一对连接,因为我不认为负载会很大。这些服务器就在那里提供目录服务,DHCP,打印等。 有人认为这种方法有潜在的问题吗?这是不添加其他专用存储头的最佳方法吗?除了缺少专用的Data / Mgmt接口之外,此设计是否还有其他陷阱?

1
2.5英寸驱动器与3.5英寸驱动器
我正在寻找2.5英寸驱动器和3.5英寸驱动器之间的一些公开比较。我以为2.5英寸15k驱动器和3.5英寸15k驱动器具有相同的性能,但是最近有一些基准测试表明2.5英寸15k的速度要快得多,而10k 2.5英寸的速度与15k 3.5差不多英寸。问题在于,由于基准测试平台的完成,大多数人无法复制这些基准测试,更重要的是,它是我希望比较的基础磁盘。 基本上,使用一定数量的3.5英寸15k驱动器的大型机现在与使用相同的10k 2.5英寸驱动器的大型机的性能大致相同吗?

6
VMware VMFS5和LUN大小调整–是多个较小的数据存储,还是1个大数据存储?
由于VMFS5不再具有VMFS卷的2TB限制,因此我正在考虑哪种方案总体上更有利: 数量较少的LUN数量较大,或者 更多的LUN,尺寸较小。 就我而言,我有一个带有600GB磁盘的新的24磁盘存储阵列。我将使用RAID10(大约7.2TB),并尝试决定是使用1个大型7TB数据存储,还是使用1TB的多个存储。 每种方法的优缺点是什么? 更新:当然,我忽略了在计算中包括热备份,因此它只有7.2TB以下,但总体思路是相同的。:-) 更新2:有60个VM和3个主机。我们所有的VM都不是I / O密集型的。它们中的大多数是Web /应用程序服务器,还有诸如监视(munin / nagios),具有最小负载的2个Windows DC之类的东西。除非数据库服务器具有非常低的I / O要求,否则很少对其进行虚拟化。现在,我认为我们唯一的虚拟数据库服务器是MSSQL框,该框上的DB <1GB。 更新3:有关阵列和FC连接的更多信息。该阵列是IBM DS3524,两个控制器,每个控制器具有2GB缓存。每个控制器4个8Gbit FC端口。每个ESXi主机都有2个4Gbit FC HBA。

2
/ home / vhosts /或/ var / www /
我遇到的一些Web服务器使用/ home来存储站点文件: /home/vhosts/www.example.com/ 其他人使用/ var像: /var/www/www.example.com/ 还有什么更干净和“ Linuxy”的?我们都应该使用/usr/local/www/吗? 可能的来源:http : //www.tuxfiles.org/linuxhelp/linuxdir.html

1
在光纤通道结构上正确放置设备
我们正在为光纤通道结构购买一对新的8Gb交换机。这是一件好事,因为我们的主数据中心的端口用完了,这将使我们能够在两个数据中心之间至少运行一个8Gb ISL。 光纤运行时,我们的两个数据中心相距约3.2公里。几年来,我们一直在获得可靠的4Gb服务,我非常希望它也能够维持8Gb。 我目前正在研究如何重新配置​​我们的结构以接受这些新的交换机。由于成本决定,几年前,我们没有运行完全独立的双环结构。完全冗余的成本被认为比不大可能发生的交换机故障停机成本高。这个决定是在我的时间之前做出的,自那时以来,情况并没有太大改善。 我想借此机会使我们的结构在发生交换机故障(或FabricOS升级)时更具弹性。 这是我正在考虑的布局图。蓝色项目是新的,红色项目是将被(删除)的现有链接。 (来源:sysadmin1138.net) 红色箭头线是当前ISL交换机链接,两个ISL来自同一交换机。EVA6100当前已连接到具有ISL的两个16/4交换机。新的交换机将使我们能够在远程DC中拥有两个交换机,其中一些远程ISL正在迁移到新的交换机。 这样做的好处是,每个交换机与另一个交换机的跳数不超过2跳,而两个将以EVA复制关系的EVA4400彼此相距1跳。图表中的EVA6100是较旧的设备,最终可能会替换为另外的EVA4400。 图表的下半部分是我们大多数服务器所在的位置,我对确切的位置有所担忧。需要去那里: 10个VMWare ESX4.1主机 访问EVA6100上的资源 一个故障转移群集(文件服务器群集)中的4台Windows Server 2008服务器 访问EVA6100和远程EVA4400上的资源 第二个故障转移群集中的2台Windows Server 2008服务器(黑板内容) 访问EVA6100上的资源 2个MS-SQL数据库服务器 访问EVA6100上的资源,每晚DB导出到EVA4400 1个LTO4磁带库和2个LTO4磁带驱动器。每个驱动器都有自己的光纤端口。 备份服务器(不在此列表中)假脱机到它们 目前,ESX群集最多可以容忍3个(可能是4个)主机关闭,然后才必须开始关闭VM的空间。幸运的是,所有东西都已打开MPIO。 我注意到,当前的4Gb ISL链路还没有接近饱和。这可能会随着两个EVA4400的复制而改变,但是至少一个ISL将是8Gb。从性能上看,我将无法使用EVA4400-A,即使复制流量很大,我们也很难穿越4Gb线路。 4节点文件服务群集在SAN1SW4上可以有两个节点,在SAN1SW1上可以有两个节点,因为这会使两个存储阵列相距一跳。 我有些头疼的10个ESX节点。SAN1SW4上的三个,SAN1SW2上的三个,SAN1SW1上的四个是一个选项,我很想听听其他关于布局的意见。其中大多数确实具有双端口FC卡,因此我可以重复运行几个节点。并非全部,但足以使单个开关失败而不杀死所有内容。 两个MS-SQL盒需要在SAN1SW3和SAN1SW2上运行,因为它们需要靠近其主存储,并且db-export性能不太重要。 LTO4驱动器当前位于主拖缆的SW2和2跳上,因此我已经知道它是如何工作的。这些可以保留在SW2和SW3上。 我不想将图表的下半部分设置为完全连接的拓扑,因为这样会使我们的可用端口数从66减少到62,而SAN1SW1将是25%的ISL。但是,如果强烈建议我走那条路。 更新:一些性能数字可能会有用。我有它们,我只是将它们隔开来解决此类问题。 上图中的EVA4400-A具有以下功能: 在工作日内: 在文件服务器群集ShadowCopy快照期间,I / O操作的平均次数低于1000,峰值达到4500次(持续约15-30秒)。 MB / s通常保持在10-30MB的范围内,在ShadowCopies期间峰值可达到70MB和200MB。 在夜晚(备份)时,它的踏板速度很快: I / O操作平均约为1500,在数据库备份期间峰值可达5500。 MB / s的变化很大,但在几个小时内可以运行约100MB,而在SQL导出过程中则以惊人的速度在约15分钟内运行300MB / …

1
在Linux上提高SAS JBOD性能的多路径
我正在尝试使用Linux在某些Sun硬件上优化存储设置。任何想法将不胜感激。 我们有以下硬件: 太阳之刃X6270 2个LSISAS1068E SAS控制器 2个带1 TB磁盘的Sun J4400 JBOD(每个JBOD 24个磁盘) Fedora Core 12 FC13的2.6.33发行版内核(也尝试使用FC12的最新2.6.31内核,结果相同) 这是SAS硬件的数据表: http://www.sun.com/storage/storage_networking/hba/sas/PCIe.pdf 它使用8个通道的PCI Express 1.0a。每个通道的带宽为250 MB /秒,每个SAS控制器应该能够做到2000 MB /秒。 每个控制器每个端口可以执行3 Gb /秒的速度,并具有两个4端口PHY。我们将两个PHY从控制器连接到JBOD。因此,在JBOD和控制器之间,我们有2个PHY * 4个SAS端口* 3 Gb /秒= 24 Gb /秒的带宽,这比PCI Express带宽还大。 启用写缓存并进行大写操作时,每个磁盘可以维持大约80 MB /秒的速度(接近磁盘开始位置)。如果使用24个磁盘,则意味着每个JBOD我们应该能够实现1920 MB /秒的速度。 多路径{ rr_min_io 100 uid 0 path_grouping_policy多总线 故障回复手册 path_selector“循环0” rr_weight优先级 别名somealias …
10 linux  storage  sun  sas  multipath 

3
我如何找出ec2存储的哪一部分是短暂的
请原谅我的无知,这可能是一个愚蠢的问题。 我有一个这样运行的实例: 根设备:EBS是否意味着我的整个系统都在EBS上? 我在这里配置了apache和perl应用程序,我所有的配置和文件都不会消失,对吗? 我如何知道临时存储上正在运行的内容以及EBS上正在运行的内容?如果单击管理控制台中的实例并查看底部的详细信息,则它表示:EBS Optimized: false这到底是什么意思? 这是我的存储空间: [ec2-user@<MY_IP> ~]$ df -h Filesystem Size Used Avail Use% Mounted on /dev/xvda1 7.9G 1.7G 6.2G 22% / tmpfs 298M 0 298M 0% /dev/shm [ec2-user@<MY_IP> ~]$ mount /dev/xvda1 on / type ext4 (rw,noatime) proc on /proc type proc (rw) sysfs on /sys type …

1
mdadm和4k扇区(高级格式)
关于对齐4k扇区磁盘,Serverfault上有很多问题,但是我还不清楚。 我已成功对齐RAID1 + LVM。我做的一件事是使用mdadm超级块版本1.0(将超级块存储在磁盘的末尾)。 联机帮助页上说: 不同的子版本将超级块存储在设备上的不同位置,无论是在末尾(对于1.0),在开始(对于1.1)还是从开始4K(对于1.2)。“ 1”等于“ 1.0”。“默认”等效于“ 1.2”。 是默认版本1.2版本用于4k扇区驱动器吗?我的观察方式不是这样,因为从头开始的4k +超级块的长度不是4k的数目(如果我没记错的话,超级块大约200字节长)。 欢迎对此有任何见识。 编辑: 下面的答案是mdadm超级块1.1和1.2用于4k对齐。我刚刚使用以下方法创建了整个设备团队: mdadm --create /dev/md4 -l 1 -n 2 /dev/sdb /dev/sdd 然后我添加了一个逻辑卷: vgcreate universe2 /dev/md4 阵列以16 MB / s的速度同步: md4 : active raid1 sdd[1] sdb[0] 1465137424 blocks super 1.2 [2/2] [UU] [>....................] resync = 0.8% (13100352/1465137424) finish=1471.6min speed=16443K/sec …

1
9x7驱动器raidz2(ZFS ZoL 0.8.1)上的慢速顺序速度
我正在运行一个大型ZFS池,该池针对256K +请求大小的序列化读写,通过Ubuntu(04.04)上的iSCSI(用于备份)进行。考虑到对高吞吐量和空间效率的需求,以及对随机小块性能的需求减少,我选择了条带化raidz2而不是条带化镜像。 但是,256K顺序读取性能远远低于我的预期(100-200MBps,峰值高达600MBps)。当zvol在iostat中的iowait达到约99%时,后备设备的iowait通常在10%到40%的iowait之间运行,这对我来说是瓶颈,在配置中我缺少这个东西,因为它不应该是背板或CPU此系统以及顺序的工作负载不应使ARC太费劲。 我已经使用了很多模块参数(下面的当前配置),阅读了数百篇文章,有关OpenZFS github的问题,等等。调整预取和聚合使我达到了这种性能水平-默认情况下,我的运行速度约为50MBps ZFS向磁盘发送TINY请求时(约16K),顺序读取。通过聚合和预取工作正常(我认为),磁盘读取会更高,在iostat中平均约为64K。 NIC是具有cxgbit卸载功能的LIO iscsi目标+ Windows Chelsio iscsi启动器在ZFS zvols之外可以很好地工作,通过直接映射的optane返回NIC上几乎全线速(读写3.5GBps)。 我期望太多了吗?我知道ZFS优先考虑安全性而不是性能,但是我希望7x9 raidz2比单个9驱动器mdadm raid6提供更好的顺序读取。 系统规格和日志/配置文件: Chassis: Supermicro 6047R-E1R72L HBAs: 3x 2308 IT mode (24x 6Gbps SAS channels to backplanes) CPU: 2x E5-2667v2 (8 cores @ 3.3Ghz base each) RAM: 128GB, 104GB dedicated to ARC HDDs: 65x HGST 10TB HC510 …

4
如何减少存储消耗?
我有一个包含Live,User Acceptance,登台和开发服务器的网络(在这种情况下,Windows主要是2012r2,所有Hyper-V guest虚拟机)。网络的每个部分都有一个前端和后端服务器。后端服务器按比例包含大量数据。在用户接受,登台和开发服务器中,此数据不会更改(除了偶尔的实时更新),并且在开发周期之外很少访问。 在这种类型的环境中,如何最大程度地减少存储消耗并避免在静态和很少访问的数据上浪费存储空间。数据包含1000个文件,例如pdf,json,dwgs和pngs。 我考虑过的事情。 在不使用服务器时删除服务器-这不是一个好选择,因为有时恢复这些服务器的时间会影响开发人员使用服务器的时间。我们的备份解决方案是MS Data Protection Manager。 不用时删除数据光盘-比上面略好,但时间也是因素。 在服务器之间移动数据光盘-由于它们是Hyper-V来宾,因此我可以根据需要附加数据光盘,但是有时会同时使用多个环境。

4
硬件RAID 6之上的ZFS条带。可能出什么问题?
我有36 * 4TB HDD SAN机架。RAID控制器不支持RAID60,并且一个RAID组中最多支持16个HDD。因此,我决定将2个RAID6组的16HDD或4个8个HDD组成。我想将所有存储作为一个分区。 因此,如果我在硬件RAID6之上使用zfs池,可能​​会出错吗?是的,我知道强烈建议您使用本机HDD或直通模式。但是我没有这个选择。 还是在这种情况下我应该远离ZFS和软件突袭?(我对压缩和快照最感兴趣)

1
在故障转移群集中混合HBA?
我有两个服务器故障转移群集,出于各种原因-它们使用的硬件不匹配。 一个安装了Emulex HBA,另一个安装了Qlogic。 对于在盒子中使用两种不同牌子/型号的卡进行多路径处理,我会有些抽搐。因此,在共享存储故障转移群集中执行此操作有点不舒服。 是否有特定的原因为什么这可能是一个坏(或好?)主意,还是我只是过分关注?

3
为什么docker-machine重新启动时会清除数据?
我在OSX上使用Docker Toolbox。 我创建了一个用于存储持久性数据的数据卷容器:https : //docs.docker.com/userguide/dockervolumes/#creating-and-mounting-a-data-volume-container。 我检查了这些数据确实存储在boot2docker VM(由docker-machine创建)上,而不是存储在容器上,以便将其持久化。但是,“ docker-machine restart”会清除虚拟机上的此自定义数据。 我找不到正在发生的事情的文档。我发现有一个论坛帖子提到/ var / lib / docker中的数据将被保留,但我找不到任何官方文档说明这一点,考虑到上述持久性存储指南未使用此路径,甚至提到该信息,这似乎也很奇怪。您的数据将被删除。 这是预期的吗?如果是这样,那么在存储持久数据的正确路径上是否有任何官方文档? 编辑:添加失败的senario示例 $ docker-machine ssh alt docker@alt:~$ docker run -v /data:/var/lib/mysql --name mydata busybox sh -c "echo 'hello' > /var/lib/mysql/hello" docker@alt:~$ docker run --rm --volumes-from mydata busybox sh -c "cat /var/lib/mysql/hello" hello docker@alt:~$ exit $ …

3
24磁盘阵列的最佳做法
我们刚刚将旧的光纤SAN存储迁移到了具有24个SAS 600GB磁盘的IBM v3700 storwize。 此存储直接连接到两个IBM ESXi 5.5服务器,每个服务器具有两个6Gbps多路径SAS控制器。 到目前为止,我已经将已使用的存储配置为多个RAID5组。每个组将用于不同的服务器/用途。RAID组主要是OracleDB,Oracle存档,SQL Server和其余(文件服务器,邮件等)。最关键的应用程序是Oracle和SQL Server。 我首先关心的是安全性,然后是我们应用程序的性能。因此,我决定使用RAID6 +备用磁盘。 现在,我主要担心的是,由于我们使用的是ESXi,我应该将整个存储配置为一个RAID,以节省空间,并为每台服务器从ESXi创建数据存储卷,或者这不是一个好习惯,最好创建单独的RAID。硬件RAID组?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.