Questions tagged «ssd»

固态驱动器是指使用固态存储器存储其持久数据的数据存储设备。

7
在服务器上安装SSD是否有意义?
我想建立一个托管约2TB以上数据的服务器。当然,就数据驱动器而言,SSD无法显示。我的问题是:将SSD用作启动驱动器有什么好处?我打算在上面放16G内存。我认为大多数时候服务应该加载到内存中,而服务器应该很少需要重启。在这种情况下,获得SSD或仅获得具有两个SATA驱动器的RAID1是否有意义?
12 hard-drive  ssd 

2
RAID 10时SSD(Intel 530)的读取/写入速度非常慢
说明: 我们有一个服务器: 型号:HP ProLiant DL160 G6 4个240GB SSD(RAID-10) 72GB DDR3内存 2个L5639 HP P410 RAID控制器(256MB,V6.40,Rom版本:8.40.41.00) SSD驱动器是4个全新的2.5“ Intel 530,读取速度为540MB / s,写入速度为490MB / s CentOS的6 文件系统是ext4 但这是RAID 10读取速度的测试结果: hdparm -t /dev/sda /dev/sda: Timing buffered disk reads: 824 MB in 3.00 seconds = 274.50 MB/sec [root@localhost ~]# hdparm -t /dev/mapper/vg_localhost-lv_root /dev/mapper/vg_localhost-lv_root: Timing buffered disk …

3
Linux + SSD上交换分区上的后台丢弃
问题 我想在Linux上的SSD磁盘内的交换分区上启用后台 TRIM操作。根据几篇文章(例如,这篇文章),内核会检测到此配置并自动执行丢弃操作,但是在我的测试中,尽管使用了“丢弃”安装选项来强制执行此行为,但它似乎无法正常工作。 情境 运行Linux 3.2.0的Debian Wheezy SSD磁盘:1 x 120GB OCZ Vertex 3 MI 2GB交换“普通”分区,不带其他层(LVM,RAID等) 背景 这些是我检查后台TRIM是否在交换分区上工作的步骤: TRIM支持:检查SSD磁盘是否支持TRIM命令,并且内核将设备标记为不可旋转: # hdparm -I /dev/sda | grep TRIM * Data Set Management TRIM supported (limit 1 block) * Deterministic read data after TRIM # cat /sys/block/sda/queue/rotational 0 交换填充:挂载分区,清理所有VM高速缓存,并将Linux配置为主动进行交换,将vm.swappiness设置为100。然后,运行一个分配所有可用内存并强制内核开始交换的脚本: # swapon [--discard] /dev/sda2 # …
11 linux  debian  ssd  swap  trim 

6
用于在Ubuntu服务器上交换的SSD
目前,我正在阅读SSD评论,我想知道如果将24 GB的交换空间从7200rpm硬盘驱动器移至SSD,我将获得多少收益。是否有人在SSD上实现了交换空间?这通常是个好主意吗? 附带说明:我读到,如果日志在SSD上,则ext4的性能要好得多。有这样的设置的人吗? 谢谢! 编辑:在这里,我将回答发布的问题:偶尔,我遇到掉期的情况相对较少。我知道交换是为了什么,那最好是获得更多的RAM。服务器开始交换时,其性能会降低(不足为奇)。这个想法是,如果我运行的内存不足进程很少,那时候可以使用SSD来交换而不是使用较慢的旋转介质来提高当时的整体系统性能。最后-我希望能够更快地登录并在交换过程中检查服务器状态,而不是等待登录提示。而且我所看到的SSD每GB的价格要比RAM便宜。 与HDD相比,使用SSD进行交换时,我是否有更好的服务器性能(很少见)?在这种情况下,将以10k或15k rpm的HDD进行评估? 谢谢大家的迅速回答!
11 linux  ubuntu  ssd  swap 

4
带有CentOS 5.5的Crucial C300 SSD上ext4的SSD TRIM(丢弃)问题
在较旧的操作系统(CentOS 5.5)上使用现代内核(当前为2.6.37)进行测试,这样我们就可以在SSD(Crucial C300)上使用TRIM(丢弃)。 最新的hdparm(9.37)同意C300支持TRIM: ./hdparm -I /dev/sdc | grep TRIM * Data Set Management TRIM supported (limit unknown) * Deterministic read data after TRIM 但是,当我尝试使用抛弃选项挂载/ dev / sdc时,内核似乎并不同意: EXT4-fs warning (device sdc): ext4_issue_discard:2619: discard not supported, disabling 当我键入此代码时,我们正在尝试其他Linux风格,但是无论如何都很好。 这是否是CentOS 5.5的某些其他古老组件误导了内核的体现?还是hdparm使用与内核不同的机制来确定是否支持TRIM?
11 linux  centos  ssd  ext4  trim 

2
向raid 0添加驱动器堆会提高性能吗?
向raid 0添加驱动器堆会提高性能吗?我知道带区团队中的两个驱动器通常比单个驱动器快,但是我会注意到,带区团队中的2个驱动器和8个驱动器之间的性能差异吗?在您真的没有任何其他好处之前,对RAID中的驱动器数量有一般限制吗? 这里也提出了类似的问题 将更多驱动器添加到RAID 10阵列是否可以提高性能? 但是我真的是在问是否将多个驱动器添加到RAID 0是否比仅添加说2或4有改进?性能是否会持续提高?
10 raid  performance  ssd 

3
SSD实例类型上的根设备。SSD与EBS的混淆
我有一个最初是从t1.micro linux创建的AMI。此AMI的“根设备类型”是EBS(8 GB),我的Web应用程序软件已“烘焙”到该根卷中。 现在,我想从此AMI启动m3.medium实例,但它具有4GB SSD的“实例存储”。 我新启动的m3.medium实例会完全利用SSD存储吗?还是我需要使用“实例存储”作为根“根设备类型”创建新的AMI? 同样...当我尝试使用“ Amazon Linux AMI 2013.09.2”从头启动m3.medium时,默认情况下会添加一个8GB根EBS卷,无法使用启动向导将其删除。 我在这里想念什么?


4
如何确定Linux下SSD的写周期数或预期寿命?
我们已经在Linux(RHEL 5)服务器中运行SSD(Intel X25-M)已有一段时间了,但从未做出任何努力来弄清楚它在过去一年中承受了多少写负载。Linux下是否有任何工具可以告诉我们随着时间的推移已向磁盘写入了多少磁盘(或者甚至更好),从而累积了多少磨损?只是寻找提示,看它是否快要死了...
10 linux  ssd 

3
ZFS-L2ARC缓存设备故障的影响(Nexenta)
我有一台作为NexentaStor存储单元运行的HP ProLiant DL380 G7服务器。该服务器具有36GB RAM,2个LSI 9211-8i SAS控制器(无SAS扩展器),2个SAS系统驱动器,12个SAS数据驱动器,热备用磁盘,Intel X25-M L2ARC高速缓存和DDRdrive PCI ZIL加速器。该系统将NFS提供给多个VMWare主机。我在阵列上还有大约90-100GB的重复数据删除数据。 我有两次事件突然导致性能下降,使VM guest虚拟机和Nexenta SSH / Web控制台无法访问,并且需要完全重启阵列以恢复功能。在这两种情况下,都是英特尔X-25M L2ARC SSD发生故障或“脱机”。NexentaStor未能向我发出有关缓存故障的警报,但是在(无响应)控制台屏幕上可以看到常规的ZFS FMA警报。 该zpool status输出显示: pool: vol1 state: ONLINE scan: scrub repaired 0 in 0h57m with 0 errors on Sat May 21 05:57:27 2011 config: NAME STATE READ WRITE CKSUM vol1 ONLINE 0 0 …
10 zfs  ssd  nexenta  zfs-l2arc 

3
SSD上的系统驱动器;页面文件到自己的驱动器?
我将Intel X25-E SSD用于具有16 GB RAM的Windows Server 2008 R2服务器的系统驱动器。将页面文件移动到其自己的驱动器是否是一个好习惯?如果是这样,对于页面文件驱动器,是否会首选SSD或传统硬盘驱动器? 该存储配置还包括两个数据卷,每个数据卷都在4磁盘RAID 10阵列上实现,并连接到PERC 5 / i集成RAID控制器。该服务器是Dell PowerEdge2900。它在背板上有10个插槽,一个用于SSD插槽,八个用于RAID 10阵列,以及一个空页面页驱动器可用的插槽。 谢谢。

1
SSD磁盘和10 Gbe网络的iSCSI性能不佳
iSCSI目标 带有16 GB RAM和16个核心CPU的Ubuntu 14.04(Trusty Tahr)作为LVM支持的iSCSI目标,使用三个Samsung SSD磁盘,每个磁盘都可以使用带有板载高速缓存的LSI 6 Gbit / s控制器执行65k IOPS。 目标中的SSD磁盘基准: fio --filename=/dev/sdd --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporting --name=ssd-max iops=65514 凡sdd在硬件配置RAID 0使用三个三星850固态硬盘EVO。 发起人 我在具有32 GB RAM和8个核心CPU的Ubuntu 14.04客户端上导出了500G LUN。 导出的LUN基准 fio --filename=/dev/sdg --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporting --name=client-max iops=2400 在进行DAS和通过网络进行操作时,性能会显着下降,我预计IOPS至少为10k。 目标与启动器之间的通信少于1 …
10 linux  iscsi  ssd  open-iscsi 

4
带有少量SSD驱动器或许多老式HDD的SAN?
我的公司正在尝试确定要购买哪种类型的SAN。这特别适用于IO受限的数据库服务器(当前存储为DAS,但我们已达到单个服务器的极限,并且我们也想添加集群)。 我们需要一种能够长期产生约3,000 IOPS的解决方案(目前,我们的峰值约为1000 IOPS)。我们大多数的数据库操作都是小的读/写。根据与HP工程师和其他在线人员的讨论,带有RAID 10配置的24个SAS HD的HP P2000的价格仅为该价格的近2万美元。添加控制器和其他项以构建SAN,使我们的预算达到了3万美元左右。 但是在网上,我看到许多SAS SSD的交付速度为80,000 IOPS +。这是现实的期望吗?如果是这样,获得P2000或类似的入门级SAN并在其中插入一些SSD是否现实?我们的数据库很小,总共只有几TB。如果这样做,我们将有剩余的钱来购买第二个用于镜像/故障转移的SAN,这似乎是审慎的做法。

3
在SSD上安全删除
覆盖磁性HDD上物理扇区的“传统”安全删除实用程序是否可以在SSD上运行,还是SSD可以简单地“重新映射”该扇区以避免昂贵的删除操作并使数据在不确定的时间内完好无损?

2
ZFS和缓存设备
我将向我的ZFS存储中添加SSD驱动器作为缓存。有人对此有经验吗?如果缓存设备死了,该数据将受到影响吗?
9 cache  ssd  zfs 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.