Questions tagged «ssd»

固态驱动器是指使用固态存储器存储其持久数据的数据存储设备。

3
SSD与HDD的可靠性(温度变化较大)
我有一个需要在室外环境中进行数据记录的应用程序,并且我对置于寒冷(低至-20)和高温(+50)的环境中的SSD与HDD的可靠性感兴趣 。直觉使我相信,固态硬盘(高温除外)将更加可靠。空调外壳不是一个选择。 在这种情况下,是否有人知道磁盘的可靠性?
24 ssd  hard-drive 

3
EBS与SSD的定义
创建实例时,我对EBS和SSD的选择感到困惑。 在选择实例参数(第2步)时,您将在“ 实例存储(GB) ”列中看到2个选项: 仅EBS或SSD。 我不知道为什么会有这个选项,因为SSD和EBS是不同的东西,为什么我会选择一个而不选择另一个。 下面的实例存储(GB)的定义 与上面的矛盾,因为它们都是持久的。(如果您将鼠标悬停在列名上,则会看到此定义) 本地实例存储该实例可用的卷。实例存储中的数据不是永久性的-仅在实例的生存期内一直存在。 为什么在第4步中又需要选择SSD还是磁性? 任何澄清都会有所帮助。

5
SSD磁头/气缸/集群详细信息
我们的客户生产的工业机器人可以在非常古老但稳定的硬件和软件上运行。唯一的瓶颈一直是这些移动机器中的硬盘驱动器。由于不断移动(震动等),HDD通常无法生存六个月以上。 因此,现在我们尝试连接SSD。主板没有SATA连接(这并不奇怪),因此我们正在使用SATA-IDE转换器将其连接到主板上的IDE端口。这样可以正常工作,BIOS可以识别驱动器。 唯一的问题是它将无法启动。它在POST时冻结。在BIOS中(从1990年代开始),我们需要指定一些值,称为“ HEADS”,“ SYL”,“ CLUSTER”和“ LANDZ”。与传统的HDD不同,此驱动器显然没有盘片。驱动器是否可以在IDE上模仿这些东西,我们是否可以以某种方式找出特定驱动器的这些值?我们随机更改了值,有时它通过了POST,有时却没有。但是,如果可以,它仍然无法启动,只是说没有驱动器连接。 简而言之,是否有人有将SATA SSD连接到旧的IDE主板的经验,我们应该怎么做才能使它工作(如果有)?

2
对于L2ARC和ZIL:最好同时拥有一个大SSD或两个小SSD?
此问题已从超级用户迁移,因为可以在服务器故障时回答。 迁移 7年前。 主要参考 ZFS L2ARC(Brendan Gregg)(2008-07-22)和ZFS和混合存储概念(Anatol Studler的博客)(2008-11-11)包含下图: 题 我是否应该在SSD层上解释垂直白线,以偏爱使用单独的 SSD, 是否不想在单个磁盘上混合使用L2ARC和ZIL? 背景(回应评论) 就个人而言,我不太可能在任何可用的计算机上使用L2ARC或ZIL。(我的日常计算机是具有8 GB内存的MacBookPro5,2和混合型Seagate ST750LX003-1AC154。没有计划用SSD取代光盘驱动器。) 在其他地方:在工作中会有一些工具包的用途,但我没有日期或完整细节。(混合使用Xserve RAID x2…目前,我无法想象将它们提供给ZFS,但我还是持开放态度。) 我对 L2ARC和ZIL的SSD最佳做法的好奇心始于ZEVO领域中与性能相关的讨论之后,尤其是下面提到的主题,在该主题中,用户在单个磁盘上同时拥有L2ARC和ZIL。 其他参考和讨论 L2ARC屏幕截图(Brendan Gregg)(2009-01-30) SLOG屏幕截图(Brendan Gregg)(2009-06-26) [zfs-discuss] ZFS根备份/“灾难”恢复以及移动根池(2011-01-10)建议不要在单个磁盘上混合使用三样东西(根池,ZIL和L2ARC)– …不值得尝试在同一磁盘上管理所有3个磁盘时出现的头痛问题。例如,如果您决定重新安装数据存储池并意外破坏ZIL的内容。不要为池组件或跨池共享磁盘,以简化管理和恢复。… –我对是否建议不要在单个磁盘上混合使用其中的两种方法更感兴趣。 /superuser//a/238744/84988(2011-01-28)提到“缓存(L2ARC缓存)并将日志(ZIL)写入SSD”(单数)。但是,由于它与FUSE和Windows有关,因此我认为该答案与ZFS的更常见和更注重性能的使用没有特别的关系。 @ChrisS 在2011-08-16 的Comms Room中提到了ZIL和L2ARC。 http://forums.macrumors.com/showpost.php?p=14248388(2012-01-31)讨论了多个 SSD: 您需要了解有关ZFS的一些知识:它具有两种不同类型的缓存(读写)(L2ARC和ZIL),通常存储在SSD上。ZIL是写缓存。这可能是这种误解的来源。每次对zpool进行写操作时,ZIL都会受到锤击(假设是活动系统)。问题在于,将基于mlc的SSD用作ZIL会使它们磨损并很快发生故障。您需要一个(价格昂贵得多)基于slc的SSD用作ZIL驱动器。 具有完全由SSD组成的zpool不仅可能,而且效果很好。从根本上讲,它也不需要ZIL和L2ARC的单独驱动器。是的,您没有TRIM支持,但是基于ZFS的写时复制特性,这可能是一件好事。 话虽如此,ZFS在几乎满(例如85%或更高)的zpool上不能很好地发挥作用。无论您使用的是旋转磁介质还是固态介质,性能都会开始显着下降。缺少TRIM支持可能会加剧该问题,但是这已经是一个问题。 /server//a/397431/91969(2012-06-11)建议: ZIL的SLC类型SSD(特别不是MLC) 适用于L2ARC的MLC型SSD。 /superuser//a/451145/84988(2012-07-19)提到了单数形式的 “用于ZIL和L2ARC的SSD以加速ZFS”。 zevo.getgreenbytes.com•查看主题-FW800连接顺序的性能问题?(2012-09-24)关注具有用于ZIL和L2ARC 的单个 SSD 的FireWire总线上的事物顺序 除了总线顺序,那个ZEVO话题使我开始怀疑是否最好使用单独的SSD。 …
22 ssd  cache  zfs 

6
验证SSD上的BtrFS是否支持TRIM
我们正在研究在一系列SSD磁盘上使用BtrFS,并被要求确认BtrFS实际上在删除文件时确实执行了TRIM操作。到目前为止,我还无法验证TRIM命令是否已发送到磁盘。 我知道BtrFS尚不适合生产,但是我们喜欢最新技术,因此我正在对其进行测试。该服务器是Ubuntu 11.04服务器64位版本(mkfs.btrfs版本0.19)。我已经安装了Linux 3.0.0内核,因为BtrFS更改日志指出,Ubuntu 11.04(2.6.38)随附的内核中没有批量TRIM。 这是我的测试方法(最初从http://andyduffell.com/techblog/?p=852采纳,并进行了修改以使用BtrFS): 在启动之前,手动修剪磁盘: for i in {0..10} ; do let A="$i * 65536" ; hdparm --trim-sector-ranges $A:65535 --please-destroy-my-drive /dev/sda ; done 验证驱动器是否已修剪: ./sectors.pl |grep + | tee sectors-$(date +%s) 分区驱动器: fdisk /dev/sda 制作文件系统: mkfs.btrfs /dev/sda1 安装: sudo mount -t btrfs -o ssd /dev/sda1 /mnt 创建一个文件: dd …
21 linux  ubuntu  ssd  btrfs  trim 

4
具有NV缓存的RAID控制器是否可以提高SSD阵列的性能或完整性?
我打算购买RAID 10中带有SSD的服务器(Dell PowerEdge R740),我的首要任务是写性能和数据完整性。它将运行Linux。SSD具有带断电保护功能的写缓存。 看来这些是我的RAID选项: PERC H330(无高速缓存),软件RAID(直通) PERC H330(无高速缓存),硬件RAID(直写) PERC H730P(2 Gb NV缓存),硬件RAID(直写) PERC H740P(8 Gb NV缓存),硬件RAID(直写) 我的问题: 这些配置中是否有数据丢失或掉电损坏的风险? 我应该期望哪种配置具有最佳写入性能? 我没有考虑过的NV缓存还有其他好处吗? 相关问题: 软件与硬件RAID性能和缓存使用情况 LSI FastPath与软件RAID有何不同?
20 raid  cache  ssd 

4
SSD驱动器将从非默认分配单位大小中受益吗?
在当前设置中格式化驱动器时,建议的默认分配单位大小为4096字节。我了解大大小小的利弊的基本知识(性能提升与空间节省),但似乎固态驱动器的好处(查找时间大大低于硬盘)可能会导致分配空间小得多的情况大小无害。 如果是这种情况,它将至少部分有助于克服SSD的缺点(每GB的价格更高)。 有没有办法确定与寻道时间特别相关的较小分配规模的“成本”?还是有研究或文章建议基于此较新的技术从默认值更改? (假设大小程序文件,OS文件,数据,mp3,文本文件等的平均散布程度最大)
20 hard-drive  ssd  format 

10
调零SSD驱动器
我们为客户托管VPS。每个客户VPS在标准主轴硬盘上都有一个LVM LV。如果客户要离开,我们将此LV置零,以确保其数据不会泄漏给其他客户。 我们正在考虑将SSD用于我们的托管业务。鉴于SSD具有“损耗平衡”技术,这是否使调零毫无意义?鉴于我们不能让客户数据泄漏给另一位客户,这是否会使这个SSD想法不可行?
18 hard-drive  ssd 

5
可以让SSD TRIM(丢弃)在Linux中的ext4 + LVM +软件RAID上工作吗?
我们在Linux(当前为2.6.37)上将RAID1 + 0与md一起使用来创建md设备,然后使用LVM在设备顶部提供卷管理,然后将ext4用作LVM卷组上的文件系统。 使用SSD作为驱动器,我们希望看到TRIM命令通过层(ext4-> LVM-> md-> SSD)传播到设备。 看起来最近的2.6.3x内核已经添加了许多新的与SSD相关的TRIM支持,包括对Device Mapper方案的更多覆盖,但是我们似乎仍然无法正确地将其级联下来。 这可能吗?如果是这样,怎么办?如果没有,有什么进展吗?
18 linux  raid  lvm  ssd  trim 

4
擦拭非常慢。熵太少了吗?
我必须交出包括硬盘的笔记本电脑。由于未加密,因此我想至少迅速擦除它。我知道这在SSD上不是最佳选择,但我认为比普通可读性更好。 现在,我正在擦拭活动的USB记忆棒,而且速度很慢。我不知道这是为什么。当然,除了擦除该设备外,计算机上几乎没有发生任何事情,因此我认为熵可能很低(entropy_avail说是在1220年)。打电话也一样好 dd if=/dev/random of=/dev/sda1 bs=1k 四次?还是有一种我可以打电话的方式来增加随机性?还是瓶颈完全不同?

7
了解NVMe存储和硬件要求
我对基于PCIe的存储的最新发展有些困惑,特别是因为它与NVMe规范及其硬件兼容性有关。 虽然我已经广泛使用磁盘形式的SSD和某些高端PCIe设备(例如Fusion-io)进行了工作,但我对我不了解NVMe的基础知识,并且正在寻求澄清哪种服务器类型支持硬件。 例如,Supermicro 这样的广告文案令人困惑。 ...高性能CPU PCI-E Gen3直接连接到NVMe设备。 我正在使用基于Linux的软件定义的存储解决方案,并想使用备用Fusion-io设备,该设备使用专有驱动程序(向OS 展示/ dev / fioX设备名称)。 当我向供应商寻求帮助时,答复是: 新的NVMe设备界面已使“ fioX”设备命名过时。这意味着我们购买了过时的适配器以增加其他人没有要求的支持。 这似乎有点苛刻。我不认为Fusion-io适配器已经过时。 我在网上发现的稀缺信息似乎暗示着NVMe仅在绝对最新的服务器硬件(英特尔E5-2600v3 CPU和PCI 3.0芯片组?)上受支持。但是我无法验证这一点。 这是真的? 普及率是多少?这是工程师在设计决策时要考虑的问题,还是我们在谈论尚未完全形成的“标准”? 如果NVMe 仅适用于市场上的最新系统,是否(向供应商)建议我的较旧系统的安装基础不能与NVMe兼容,是否值得添加我要求的支持?

3
避免使用SSD进行RAID5的要点是什么?
我的理解是,SSD的写入量有限。由于驱动器之间的奇偶校验信息,RAID5执行许多写入操作。因此,推理表明RAID5会以更快的速度杀死并降低固态硬盘的性能。 以下来自本文的陈述使我觉得我不完全理解上述推理,或者可能不正确。 高耐用性SSD的另一个利基市场是奇偶校验RAID阵列。SLC由于其固有的优越的写延迟和耐用性,因此非常适合此类应用程序。
16 ssd  raid5 

4
对SSD TRIM的硬件RAID控制器支持
当前可用的任何硬件RAID控制器都支持TRIM吗? 如果不是,那么任何制造商都有支持TRIM的目标日期吗? 我是否应该关心性能敏感工作站中安装的SSD的TRIM? 在您提出建议之前,是的,软件RAID可以绕开该问题,但是我的要求不允许软件RAID。 编辑:答案似乎是“当前日期没有RAID控制器支持TRIM”。 更新: 截至2012年8月,英特尔7系列主板确实支持RAID 0TRIM。2015年现在可能会有更多的供应商支持此功能。
16 raid  ssd 

4
是否应避免由于性能下降而将两个SSD置于RAID1配置中?
我有一个工作站系统,该系统将有两个64GB工业SSD,并且计划将两个磁盘都置于RAID1配置中以实现冗余,这是在kickstart中设置的。系统将运行CentOS7。通过调查,我发现《RHEL存储管理指南》不建议将RAID1用于SSD。 红帽还警告说,不建议在SSD上使用软件RAID级别1、4、5和6。在这些RAID级别的初始化阶段,某些RAID管理实用程序(例如mdadm)写入存储设备上的所有块,以确保校验和正常运行。这将导致SSD的性能快速下降。 这是我应该认真考虑的事情吗?我可以使用其他替代方法吗? 再次根据RHEL文档,LVM镜像现在利用MD软件RAID,因此RAID警告也适用于此。 更多信息:SSD是Swissbit X-200系列(SATA),看起来像是过度配置了40%。 根据硬件团队的说法,硬件RAID将不是一个选择。
15 centos  raid  redhat  ssd 

3
强制重新协商PCI Express链接速度?x2卡恢复为x1宽度
为了避免在新的HP ProLiant Gen8服务器上使用SSD驱动器的兼容性和成本障碍,我正在努力验证平台上基于PCIe的SSD。我一直在尝试其他世界计算机公司的一种有趣的产品,称为Accelsior E2。 这是基本设计;带有Marvell 6Gbps SATA RAID控制器和连接到该卡的两个SSD“刀片” 的PCIe 卡。可以将它们传递到操作系统以进行软件RAID(例如ZFS),也可以将其用作硬件RAID0条带或RAID1镜像对。好漂亮 它实际上只是将控制器和磁盘压缩为非常小的外形。 问题: 查看该PCIe连接器。那是一个PCie x2接口。物理PCIe插槽/通道大小通常为x1,x4,x8和x16,电气连接通常为x1,x4,x8和x16。没关系。我以前在服务器中使用过x1卡。 我开始在引导的系统上测试该卡的性能,发现无论服务器/插槽/ BIOS配置如何,读/写速度都可降至约410 MB / s。使用的服务器是具有x4和x8 PCIe插槽的HP ProLiant G6,G7和Gen8(Nehalem,Westmere和Sandy Bridge)系统。查看卡的BIOS显示设备进行了协商:PCIe 2.0 5.0Gbps x1-因此,它仅使用一个PCIe通道而不是两个,因此只有一半的广告带宽可用。 有什么方法可以强制PCIe设备以不同的速度运行? 我的研究表明,PCIe x2有点怪异的通道宽度... PCI Express标准显然不需要与x2通道宽度兼容,因此我的猜测是服务器上的控制器回落到x1 ...我有追索权吗? 缩写的lspci -vvv输出。注意之间的差异LnkSta和LnkCap线条。 05:00.0 SATA controller: Marvell Technology Group Ltd. Device 9230 (rev 10) (prog-if 01 [AHCI 1.0]) Subsystem: …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.