Questions tagged «hardware»

计算机硬件是组成计算机系统的物理元素的集合。

7
服务器机房中有东西在燃烧。如何快速识别它是什么?
前几天,我们注意到服务器机房发出强烈的燃烧气味。长话短说,它最终成为UPS单元中正在燃烧的电池模块之一,但花了好几个小时才能够弄清楚。我们能够弄清楚的主要原因是,UPS显示屏最终显示需要更换模块。 问题出在这里:整个房间充满了气味。进行嗅探测试非常困难,因为气味已经渗入所有东西(更不用说它使我们头昏眼花了)。我们几乎错误地关闭了生产数据库服务器,因为它是最臭的地方。活力似乎还不错(CPU温度显示60摄氏度,风扇速度也不错),但我们不确定。碰巧的是,烧坏的电池模块与机架上的服务器的高度大致相同,并且只有3英尺远。如果这是真正的紧急情况,我们将惨败。 实际上,实际的服务器硬件被烧毁的机会很少发生,而且在大多数情况下,我们将UPS视为罪魁祸首。但是,如果使用带有多个设备的多个机架,它很快就会成为一种猜测游戏。如何快速准确地确定实际上正在烧毁的设备?我意识到这个问题在很大程度上取决于环境变量,例如房间大小,通风,位置等,但是任何输入都会受到赞赏。
454 hardware 

5
SSD驱动器是否像机械驱动器一样可靠(2013年)?
SSD驱动器已经存在了几年。但是可靠性问题仍然存在。 我想这是4年前发布的这个问题的后续活动,最近一次更新是在2011年。现在是2013年,发生了很大变化吗?我想我在寻找一些真实的证据,而不仅仅是直觉。也许您在DC中使用它们。您的经历如何? 固态硬盘的可靠性 更新: 现在是2016年。我认为答案可能是肯定的(可惜的是,它们每GB的成本仍然更高)。 该报告提供了一些证据: 生产中的闪存可靠性:预期和意外 还有一些有关(消费者)机械驱动器的有趣数据: Backblaze:硬盘数据和统计
162 storage  hardware  ssd  sas  sata 

12
是否应在晚上关闭服务器?
从早上4:30到〜22:00,都使用一台服务器。 应该关闭吗?我认为这是一台服务器,并且不会有任何问题,但是认真的教授告诉我,这很危险,高清可能会在2年内失效。服务器所有者认为,他的旧服务器从1995年开始运行,没有备份,只有一个硬盘(如果硬盘发生故障,则需要拧紧),这没有问题,因为他曾经在晚上将其关闭。 您对此有何看法? 现在,它具有RAID 1阵列,外部硬盘备份以及DVD和Internet上的服务器级完整硬盘备份。


13
服务器的SSD或HDD
问题 我已经阅读了许多有关存储的讨论,以及SSD还是经典HDD更好。我很困惑。HDD仍然是首选,但是为什么呢? 主动存储哪个更好?例如对于数据库,磁盘始终处于活动状态? 关于SSD。 优点 他们很安静。 不是机械的。 最快的。 缺点 比较贵。 题。 如果使用SSD的一个单元的生命周期,那么会发生什么?磁盘是否仅通过该单元减少并且可以正常工作? 最好的文件系统是什么?ext4很好,因为它可以连续保存到单元格中吗? 关于硬盘。 优点 便宜点 缺点 如果发生机械故障,我相信通常无法修复。(请确认。) 最慢,尽管我认为硬盘速度通常足以满足服务器需求。 只是价格吗?为什么首选硬盘?SSD对服务器真的有用吗?

10
如何扑灭服务器机架中的小火,以最大程度地减少对周围设备的损坏?
假设我有一个装有几个服务器和其他东西的机架。其中一台服务器严重过热,在附近有军人的情况下开始吸烟或着火。 如果在公寓中发生类似的事情,并且附近有灭火器,则应立即使用后者迅速灭火,但如果服务器机架灭火不当,可能会对周围设备造成不必要的额外损害。 澄清一下,我说的是一种很小的火灾,它可以尝试灭火而又不冒生命危险-抓住附近的灭火器,将其排出,然后在15秒钟之内灭火。 扑灭服务器机架中的局部小火有什么策略?使用哪种类型的灭火器?如何减少对周围设备的损坏?

8
在同一建筑物内移动服务器
这是我的情况:我是一个继承(我不知道)位于办公室内的三台服务器的开发人员。我还继承了作为服务器的管理员的工作,但明显缺乏服务器管理知识,并且没有将google / ServerFault作为参考点。幸运的是,我从来没有真正接触过这些机器或解决任何问题,因为它们一直都是“正常工作”的。 所有三台机器都位于同一数据室中,并用于以下目的: Machine1-托管许多内部应用程序的IIS 8.0-用于内部应用程序的 Machine2SQL Server 2008 R2数据存储 Machine3-SQL Server 2008 R2镜像存储Machine2 这三个都连接了外部硬盘驱动器,这些硬盘驱动器经常完成备份。 我被告知,所有三个都需要在同一场所从一个数据室转移到另一个数据室。我不会完成硬件的物理移动,这将由有能力的搬运工处理。 除了完成每个备份的完整备份外,在假设轻按电源开关并观察我的世界运转之前,我还需要考虑什么? 我知道三个人都位于同一个房间/场所中远非理想,但这已经超出了这个问题的范围。
61 hardware 


14
UPS是否适合非生产设备?[关闭]
多年来,我不得不扔掉相当多的计算设备(或类似设备): 几个ADSL路由器的症状异常(无线连接丢失,有线连接丢失,DHCP故障,DNS症状等) 两个PVR自发地重启并损坏自己(尽管社区尽了最大的努力来诊断和帮助) 一个外部硬盘仍然声称可以运行,但是数据损坏 一个硬盘作为NAS RAID阵列的一部分“出现问题”(就NAS而言) (这是除了各种笔记本电脑和打印机以与该问题无关的方式死亡的情况。) 显然,从如此少量的信息中就无法确定,但是这些信息可能与电源问题有关吗?我目前没有用于任何此类设备的UPS。具有电涌保护的帮浦插座上的所有组件,但是没有任何东西可以使电源切断变得顺畅。 家用UPS是否真的可行且有用?我知道市场上有一些相当便宜的UPS,但我不知道它们的真正用途。我对在断电期间保持我的家庭网络实际运行不感兴趣,但是如果当前的状况使我的硬件处于危险之中,我希望它可以更优雅地关闭电源。

6
为什么我们仍在数据中心服务器上使用电源?
计算机主要需要三个电压才能工作:+ 12V,+ 5V和+ 3,3V,它们都是直流电。 为什么我们不能只有几个(用于冗余)大电源为整个数据中心提供这三个电压,而服务器却直接使用它呢? 因为转换功率总是有损耗的,所以这样做会更有效率,与在每个服务器的PSU中每次执行一次相比,一次执行一次效率更高。而且,对于UPS来说,这会更好,因为它们可以使用12V电池直接为数据中心的整个12V电网供电,而不用将12V DC转换为效率很低的120/240 AC。

8
火灾如何在服务器机房和数据中心蔓延?
我时不时地读到某些数据中心发生了严重火灾,许多设备已损坏,客户下线。现在,我想知道有什么可以支持和散布火力吗? 我的意思是,服务器机房中的墙壁通常很少或没有涂层。机架由金属制成。几乎所有单位都有金属外壳。电缆具有(或至少应具有)不扩散火的绝缘材料。 是什么在服务器机房或数据中心内蔓延?

4
DIMM:单列,双列,四列
DIMM的“排位”对服务器内存有什么区别?例如,当查看服务器配置时,我看到为同一服务器提供了以下内容: 2GB (1x2GB) Single Rank PC3-10600 CL9 ECC DDR3-1333 VLP RDIMM 2GB (1x2GB) Dual Rank PC3-10600 CL9 ECC DDR3-1333 VLP RDIMM 给定“单排名与双排名”或“双排名与四排名”选项始终是一种: 快点? 便宜点吗 带宽更高? 这是IBM关于该主题的说法(第7页),至少关于其HS22而言: 重要的是要确保在每个通道中填充具有适当数量的列的DIMM,以实现最佳性能。只要有可能,建议在系统中使用双列DIMM。与单列DIMM相比,双列DIMM可以提供更好的交错效果,因此性能也更好。 例如,在SPECjbb2005上,装有6个2GB双列DIMM的系统比装有6个2GB单列DIMM的系统性能高出7%。双列DIMM也比四列DIMM好,因为四列DIMM会导致内存速度降低。 另一个重要的准则是在每个通道中填充等效等级。例如,应避免在一个通道中混用一个单列DIMM和一个双列DIMM。 最终,内存等级数量的影响是每个服务器/芯片组特定的。例如,在IBM的x3850X5服务器上,等级越高越好(请参阅第3.8.4节): 使用x3850 X5中的Xeon 7500/6500处理器,具有更高的等级可以提供更好的性能。原因是由于寻址方案可以将页面扩展到各个行,从而使页面有效地变大,从而导致更多页面命中周期。
49 hardware  memory 

7
刀片服务器机箱故障的可能性
在我的组织中,我们正在考虑购买刀片服务器-而不是机架服务器。当然,技术供应商也使它们听起来非常不错。我在不同的论坛上经常读到的一个问题是,从理论上讲服务器机箱可能会掉下来-因此,所有刀片服务器都将掉下来。那是由于共享的基础架构。 我对这种可能性的反应是拥有冗余性,并采用两个机箱而不是一个机箱(当然非常昂贵)。 一些人(包括HP供应商)试图说服我们,由于许多冗余(冗余电源等),机箱极不可能发生故障。 我这一边的另一个担心是,如果出现故障,可能需要备件-在我们所在地(埃塞俄比亚)这很困难。 因此,我想问一问管理刀片服务器的经验丰富的管理员:您的经验是什么?它们会整体崩溃吗?可能会失败的明智的共享基础架构是什么? 这个问题可以扩展到共享存储。我再次要说的是,我们需要两个存储单元,而不是仅一个。供应商再次说,这些东西非常坚固,不会出现故障。 好吧-我很难相信这样一个关键的基础架构在没有冗余的情况下非常可靠-但也许您可以告诉我,您是否有成功的基于刀片的项目,这些项目在其核心部分(机箱,存储... ) 目前,我们看一下HP-IBM看起来太贵了。

8
服务器机房温度控制
我们有一间临时的服务器机房,其中包含一个装有六台服务器的机架和一些网络设备。房间由通风到阁楼的双软管便携式空调装置冷却。此时,便携式A / C单元无法跟上所产生的热量,并且温度在稳定之前会升至华氏81度左右。顺便提一句,服务器当前直接安装在机架中彼此顶部(没有空间)。 在我看来,降低房间温度而不增加空调的唯一方法是减少热量的产生。换句话说,我需要减少服务器数量。 我的朋友认为,如果我们将服务器分开放置,则制冷效率会更高,并导致更低的室温。 我认为我的伙伴不了解能量守恒定律。请帮助我们解决此争议。

1
HP ProLiant DL360 G7挂在“电源和热校准”屏幕上
我有一个新的HP ProLiant DL360 G7系统,该系统显示出难以重现的问题。在POST过程中,服务器会随机挂在“ 正在进行功率和热校准... ”屏幕上。通常在从已安装的操作系统进行热启动/重新引导之后。 此时系统将无限期停止。通过ILO 3电源控件发出复位或冷启动,可使系统正常启动而不会发生意外。 当系统处于此状态时,可以完全访问ILO 3界面,并且所有系统运行状况指示灯均正常(均为绿色)。该服务器位于气候受控的数据中心中,该数据中心具有与PDU的电源连接。环境温度为64°F / 17°C。在部署之前,将系统置于24小时的组件测试循环中,并且没有任何故障。 该服务器的主要操作系统是VMWare ESXi5。我们最初尝试使用5.0版本,然后尝试使用5.1版本。两者都是通过PXE引导和kickstart部署的。此外,我们正在测试裸机Windows和Red Hat Linux安装。 HP ProLiant系统具有一组全面的BIOS选项。除了静态高性能配置文件外,我们还尝试了默认设置。我已经禁用了启动启动屏幕,并且此时与上面的屏幕截图相比,光标只是闪烁了一点。我们还尝试了一些用于BIOS配置的VMWare “最佳实践”。我们已经从HP收到了一个忠告,该忠告似乎概述了类似的问题,但没有解决我们的特定问题。 怀疑硬件问题,我让供应商将相同的系统发送给同一天交货。新服务器是完全相同的构建,磁盘除外。我们将磁盘从旧服务器移到了新服务器。我们在替换硬件上遇到了相同的随机引导问题。 我现在有两个服务器并行运行。该问题在热靴上随机出现。冷靴似乎没有问题。我正在研究一些更深奥的BIOS设置,例如禁用Turbo Boost或完全禁用功率校准功能。我可以尝试这些,但是没有必要。 有什么想法吗? - 编辑 - 系统细节: DL360 G7-2个X5670六核CPU 96GB RAM(12 x 8GB低压DIMM) 2个146GB 15k SAS硬盘驱动器 2个750W冗余电源 所有用于ProLiant DVD的HP Service Pack上最新的固件。 我曾提到过调用HP并拖曳interwebz,但有提到ILO 3交互不良的情况,但这也发生在物理控制台上的服务器上。惠普还建议使用电源,但这是在成功为其他生产系统供电的数据中心机架中。 低压DIMM与750W电源之间是否存在交互不良的可能性?该服务器应为受支持的配置。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.