40TB服务器配置的完整性检查
我已经有40年的计算经验,但是我从来不需要像这样构建服务器,因此这可能是一个n00b问题。 我有一个客户将提供超高清音乐文件供下载。在这种情况下,这意味着FLAC压缩的24 / 192Khz =〜10GB /专辑。(不,我不想讨论产品的理想性,仅是服务器配置。)目录将是大约3,000张专辑,包括超高清晰度和低清晰度版本(我猜是针对iPod的), 35-40TB左右的主要数据。 由于这是一种非常专业的产品,因此市场规模相对较小(请考虑:人们在音频系统上花费20,000美元以上的人),这意味着服务器大部分时间将处于100%空闲(或接近)的状态。我有一个看起来不错的ColocationAmerica托管服务,连接速度为1Gbps,带宽为20美元/ TB,所以现在我只需要搭建一个盒子来运送货物。 数据访问用例是一次写入/多次读取,因此我正在考虑仅对驱动器对使用软件RAID 1。这将使我(我认为)可以为故障驱动器动态配置备用驱动器,从而能够在某些系统管理员注意到系统上的红灯之前开始第二个驱动器的重建(它们可以自由交换)。如果不需要的话,我可以让大多数驱动器进入睡眠/旋转状态,那就太好了,这对于大多数驱动器来说都是大多数时间。 我不需要太多的计算能力-这只是将繁杂的对象推到管道中-因此,只要CPU /主板能够支持如此数量的驱动器,它就可以算是适中的。 我目前正在考虑以下配置: Chasis: Supermicro CSE-847E26-RJBOD1 Drives: 30 4TB SAS drives (Seagate ST4000NM0023 ?) MB: SUPERMICRO MBD-X10SAE-O w/ 8GB CPU: Xeon E3-1220V3 3.1GHz LGA 1150 80W Quad-Core Server 那么,我是朝正确的方向前进,还是这是解决问题的完全n00b /恐龙方式? 更新以澄清两点: 我没有ZFS的经验,因为我拥有的最后一个Sun产品早在80年代末。我将做一点RTFMing,看看是否感觉正确。 我真的不需要文件系统做任何壮观的事情,因为文件名将是简单的UUID,并且对象将在驱动器之间保持平衡(有点像大型缓存系统)。因此,我真的以为这些是40个独立的文件系统,这使RAID 1听起来不错(但是我在这里承认无知)。 因为我们目前的期望是我们不可能一次下载超过几十个文件,而且在大多数情况下,只有一个人在下载任何给定的文件,所以我不知道我们是否需要大量的内存用于缓冲区。也许8GB有点轻,但我认为128GB除了消耗能量外没有其他用途。 这里没有提到2台单独的机器:它们当前的网上商店,以及一个几乎完全脱钩的Download Master,可以处理所有身份验证,新产品接收管理,策略执行(毕竟这是 RIAA的游乐场),临时URL的创建(可能还有)如果流量超出了我们的预期,则将下载转移到这些野兽中的一种以上),使用情况跟踪和报告生成。这意味着这台机器几乎可以在Quaaludes上使用沙鼠来建造。 ZFS?好处在哪里? …