Questions tagged «ceph»

1
具有xfs,20个磁盘和Ceph的“大型”服务器上页面碎片的原因
任何有Linux IO系统经验的人的任何见解都会有所帮助。这是我的故事: 最近建立了一个由六个Dell PowerEdge rx720xds组成的集群,用于通过Ceph提供文件。这些机器在两个插槽上具有24个内核,并具有两个numa区域和70奇吉字节的内存。磁盘格式化为每个磁盘的RAID(否则,我们看不到直接公开磁盘的方法)。网络由IB上的mellanox infiniband IP提供(IP数据包在内核区域(而非硬件)转换为IB)。 我们将每个SAS驱动器安装如下: # cat /proc/mounts | grep osd /dev/sdm1 /var/lib/ceph/osd/ceph-90 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdj1 /var/lib/ceph/osd/ceph-87 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdu1 /var/lib/ceph/osd/ceph-99 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdd1 /var/lib/ceph/osd/ceph-82 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdk1 /var/lib/ceph/osd/ceph-88 xfs rw,noatime,attr2,inode64,noquota 0 0 /dev/sdl1 /var/lib/ceph/osd/ceph-89 xfs rw,noatime,attr2,inode64,noquota 0 0 …

3
ceph是否可以将硬件RAID阵列(LUN)作为OSD驱动器处理?
我对ceph还是很陌生,请尝试找出ceph是否支持硬件级别的RAID HBA。 可悲的是找不到任何信息。我发现,建议对OSD使用普通磁盘。但这将要求推向了PCIe,磁盘的接口达到了高带宽,而CPU的要求也很高。硬件RAID控制器已经解决了这些要求,并且基于设置提供了高冗余度,而不会占用我的PCIe,CPU或任何其他资源。 因此,我希望的设置是拥有本地RAID控制器,无论我需要什么RAID级别,它都可以在控制器级别(RAID 5,RAID 6)处理磁盘冗余。除了我想使用ceph在哪些RAID LUN上进行更高级别的复制外:主机,机箱,机架,行,数据中心或CRUSH中可能或可计划的任何东西 该设置有任何经验吗? 是推荐的设置吗? 关于此硬件RAID集成的任何深入文档吗?

2
CEPH的原始空间使用量
我无法理解ceph原始空间的使用情况。 我在7台服务器上有14个HDD(14个OSD),每个HDD 3TB〜总共42TB原始空间。 ceph -s osdmap e4055: 14 osds: 14 up, 14 in pgmap v8073416: 1920 pgs, 6 pools, 16777 GB data, 4196 kobjects 33702 GB used, 5371 GB / 39074 GB avail 我创建了4个块设备,每个块设备5 TB: df -h /dev/rbd1 5.0T 2.7T 2.4T 54% /mnt/part1 /dev/rbd2 5.0T 2.7T 2.4T 53% /mnt/part2 /dev/rbd3 …
8 centos  xfs  ceph 
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.