Questions tagged «lvm»

用于Linux内核的Logical Volume Manager管理磁盘驱动器和类似的大容量存储设备,尤其是大型设备。“卷”是指磁盘驱动器或其分区。

2
LVM扩展…不确定文件系统
我想扩展我的LVM分区。首先我做了 lvextend -L +100G /dev/server/home 现在,我仍然必须扩展文件系统。教程告诉我使用resize2fs,但是仅适用于ext2和ext3。我什至不知道我拥有什么文件系统... fdisk /dev/server/home/ 不起作用...我怎么知道我的lvm分区上具有哪种文件系统?

1
如何将系统移动到一个新的,更小的驱动器?
我有一个320G硬盘(有很多可用空间),但计划将我的系统移动到更小的275G SSD。 如何在不丢失数据的情况下做到这一点? fdisk -l输出 Disk /dev/sda: 298.1 GiB, 320072933376 bytes, 625142448 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: gpt Disk identifier: 3ADBB6B9-D132-427F-B2C5-9D3666CDB354 Device Start End Sectors Size Type …

1
LVM2上的范围大小
在LVM1中,有65k的限制。因此,必须在分区上的浪费空间(在很大程度上)和逻辑卷的最大可能大小(太小的范围)之间仔细选择范围的大小。在lvm2(根据 http://docstore.mik.ua/manuals/hp-ux/en/5992-4589/apa.html )限制是约1600万个范围。所以4mb的默认大小给出了大约60TB的LV尺寸。 那么桌面上的范围大于4-16mb是否有任何意义?是否有任何性能下降或具有大量范围的其他成本?

4
在ubuntu中安装LVM时遇到问题
几个月前,我已经设置了一个带有三个硬盘的服务器。映射磁盘的分区如下: Disk /dev/sda: 1000.2 GB, 1000204886016 bytes 255 heads, 63 sectors/track, 121601 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Disk identifier: 0x7ca36fee Device Boot Start End Blocks Id System /dev/sda1 * 1 12158 97659103+ 83 Linux /dev/sda2 12159 13131 7815622+ 82 Linux swap / Solaris /dev/sda3 …
linux  mount  lvm  ubuntu 

0
为什么随机写入LVM比没有更快?
我正在测量带有fio的EMMC设备的随机写入速度。 我正在使用多个io尺寸测试多个块大小。 对原始emmc设备上的所有测试用例进行多次迭代后,我使用整个emmc设备创建一个逻辑卷,并在该卷上运行相同的测试。(例如/ dev / new_vol_group / new_logical_volume) 我期待LVM略有性能开销,但最奇怪的事情发生了。 对于小的io大小,原始和LVM之间的随机写入速度非常相似。当IO大小增加时(特别是当大小为ram的两倍时),原始设备的随机写入速度会大大降低,但LVM的情况并非如此。当文件大小增加时,LVM的随机写入速度没有降低。 因此LVM比原始设备快得多,特别是对于大型文件大小的随机写访问。这仅适用于随机写入。我没有看到顺序读写或随机读取测试的这种行为。 这是我的fio文件 ioengine=libaio direct=1 buffered=0 iodepth=1 numjobs=1 ramp_time=5 startdelay=5 runtime=90 time_based refill_buffers randrepeat=1 我能想到的唯一原因就是缓存,但是当io大小是主机上ram数量的两倍时,缓存不会对这些测试造成太大影响。 注意:我使用fio-3.1进行基准测试,使用Ubuntu 18.04 LTS作为主机。 我在多个设备上检测到此行为。 编辑:添加表示速度差异的图表。 LVM随机写入速度反映了原始映射器设备 原始设备随机写入速度

1
如何创建多路径设备
运行Red Hat Enterprise Linux Server 6.6版。 创建新LUN,重新扫描总线,在创建的4个新设备之一上创建PV,然后创建相同的VG-LV。LUN是多路径的,但我忘了修改LUN的blacklist_exceptions和multipaths部分的multipah.conf。所以我最终得到了: PV Name /dev/sdbq /dev/disk/by-id lrwxrwxrwx 1 root root 10 Oct 13 17:56 scsi-360002ac00000000055000b01000071a6 -> ../../sdbq lrwxrwxrwx 1 root root 10 Oct 13 17:56 wwn-0x60002ac00000000055000b01000071a6 -> ../../sdbq /dev/disk/by-path lrwxrwxrwx 1 root root 10 Oct 13 17:52 pci-0000:04:00.1-fc-0x20210002ac0071a6-lun-16 -> ../../sdbn lrwxrwxrwx 1 root root 10 …
linux  lvm 

1
逻辑卷分区
我正在尝试将Logical Volumes合并到我正在创建的VM的分区方案中,在Red Hat Enterprise Linux 6.1中。我从ISO映像启动,我有一个运行安装的Kickstart脚本。该脚本引用了硬盘驱动器配置文件,其中包含以下内容: # Partitioning scheme for 60 GB HD # Partition clearing information clearpart --all --initlabel # Clear the Master Boot Record zerombr # Disk partitioning information part /boot --fstype="ext4" --size=256 part swap --fstype="swap" --size=16384 part /PV --fstype="ext4" – size=1 --grow --encrypted --passphrase=password volgroup sysvg PV …

1
pvs输出后删除磁盘
删除物理磁盘后,psv命令显示以下输出。该磁盘具有xfs文件系统,并被记录到lvm分区。在删除磁盘之前,我确实卸载了文件系统,并在命令下运行。 回声1> / sys / block / sd#/ device / delete 如何删除磁盘,看不到下面的警告?以及如何在不重新启动的情况下摆脱警告 pvs output: /dev/vg_u02/lv_u02: read failed after 0 of 4096 at 0: Input/output error /dev/vg_u02/lv_u02: read failed after 0 of 4096 at 53682831360: Input/output error /dev/vg_u02/lv_u02: read failed after 0 of 4096 at 53682888704: Input/output error /dev/vg_u02/lv_u02: read failed …


1
LVM与RAID Home NAS选件
从我阅读的内容来看,似乎逻辑卷管理可能是我目前计划所涉及的更好的解决方案。 我当前的设置包括3个1-TB驱动器,它们都充当我的家庭NAS的一部分。除文件最终散布在整个NAS之外,这很正常。 我可以想到的两个解决方案是: 使用RAID JBOD 使用LVM。 我没有任何理由更倾向于LVM。就目前而言,我有足够的备用存储空间,可以将所有内容从驱动器中移出,创建卷并替换数据。这将是单调的并且非常耗时。 LVM是否提供某种形式的支持,使我可以从3个物理卷中创建一个联合逻辑卷并同时自动传输数据? 我其他感兴趣的领域是: 将物理驱动器从一个位置移动到另一位置 能够随意添加驱动器。 基于此,我在选项中的最佳选择是什么?
linux  raid  lvm 


0
用于多个HDD的最安全,最灵活的存储
我正在基于HP Proliant N54L Microserver构建NAS /文件服务器。它将用作所有媒体(电影,连续剧,音乐等)的中央存储库,可能是专用的种子种子盒以及任何其他服务器级的东西,我可以自己做。 该服务器具有4个SATA托架,带有两个额外的SATA端口,一个用于启动磁盘(包括250GB),另一个用于eSATA。它内置了硬件RAID0和1,AMD Turion 2.5GHz和2GB RAM。花了我相当于160美元的价钱,我真是太强了。 有了它,我购买了2块Seagate 3TB ST3000DM001磁盘,然后又有一个(已满的)2TB外部磁盘,我希望最终将其移入服务器。 我的存储要求是: 网络上可访问一大卷。 最大化存储:使用专用于存储的磁盘上的所有/大部分存储。因此总计为8TB(3 + 3 + 2)。 灵活:4TB磁盘将变得更便宜,我想在不久的将来添加其中一个或多个。我也想将较小的磁盘换成较大的磁盘。 有点安全:如果一个磁盘发生故障,我希望仍然可以相对轻松地从其他磁盘恢复数据。 我要求太多吗?LVM卷可以以某种方式从损坏的驱动器中恢复吗?将要存储在服务器上的数据不是很关键,我可以将其取回,并且无论如何都将备份关键数据。我不在乎故障驱动器上的数据,而仅关心其他(工作)驱动器上的数据。 提前谢谢了!

1
Debian:如何从USB上LVM上的btrfs根引导?
使用debootstrap我已经在具有以下分区布局的外部USB驱动器上安装了Debian wheezy系统: /dev/sda: GRUB in MBR L sda1: ext2, /boot L sda2: LVM PV L VolGroup vg0 L lv0: btrfs, / L lv1: ext4, /tmp L lv2: swap 当我尝试启动此安装程序时,我被转储到initramfs-Shell中,说找不到根fs。一个简单的方法可以vgchange -ay; exit使系统正常运行,但是显然我不想每次引导时都这样做。 查看initramfs输出,我看到LVM挂钩找不到'vg0'VolGroup。出现此消息后,我将看到用于识别外部驱动器的内核消息。 因此,我怀疑问题在于USB驱动器被识别得太晚,以至于LVM无法检测到并激活VolGroup。 如何使LVM挂钩等待USB驱动器被识别? 提前致谢!

2
BTRFS或LVM异构RAID
我正在为我的家人创建一个大型的(3.5TB +)备份服务器。 我已经拥有足够的硬件,并且现在不想再购买任何硬件。我设想的配置如下所示: 两个1TB驱动器 两个750GB驱动器 RAID 5? 分布式奇偶校验 可以容忍一个硬盘故障 BTRFS或LVM +精简配置 优先选择BTRFS 将来可以添加更多驱动器 这可能吗?我知道BTRFS可以将多个驱动器融合在一起成为一个文件系统,而无需奇偶校验,但是我想至少维持一个驱动器故障(我对移动部件一无所知)。 最坏的情况是,我只能在1TB驱动器上创建750GB分区,但是使其完全相同并非易事,而且很浪费。
-1 raid  lvm  btrfs 
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.