Questions tagged «lvm»

用于Linux内核的Logical Volume Manager管理磁盘驱动器和类似的大容量存储设备,尤其是大型设备。“卷”是指磁盘驱动器或其分区。

2
Gparted无法调整扩展或LVM分区的大小
我使用VirtualBox创建了一个VM,并意识到它太小了。过了一段时间,我设法创造了一个新的,更大的硬盘。 Live GParted CD映像(v.022): 现在我需要将未分配的空间集成到/dev/sda5分区。 右键单击sda5会显示调整大小的选项,但我之前或之后都没有获得任何可用空间。 我虽然也许我需要先扩展sda2分区,但右键单击sda2不允许我调整大小。 你有什么有用的建议吗?

7
如何挂载LVM卷?
我正在尝试在Linux中挂载LVM2卷,但是我在网上看到的所有说明都说要挂载卷组,例如: mkdir -p /mnt/VolGroup00/LogVol00 但我不知道该如何命名。我在Palimpsest中看到了驱动器,这就是我所知道的所有信息。

4
根文件系统中没有更多空间,如何增加大小?
这是我的文件系统: $ df -h -x tmpfs -x devtmpfs Filesystem Size Used Avail Use% Mounted on /dev/mapper/fedora-root 9.8G 7.6G 1.7G 83% / /dev/mapper/fedora-home 50G 27G 21G 57% /home /dev/sda9 1022M 8.4M 1014M 1% /boot/efi 如您所见,根文件系统已满。 我已经尝试删除所有无用的内容,但仍然没有足够的空间。 我该如何增加呢?我的硬盘中还剩60 GB,是否可以将根文件系统移到那里?

3
如何通过全盘加密(在LUKS之上使用LVM)使Ubuntu上的RAM挂起安全?
我正在使用全盘加密(在LUKS之上为LVM)的Ubuntu 13.04。 我想将其合并luksSuspend到暂挂过程中(并在以后使用luksResume),这样我就可以暂挂到RAM而无需在内存中保留密钥材料并且无需锁定根。 到目前为止,我一直在尝试为Arch Linux移植一个脚本,至今为止没有成功:坦白地说,我不知道自己在做什么……我花了7个小时... 谁能帮我移植(或从头开始创建类似的东西)?或者,至少,有人能指出我有关如何将内容挂接到挂起过程以及如何确保必要的二进制文件和脚本(例如cryptsetup)可用的文档,即使已阻止所有IO根(通过luksSuspend)。 关于如何保持必要的二进制文件和脚本可用于简历,该另一篇博客文章(也适用于Arch)将其复制到/boot;但是,我想在Vianney前面提到的脚本中使用更多的内容,因为这种方法在这方面似乎更优雅。


2
如何为Fedora(LVM)分区添加更多空间?
简而言之,我有一个虚拟机空间不足。我将VM的硬盘驱动器的大小增加了4倍,但OS分区仍然仅使用1倍的空间。我需要更改LVM分区以占用额外的4倍空间,但是我不知道如何扩展LVM分区。 (注意:要制作下面给出的屏幕截图,我必须从live-cd引导启动gnome-partition-manager(又名gparted)。非常遗憾的是gparted只能“检测LVM”并且不能执行任何LVM操作。) 这是“ gparted”显示的内容。请注意,“调整大小”选项不可用: 问题: 在如何通过GUI或命令行扩展LVM分区方面,我找不到正确的指导<1>!如何增加由默认Fedora安装创建的LVM分区? 如果您要提供命令行指导。请解释每行命令的作用。

2
RAID,LVM和LUKS的最佳顺序
我将使用Debian GNU / Linux 8安装文件服务器。 我想要使​​用mdadm的软件RAID-1以及使用LUKS的加密磁盘。我也喜欢拥有LVM的灵活性。 有不同的方法可以做到这一点。一种方法是:首先使用mdadm设置RAID-1。然后设置LVM PV以覆盖创建的/ dev / mdX。然后设置LV并使用LUKS对其加密。然后使用文件系统(例如ext4)格式化这些文件。结果是这样的布局: RAID --> LVM --> LUKS --> ext4 或者我可以按其他顺序进行: RAID --> LUKS --> LVM --> ext4 甚至: LVM --> RAID --> LUKS --> ext4 甚至可能完全不同的顺序。 不同方法的优缺点是什么?什么能提供最佳性能,安全性,可维护性等? 有这样做的“最佳方法”吗?
13 linux  debian  raid  lvm  luks 

3
将ext4格式化的磁盘转换为带有ext4的LVM的最快方法?
我目前正在cp -aR将数据(已满(99%完整)1TB ext4格式的磁盘)复制到新的带有ext4-on-it的LVM磁盘上。这是永远的。 有什么方法可以尝试将磁盘“转换”到位吗?我正在使用EC2,因此备份需要几分钟。 或者,是否有比cp直接将ext4文件系统复制到LVM磁盘更快的方法?
12 ext4  lvm 


4
如何使用每日快照制作冗余桌面系统?(btrfs可以使用了吗?)
我想配置一个桌面系统,其中的家庭文件系统将是冗余的(例如RAID-1),并且每周拍摄一次快照。我已经使用ZFS做到了这一点,快照系统很棒,并且使用send / recv可以轻松在外部媒体上创建备份。不幸的是,到那时,我想要的是GNU + Linux,而不是FreeBSD或Solaris,因此我正在寻找好的替代方案的建议。 我认为我的选择是: btrfs-似乎正是我所需要的,它具有快照和命令,可让您轻松进行复制zfs send。但是所有文档都提到它仍处于试验阶段。我似乎找不到任何有关其可靠性或可用性问题的实际报告。您能否指出我有关该问题的任何信息,以阐明是否将是一个可能的选择?我对此选项有很大的偏好,主要是因为我不想在btrfs准备就绪时重新格式化驱动器,但是我没有关于它是否完全可用,使用它是否愚蠢的想法等信息。我无法得到答案的是“实验”是什么意思。 lvm快照和ext4-最好不要这样,因为在创建新文件时,它会占用大量空间。创建200 GB的文件需要200 GB的可用空间,另外200 GB的空间用于快照。我还发现它不可靠-元数据重写失败会导致PV无法读取。我想知道btrfs在这里会如何比较。 RAID-1阵列上的单个文件系统(ext4),带有带有硬链接的自定义COW快照(如cp -al)。如果我不能使用btrfs,这就是我当前的偏好。 那么,btrfs的实验性如何?我应该选择哪个?还有其他选择吗?如果我不保留外部增量备份怎么办,会影响我的选择吗?
12 rsync  lvm  snapshot  zfs  btrfs 

1
ZFS或LVM或MD冗余异构存储建议
我遇到了大多数人遇到的相同问题:如何创建一个可靠的个人存储解决方案,其事实是: 硬盘发生故障并具有令人震惊的规律性。丢失文件是不可接受的。 我会不时购买新的硬盘。不可避免的是,最佳价格/ GB与上次购买的硬盘大小不同。 2表示随着时间的推移,我将拥有异构的磁盘集合。我想全部使用它们,出现故障的磁盘通常将替换为较大的磁盘。 对我而言,数据完整性和可靠性比速度更重要。 因此,在将这个问题猛烈抨击几天(并且在我的脑后多年)之后,我提出了以下解决方案。我将描述基于Ubuntu PPA中可用的本机Linux ZFS测试过的解决方案,但是可以使用LVM,MD和btrfs来实现相同的解决方案。为此,我将使用RAID1(ZFS镜像vdevs)。 给定您的驱动器组,将它们分为两组磁盘,以使每组磁盘的容量尽可能接近彼此。 对较大的磁盘进行分区,以使另一组中的分区与较小的磁盘之一完全相同。 创建镜像vdev,以使每个磁盘在另一个磁盘上都有其镜像。 例如,考虑一个新的2TB驱动器,一个较旧的750GB驱动器,2个较旧的400GB驱动器和一个较旧的500GB驱动器的磁盘集。最佳的镜像分区具有2TB的可用空间,并在下图中进行了描述,其中“:”分隔分区,“ |” 分离磁盘: +------------------------------------------------------------------+ | 2TB (sda1) : (sda2) : (sda3) : (sda4) | +------------------------------------------------------------------+--+ | 750 GB (sdb) | 400 GB (sdc) | 400 GB (sdd) | 500 GB (sde1) :XX| +---------------------------------------------------------------------+ 创建您的zpool为 zpool create archive mirror …

1
使用md-raid5和LVM查找受坏块影响的文件
在过去的几周中,我一直在就该主题进行大量研究-我认为我至少要尽可能地完成恢复。长话短说,我将仅描述问题而不填写每个微小的技术细节。 假设您有多个RAID-5阵列,每个阵列都有8个磁盘,然后将它们一起扩展到一个LVM逻辑卷中。然后,其中一个磁盘在其中一个阵列中死亡,并且在重建过程中,该阵列中的第二个磁盘上遇到不可恢复的读取错误。当然,没有备份。 我已经使用URE将驱动器中的数据ddrescue's到了新驱动器上,仅损坏了5K数据,所有数据都被分组到很小的磁盘区域中。我还假设,一旦我使用ddrescue'd副本重组了该MD设备,就将数据丢失的大小乘以阵列中非奇偶校验驱动器的数量(即35K的数据丢失)作为奇偶校验使用这些块进行的条纹计算将不正确。 我已经阅读并理解了http://smartmontools.sourceforge.net/badblockhowto.html上的过程,用于确定哪些文件会因这种情况而损坏,但是我的问题是确切地找出在md重建以用作debugfs的输入。找出md和lvm存储元数据的所有偏移量也不会很有趣,但是我认为我可以处理这一部分。 我是否可以将所有坏块编号乘以7,然后假设每个坏块之后的以下6个块也是坏块,然后按照上面链接的指南中的LVM指令进行操作? 需要明确的是-我不关心修复或重新映射指南中描述的坏块,我已经更换了磁盘,并将让md处理这种事情。我只想知道ext4文件系统上的哪些文件已受到影响。

5
从GRUB2引导LVM2逻辑卷中的ISO
tl; dr-是否可以从位于未加密lmv2逻辑卷中的.iso文件启动?怎么样? 我想先在VirtualBox VM中进行设置,然后再使用笔记本电脑进行真正的设置。我有以下设置: 4个gpt分区 gpt1-2M ef02 BIOS引导 gpt2-5G未加密的非lvm,用于杂项数据,iso等等。 gpt3-5G未加密的lvm,用于/ boot,iso等等。 gpt4-剩余的lvm,用dm-crypt / luks加密,用于root,swap,home等。 在gpt2中,我有当前Arch和Xubuntu iso的副本 在gpt3中,我有一个lvm2 lv,具有相同iso的相同副本 我有以下工作: 在gpt4中,可以正常运行Arch和Xubuntu的安装(并希望在某些时候在其他逻辑卷中添加其他发行版) 从/ dev / sda上的Arch安装grub2 使用grub2的configfile命令,可以从发行版的grub2菜单的 可以从非lvm gpt2的grub菜单启动iso 我想做的是从gpt3 lvm中的iso引导(最终甚至根本没有非lvm gpt2分区)。 我的grub条目是: menuentry "Xubuntu ISO" { set isofile="/xubuntu-12.04.1-desktop-amd64.iso" # from non-lvm loopback loop (hd0,gpt2)$isofile # from lvm #loopback loop (vgboot-iso)$isofile linux …

5
如何在LVM中分配有限的SSD空间以获得最佳性能
我刚刚获得了一个新的SSD,我正在寻找有关如何最好地将其整合到现有LVM设置中的建议。我有以下逻辑卷(挂载在明显的位置): # lvs LV VG Attr LSize Origin Snap% Move Log Copy% Convert home maingroup -wi-ao 75.00g opt maingroup -wi-ao 4.00g swap1 maingroup -wi-ao 1.00g swap2 maingroup -wi-ao 1.00g tmp maingroup -wi-ao 5.00g usr maingroup -wi-ao 25.00g var maingroup -wi-ao 15.00g 与新SSD关联的物理卷中有108.26g。我将用来pvmove将其中一些LV迁移到SSD。问题是,哪些LV要移动? 有问题的机器基本上是家用工作站。我进行了一些轻量级开发(源代码包含在中home),运行一些非常低负载的服务器进程(apache等),并不时进行一些图像和视频编辑。如果可以,我可以在x86上运行Gentoo。

1
将LVM迁移到ZFS
我目前正在考虑从我的LVM设置转向使用RAIDZ的ZFS设置。 我目前的设置包括LVM中的5 x 4TB磁盘和系统的60 GB SSD。 目前,LVM上大约使用了6TB。 有没有办法在没有完全备份6TB的情况下将LVM迁移到带有4 + 1驱动器的RAIDZ设置? 亲切的问候 LukasHäfliger 编辑:我做了一些研究,我遇到的主要问题是,在创建RAIDZ时,您需要拥有所有磁盘。我看到的唯一可能是创建一个带有3个HDD的RAIDZ,然后将所有数据从LVM移动到此raid中,然后使用2个单独的vdev扩展ZFS池。最大的缺点是最后两个硬盘驱动器没有被raid系统“保护”。
7 linux  migration  lvm  zfs 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.