Questions tagged «lvm»

在计算机存储中,逻辑卷管理或LVM提供了一种在大容量存储设备上分配空间的方法,该方法比传统的分区方案更灵活。


3
是否可以使用LVM在线压缩EXT4卷?
今天,我在使用OpenSUSE 12.3(内核3.7)的计算机上尝试了此操作: # resize2fs /dev/mapper/system-srv 2G resize2fs 1.42.6 (21-Sep-2012) Filesystem at /dev/mapper/system-srv is mounted on /srv; on-line resizing required resize2fs: On-line shrinking not supported /dev/mapper/system-srv 是EXT4卷。 真的不受支持吗?或者我缺少什么?
47 linux  lvm  hard-drive  ext4 



4
LVM快照与文件系统快照
据我所知,LVM可以为卷拍摄快照。还有许多支持快照的文件系统(ZFS,Btrfs,reiserfs等)。 但是,我从未了解LVM快照和文件系统快照之间的区别。如果可以使用LVM拍摄快照,为什么有人花时间在文件系统中实现快照? 编辑:在某些情况下,其中任何一个都是首选的吗?为什么?
32 lvm  zfs  snapshot  btrfs 

3
卸下物理驱动器后,卸下vg和lv
我们在服务器中发生磁盘故障,并在从LVM中删除驱动器之前将其更换。 该服务器有4个物理驱动器(PV),每个都有自己的卷组(VG)。每个VG具有2个或多个逻辑卷(LV)。现在LVM抱怨缺少驱动器。因此,我们有一个带有两个LV的VG(vg04),这些LV变成了孤立的孤儿,超出了我们从系统中清除的需要。 问题是,每当我们运行任何LVM命令时,都会出现以下“读取失败”错误: # lvscan /dev/vg04/swap: read failed after 0 of 4096 at 4294901760: Input/output error /dev/vg04/swap: read failed after 0 of 4096 at 4294959104: Input/output error /dev/vg04/swap: read failed after 0 of 4096 at 0: Input/output error /dev/vg04/swap: read failed after 0 of 4096 at 4096: Input/output error /dev/vg04/vz: …
32 linux  lvm 

1
在Linux上使用软件RAID和LVM时,采用哪种IO调度程序和预读设置?
如果是多层(物理驱动器-> md-> dm-> lvm),调度程序,预读设置和其他磁盘设置如何交互? 假设您有几个磁盘(/ dev / sda-​​/ dev / sdd),这些磁盘是用mdadm创建的软件RAID设备(/ dev / md0)的所有部分。每个设备(包括物理磁盘和/ dev / md0)都有其自己的IO调度程序设置(更改如下)和预读(使用blockdev更改)。当您放入dm(加密)和LVM之类的东西时,您可以使用自己的设置添加更多层。 例如,如果物理设备的预读为128个块,而RAID的预读为64个块,那么当我从/ dev / md0进行读取时是否可以接受?md驱动程序是否尝试读取64块,然后物理设备驱动程序将其转换为读取128块?还是RAID预读“传递”到底层设备,从而导致读取64块? 调度程序也有同样的问题吗?我是否需要担心IO调度程序的多层以及它们如何相互作用,或者/ dev / md0是否有效地覆盖了基础调度程序? 在回答这个问题的尝试中,我挖掘了一些有关调度程序和工具的有趣数据,这些数据可能有助于弄清楚这一点: Google的Linux Disk Scheduler基准测试 blktrace-在块设备上生成I / O流量的跟踪 相关的Linux内核邮件列表线程
28 linux  raid  lvm 

2
LV状态:不可用。如何使其可用?
我连接一个iSCSI目标,在其上创建一个物理卷和卷组。 然后创建一个LV,然后 mkfs.ext3 /dev/vg00/vm 一切都很好。 然后我断开目标 iscsiadm -m node -T iqn.2004-04.com.qnap:ts-509:iscsi.linux01.ba4731 -p 192.168.0.4 -u 登录到另一台Linux服务器,并在那里连接目标 iscsiadm -m node -T iqn.2004-04.com.qnap:ts-509:iscsi.linux01.ba4731 -p 192.168.0.4 -l 我得到: linux01:~ # lvdisplay --- Logical volume --- LV Name /dev/vg00/vm VG Name vg00 LV UUID NBNRGV-FkSR-ZNZ9-9AVk-chLQ-j5nc-RazeBw LV Write Access read/write LV Status NOT available LV Size …
27 linux  iscsi  lvm 

3
LVM,设备映射器,软件突袭和阻止设备的预读设置-什么是胜利?
我一直试图在这个问题上找到一个直截了当的答案,但事实证明它是难以捉摸的。这个问题和它的答案是接近,但并没有真正给我,我想细节。让我们从我认为我所知道的开始。 如果您具有标准块设备并运行,sudo blockdev --report您将获得以下内容: RO RA SSZ BSZ StartSec Size Device rw 256 512 4096 0 500107862016 /dev/sda rw 256 512 4096 2048 399999238144 /dev/sda1 rw 256 512 1024 781252606 1024 /dev/sda2 现在,您决定--setra在任何分区上使用256更改为默认值128 ,它会在整个块设备上发生,如下所示: sudo blockdev --setra 128 /dev/sda1 sudo blockdev --report RO RA SSZ BSZ StartSec Size Device rw …

7
如何在没有LiveCD或不重新启动的情况下在Fedora中调整根LVM分区的大小
我有一台虚拟机,其磁盘映像最近从20GB增加到了50GB,并fdisk -l验证了VM是否可以看到这个新大小。现在,我需要调整根LVM分区的大小,以填充额外的30GB。 我发现了 几篇 有关调整LVM大小的文章,但是涉及覆盖调整根分区大小的几篇文章都声称您需要从LiveCD引导。有什么方法可以在不关闭服务器的情况下执行此操作?服务器很关键,因此我想最大程度地减少停机时间。 编辑:输出fdisk -l: [root@fedora-host ~]# sudo fdisk -l Disk /dev/sda: 53.7 GB, 53687091200 bytes 255 heads, 63 sectors/track, 6527 cylinders, total 104857600 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes …
24 fedora  lvm 

4
KVM / qemu-直接使用LVM卷而不使用映像文件?
我不太确定该如何表达这个问题(因此标题很差),所以让我提供一个示例来说明我要做什么。 在我的(旧)Xen主机上,我能够将LVM文件系统直接呈现给每个来宾。这些文件系统实际上是在主机上创建和格式化的,并直接通过。例如,对于使用单独的tmp和swap分区的主机之一,我定义存储如下: 磁盘= [ 'phy:/ dev / vg1 / guest1-swap,sda1,w', 'phy:/ dev / vg1 / guest1-disk,sda2,w', 'phy:/ dev / vg1 / guest1-tmp,sda3 ,w', ] 因此,guest1-swap格式化为交换分区,guest1-disk和guest1-tmp格式化为ext4,从guest的角度来看,它只是将它们视为/ dev / sda下的三个格式化分区。 (这听起来可能需要做很多工作,但是有一些配置脚本,例如很棒的xen-tools,几乎可以使所有内容自动化)。 这提供了一些非常有用的功能,其中两个我特别想了解KVM: 从主机OS挂载来宾文件系统。即使来宾正在运行,我也可以随时对任何来宾文件系统进行只读装载。这样做的附带好处是,允许我在来宾运行时创建任何现有卷的LVM快照。这样,我可以在运行时从主机集中备份所有来宾。 在线批量调整大小。由于卷包含标准的Linux文件系统,因此我可以结合使用lvextend和resize2fs来增长我的客户机文件系统,使其再次处于联机状态。 我目前正在设置KVM主机,它将替换Xen主机。与Xen设置类似,我利用LVM提供直接的文件系统访问,但是KVM / qemu的行为有所不同,因为它始终为来宾创建映像文件,即使在LVM卷上也是如此。从guest虚拟机的角度来看,它将其视为未分区的磁盘,并且由guest虚拟机负责应用分区标签,然后创建分区和文件系统。 从来宾的角度来看,这很好,但是从服务器/管理的角度来看,它似乎比我描述的Xen设置要灵活得多。我还是KVM的新手,所以(希望)我缺少一些东西。 尝试在KVM主机上重新实现以前的备份解决方案时遇到了这个问题,当我尝试挂载客户机的文件系统之一时,挂载命令出现问题。因此,解决这是我当前的关注,但是这也让我关注调整大小的问题,因为我确定这个问题也会在某个时候出现。 所以,这是我的问题: 如我为Xen设置所述,有什么方法可以让kvm / qemu直接使用LVM卷文件系统?如果可以,我使用libvirt进行管理。 如果没有,我该怎么做才能在KVM下获得类似的挂载/备份功能?我已经看到了有关使用带有FUSE的libguestfs进行此操作的讨论,但这真的是最好的选择吗?如果可能的话,我宁愿坚持使用本机文件系统挂载。 如果不是,是否可以在KVM下调整在线文件系统的大小?我已经找到了一些关于此的讨论/方法,但是答案似乎无处不在,没有明确的,绝对没有直接的解决方案。 抱歉,很长的帖子,只想确保它清楚。请让我知道是否可以提供其他有用的信息。期待讨论。:-)

6
如何轻松修复Linux磁盘上的单个不可读块?
我的Linux系统已开始在系统日志中引发SMART错误。我对其进行了追踪,并认为问题出在磁盘上的一个块上。我如何轻松地使磁盘重新分配该块?我想知道在此过程中销毁了什么文件。(我知道,如果磁盘上的一个块发生故障,其他磁盘块可能会接follow而至;我有一个良好的正在进行中的备份,只想尝试使该磁盘正常工作。) 在网上搜索会出现Bad block HOWTO,该页面描述了已卸载磁盘上的手动过程。似乎很复杂且容易出错。在Linux中是否有工具可以自动执行此过程?我唯一的选择是制造商的诊断工具,但我想这会破坏坏块,而没有任何关于被破坏的报告。最坏的情况是文件系统元数据。 有问题的磁盘是主系统分区。使用ext3fs和LVM。这是来自syslog的错误日志和来自smartctl的相关位。 smartd[5226]: Device: /dev/hda, 1 Currently unreadable (pending) sectors Error 1 occurred at disk power-on lifetime: 17449 hours (727 days + 1 hours) ... Error: UNC at LBA = 0x00d39eee = 13868782 在pastebin 上有一个完整的smartctl转储。

11
“ fdisk -l”,例如LVM逻辑卷的分区列表及其类型?
您知道“ fdisk -l”如何列出驱动器分区表并显示每个分区的分区ID /类型吗? 是否有类似的方法来获取LVM逻辑卷的分区ID? 编辑:我知道“ lvs”,这主要是我正在寻找(它给了我逻辑卷的列表,有点像“ fdisk -l” ...,除了知道什么也很有用逻辑卷的分区类型(我想将其称为“虚拟分区”)。该信息就是“ fdisk -l”在右侧最后两列中列出的内容(例如,物理磁盘的“ 8e” LVM分区,对于Linux ext等则为“ 83”)。 我要寻找的工具可能不是LVM的一部分;也许只是一些可以打印给定分区的分区ID /类型的其他实用程序?
22 linux  partition  lvm 

11
将LVM快照同步到备份服务器
我在许多Linux服务器上运行着许多Xen虚拟机。这些虚拟机使用/ dev / xenVG / SERVER001OS等行的设备名称将其磁盘映像存储在Linux LVM卷中。我想对这些磁盘映像进行定期备份,以便在需要时可以还原VM(LVM设备已经在两台物理机之间用DRBD进行了镜像,我只是在这里有些偏执)。 我该怎么办?显然,第一步是为LVM设备创建快照,然后如何以最有效的方式将数据传输到备份服务器?我可以简单地复制整个设备,类似于以下内容: dd if=/dev/xenVG/SERVER001OS | ssh administrator@backupserver "dd of=/mnt/largeDisk/SERVER001OS.img" ...但这会占用大量带宽。是否有一个类似于rsync的工具,用于在远程服务器之间同步整个磁盘块的内容?就像是: rsync /dev/xenVG/SERVER001OS backupServer:/mnt/largeDisk/SERVER001OS.img 如果我正确理解了rsync的手册页,上面的命令实际上将不起作用(会吗?),但它显示了我的目标。我知道--devices rsync选项是复制设备本身,而不是复制那些设备的内容。由于没有磁盘空间,因此无法在与远程服务器同步之前制作VM映像的本地副本。 是否有一个方便的实用程序,可以在块设备和远程服务器上的备份文件之间同步?如果需要,我可以写一个,但是现有的解决方案会更好。我是否错过了为我执行此操作的rsync选项?

7
大型LVM磁盘(8 TB)的哪个文件系统?
我有一台Linux服务器,其中有许多2 TB磁盘,所有这些磁盘当前都在LVM中,因此大约有10 TB的空间。我在ext4分区上使用了所有这些空间,目前大约有8.8 TB的数据。 问题是,我的磁盘上经常出现错误,即使我替换了(也就是说,我用dd将旧磁盘复制到新磁盘,然后将新磁盘放入服务器),一旦出现错误,我经常收到大约100 MB的损坏数据。这使e2fsck每次都变得疯狂,并且通常需要一周的时间才能使ext4文件系统再次恢复正常。 所以问题是:您会建议我在LVM上用作文件系统吗? 还是您会建议我做什么(我真的不需要LVM)? 我的文件系统的配置文件: 许多不同大小的文件夹(某些文件夹总计2 TB,某些文件夹总计100 MB) 几乎200,000个具有不同大小的文件(其中3/4约为10 MB,1/4介于100 MB和4 GB之间;由于ext4分区已完全破坏了几天,我目前无法获得有关文件的更多统计信息) 读很多但是写很少 并且我需要容错(我停止使用mdadm RAID,因为它不喜欢在整个磁盘上出现一个错误,并且有时我的磁盘有故障,我会尽快更换,但这意味着我可能会损坏数据我的文件系统) 主要问题是磁盘故障。我可能会丢失一些文件,但我无法承受同时丢失所有文件的损失。 如果我继续使用ext4,我听说我最好尝试制作更小的文件系统并以某种方式“合并”它们,但是我不知道如何。 我听说btrfs会很好,但是在不复制数据(mkfs.btrfs -d single?)时,如何找到丢失一部分磁盘(或整个磁盘)的方法,我找不到任何线索。 对此问题的任何建议都将受到欢迎,谢谢!

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.