设备已挂载或资源繁忙


9

问题 :::

我在硬盘出现故障的服务器上安装了Redhat 5.10 x64。我删除了旧的故障硬盘并安装了500GB容量的新硬盘,安装后,我需要将一些数据从旧硬盘复制到/ u001下的新硬盘。所以我将旧硬盘(320 GB)连接到服务器。它显示在, fdisk -l但是当我尝试使用

sudo mount / dev / sdb2或/ dev / sdb5它说

注意:旧硬盘上还安装了旧操作系统,如fdisk -l
/ dev / sda =新硬盘
/ dev / sdb =旧硬盘

设备已挂载或资源繁忙

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          25      200781   83  Linux
/dev/sda2              26       10346    82903432+  8e  Linux LVM
/dev/sda3           10347       11390     8385930   82  Linux swap / Solaris
/dev/sda4           11391       60801   396893857+   5  Extended
/dev/sda5           11391       60801   396893826   8e  Linux LVM

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   83  Linux
/dev/sdb2              14       10242    82164442+  8e  Linux LVM
/dev/sdb3           10243       11286     8385930   82  Linux swap / Solaris
/dev/sdb4           11287       38888   221713065    5  Extended
/dev/sdb5           11287       38888   221713033+  8e  Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy

挂载结果:::

/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

PVDISPLAY ::输出

    sudo pvdisplay
      --- Physical volume ---
      PV Name               /dev/sda5
      VG Name               VolGroup00_u001
      PV Size               378.51 GB / not usable 7.63 MB
      Allocatable           yes (but full)
      PE Size (KByte)       32768
      Total PE              12112
      Free PE               0
      Allocated PE          12112
      PV UUID               E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob

      --- Physical volume ---
      PV Name               /dev/sda2
      VG Name               VolGroup00_root
      PV Size               79.06 GB / not usable 392.50 KB
      Allocatable           yes
      PE Size (KByte)       32768
      Total PE              2530
      Free PE               1
      Allocated PE          2529
      PV UUID               YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk

LVMDISkSCAN :: Output

sudo lvmdiskscan
  /dev/ramdisk                                                        [       16.00 MB]
  /dev/root                                                           [       79.03 GB]
  /dev/ram                                                            [       16.00 MB]
  /dev/sda1                                                           [      196.08 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45   [      297.90 GB]
  /dev/ram2                                                           [       16.00 MB]
  /dev/sda2                                                           [       79.06 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [      101.94 MB]
  /dev/ram3                                                           [       16.00 MB]
  /dev/sda3                                                           [        8.00 GB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [       78.36 GB] LVM physical volume
  /dev/ram4                                                           [       16.00 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [        8.00 GB]
  /dev/ram5                                                           [       16.00 MB]
  /dev/sda5                                                           [      378.51 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [      211.44 GB] LVM physical volume
  /dev/ram6                                                           [       16.00 MB]
  /dev/VolGroup00_ora/LogVol00                                        [      211.44 GB]
  /dev/ram7                                                           [       16.00 MB]
  /dev/VolGroup00_u001/LogVol00                                       [      378.50 GB]
  /dev/ram8                                                           [       16.00 MB]
  /dev/ram9                                                           [       16.00 MB]
  /dev/ram10                                                          [       16.00 MB]
  /dev/ram11                                                          [       16.00 MB]
  /dev/ram12                                                          [       16.00 MB]
  /dev/ram13                                                          [       16.00 MB]
  /dev/ram14                                                          [       16.00 MB]
  /dev/ram15                                                          [       16.00 MB]
  /dev/sdb1                                                           [      101.94 MB]
  /dev/sdb2                                                           [       78.36 GB]
  /dev/sdb3                                                           [        8.00 GB]
  /dev/sdb5                                                           [      211.44 GB]
  3 disks
  25 partitions
  0 LVM physical volume whole disks
  4 LVM physical volumes

输出是mount什么?
csny15年

您可以显示findmnt或的输出mount吗?
Spack 2015年

此外,的输出lsof +D /media/test/将很有帮助
csny15年

1
问题在于,旧磁盘在分区上没有普通文件系统,但是在te设备和文件系统之间具有LVM层,如分区类型所示。确保新系统已安装LVM工具,并在连接了旧磁盘的情况下重新引导,并检查lvdisplay是否检测到了LVM设备。您应该可以访问而不是/dev/sdbX
wurtel

2
对所有帮助者来说,抱歉,这纯粹是我的错误,我完全忘记了这是lvm分区。并且需要使用mount / dev / mapper / VG_u001 / media / test @wurtel进行挂载,您能否告诉您可以使用哪些工具从LVM还原文件。
OmiPenguin 2015年

Answers:


2

即使在5.x中,RHEL默认情况下也使用LVM。在挂载LVM卷之前,您必须首先采取一些步骤。

如果您在新磁盘上使用与旧磁盘相同的VG名称,则可能会出现问题:您有两个名称相同的VG。为了唯一地标识您要操作的VG(即上的一个/dev/sdb),您将需要VG UUID。跑:

# pvs -o +vg_uuid

列出所有检测到的LVM PV,包括其VG UUID。您还将看到每个分区的VG名称,因此您可以查看是否存在名称冲突。

LVM总的来说足够聪明,不会弄乱您的活动VG配置,除非您真的不去混淆它。因此,如果上述pvs命令在上不显示任何内容/dev/sdb,请运行vgscan,然后重试。

一旦知道了VG UUID,就可以使用vgrename命令重命名任何冲突的VG。如果没有名称冲突,则可以跳至vgchange

(为了将LV安装在VG内,您需要激活VG,并且如果VG的名称与现有的VG冲突,则VG不会激活。)

重命名VG的命令如下所示:

vgrename Zvlifi-Ep3t-e0Ng-U42h-o0ye-KHu1-nl7Ns4 new_name_for_vg

其中Zvlifi-...字母汤是VG UUID,另一个参数只是该VG的新名称。

解决VG名称冲突后(或首先没有冲突),您需要在上激活VG /dev/sdb。您只需使用以下命令即可激活LVM看到的所有未激活的VG:

vgchange -ay

激活VG时,其内部任何LV的设备名称(链接)将显示为/dev/mapper/<VG name>-<LV name>。(以及/dev/<VG name>/<LV name>出于传统兼容性的原因。)

此时,您可以照常安装它们。


这对我有用!我遇到了已经挂载或繁忙的错误,所以我这样做了vgchange -ay,然后就可以运行:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
josephdpurcell

1

如果例如

mount /dev/sda1 /mnt/tmp

版画

mount: /dev/sda1 is already mounted or /mnt/tmp busy

检查是否有使用该设备(/ dev / sda1)的进程。

它通常是一个fsck进程,在系统启动时会自动运行。您可以快速检查,例如

ps aux | grep sda1

那正是我问题的根源,谢谢!(仍然希望在完成fsck检查后可以正确装入磁盘)
Franck

0

我已经遇到过这样的情况。体验和解决方案在我的博客中进行了介绍

摘录在这里:

错误:挂载:/ dev / mapper / STORBCK备份已经挂载或/ STORBCK忙吗?

诊断:当我们尝试挂载/ STORBCK FS时,出现上述错误。

解决方法:1.由于其他FS变为只读,因此我已经停止/启动了iscsi服务。它成功登录到设备。/etc/init.d/iscsi停止/etc/init.d/iscsi开始 https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.