Questions tagged «nfs»

网络文件系统(NFS)是最初由Sun Micro Systems在1984年开发的网络文件系统协议,它允许客户端计算机上的用户以类似于访问本地存储的方式通过网络访问文件。像许多其他协议一样,NFS建立在开放网络计算远程过程调用(ONC RPC)系统上。网络文件系统是RFC中定义的开放标准。

1
无法写入安装点(nfs服务器),得到“权限被拒绝”
我正在尝试NFS在两个RHEL7节点之间进行配置: 第一个节点: [root@ip-10-164-175-246 ~]# cat /etc/redhat-release Red Hat Enterprise Linux Server release 7.0 (Maipo) [root@ip-10-164-175-246 ~]# rpm -q nfs-utils nfs-utils-1.3.0-0.el7.x86_64 [root@ip-10-164-175-246 ~]# cat /etc/exports /var/www/html/ ip-10-184-161-46.ec2.internal(rw) [root@ip-10-164-175-246 ~]# 第二个节点: [root@ip-10-184-161-46 ~]# mount ip-10-164-175-246.ec2.internal:/var/www/html/ /mnt/ [root@ip-10-184-161-46 ~]# touch /mnt/$$ touch: cannot touch ‘/mnt/3326’: Permission denied [root@ip-10-184-161-46 ~]# 为什么我不能通过/mnt/NFS 写入任何内容?
21 nfs 

4
Systemd:在另一个单元真正启动后启动一个单元
在我的特殊情况下,我想remote-fs在glusterfs完全启动后再启动设备。 我的系统文件: glusterfs 目标: node04:/usr/lib/systemd/system # cat glusterfsd.service [Unit] Description=GlusterFS brick processes (stopping only) After=network.target glusterd.service [Service] Type=oneshot ExecStart=/bin/true RemainAfterExit=yes ExecStop=/bin/sh -c "/bin/killall --wait glusterfsd || /bin/true" ExecReload=/bin/sh -c "/bin/killall -HUP glusterfsd || /bin/true" [Install] WantedBy=multi-user.target remote-fs 目标: node04:/usr/lib/systemd/system # cat remote-fs.target [Unit] Description=Remote File Systems Documentation=man:systemd.special(7) Requires=glusterfsd.service After=glusterfsd.service remote-fs-pre.target …
20 nfs  glusterfs  systemd 

3
NFS写入性能较差
我有两台连接10Gbit以太网的机器。让其中一个作为NFS服务器,另一个作为NFs客户端。 通过TCP测试网络速度时,iperf双向显示吞吐量约为9.8 Gbit / s,因此网络正常。 测试NFS服务器的磁盘性能: dd if=/dev/zero of=/mnt/test/rnd2 count=1000000 结果是〜150 MBytes / s,因此磁盘可以正常写入。 服务器/etc/exports是: /mnt/test 192.168.1.0/24(rw,no_root_squash,insecure,sync,no_subtree_check) 客户端/mnt/test使用以下选项将此共享安装到本地: node02:~ # mount | grep nfs 192.168.1.101:/mnt/test on /mnt/test type nfs4 (rw,relatime,sync,vers=4.0,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=192.168.1.102,local_lock=none,addr=192.168.1.101) 如果我尝试从NFS共享下载客户端计算机上的大文件(〜5Gb),则性能约为130-140 MBytes / s,接近服务器的本地磁盘性能,因此令人满意。 但是,当我尝试将大文件上传到NFS共享时,上传开始于〜1.5 Mbytes / s,然后缓慢增加到18-20 MBs / s,然后停止增加。有时,共享实际上在开始上传之前“挂起”了几分钟,即主机之间的流量接近于零,如果执行ls /mnt/test,则在一两分钟之内它不会返回。然后ls命令返回并以1.5Mbit / s的初始速度开始上传。 当上传速度达到最高速度(18-20 MB / s)时,我运行iptraf-ng,它在网络接口上显示〜190 Mbit / …


2
未知的工具正在擦除我们的虚拟机,我们无法对其进行标识
vSphere上Windows 2008 R2 VM的控制台视图显示以下屏幕: “操作2之2”“擦拭磁盘” 有人可以建议这个程序是什么吗? 有关此谜的一些信息: 现在已实现了许多虚拟机。症状是重启后出现“找不到操作系统”消息。 VM在ESXi上运行。VM正在特定的数据存储上运行 Netapp NFS在工作盒中安装磁盘不会显示分区表,还无法进行十六进制转储。 VM不是硬重置的,必须是操作系统启动的软重置 没有安装iso,没有对VM的“非来宾”访问,因此需要是RDP或类似的名称 整夜使用netapp备份软件执行备份 所讨论的NFS在后端(阵列级别)进行了精简配置,并且在我们看到这些问题后就没有足够的空间。

4
为什么将nfs服务器安装为rw返回只读文件系统错误
我正在使用Ubuntu Server 64位。我已经将nfs挂载为rw,但是每当我尝试在有问题的挂载点上编辑任何内容时,我都会收到只读文件系统错误 我的etc/fstab读物: # <file system> <mount point> <type> <options> <dump> <pass> proc /proc proc nodev,noexec,nosuid 0 0 /dev/mapper/product-root / ext4 errors=remount-ro 0 1 UUID=1cae6948-ca9d-4f0b-aec6-9e7a60bbbad8 /boot ext2 defaults 0 2 /dev/mapper/product-swap_1 none swap sw 0 0 /dev/fd0 /media/floppy0 auto rw,user,noauto,exec,utf8 0 0 vnxnfs1.company.com:/NFS2 /mnt/nfs2 nfs defaults 0 0 mount …


2
NFS和SMB是否支持稀疏文件?
该问题以前是在堆栈溢出中提出的,但是那里的好人建议我改为在这里尝试社区。 我正在研究与各种文件系统有关的稀疏文件,并试图找到一些具体的内容来说明网络文件系统(NFS)或服务器消息块(SMB)支持稀疏文件。 我知道SMB在Windows中被广泛使用,并且根据此条目,即使基础文件系统不支持,SMB服务器也可以支持稀疏文件。但是,如果我是对的,不支持稀疏文件的文件系统只会用零填充“漏洞”,这可能会导致性能问题。 关于NFS,我还无法找到有关使用支持稀疏文件的NFS的任何信息。 因此,我的问题是 NFS和SMB支持稀疏文件吗?

3
获取过时的nfs文件句柄时,如何强制卸载?
使自己陷入困境。在/ mnt / 1上安装aufs aufs on /mnt/1 type aufs (rw,relatime,si=daab1cec23213eea) 我无法卸下该东西: sudo umount -f /mnt/1 umount2: Stale NFS file handle umount: /mnt/1: Stale NFS file handle umount2: Stale NFS file handle umount2: Stale NFS file handle 如何卸载挂载点?(无需重新启动系统) (注意:aufs在openafs系统而不是NFS之上。)
17 linux  nfs  mount 

4
exportfs:警告:/ home / user / share不支持NFS导出
当我尝试导出/ home / user / share(ext4)时,“ exportfs -r”返回此错误: exportfs:警告:/ home / user / share不支持NFS导出。 / etc / exports: / home /用户/共享192.168.1.3(rw,no_subtree_check) 系统是带有nfs-kernel-server软件包的Ubuntu 10.04。任何想法为什么会这样?是因为ext4吗?
16 nfs  export  ext4 

4
重新启动后出现“陈旧的NFS文件句柄”
在服务器节点上,可以访问导出的文件夹。但是,重新启动后(服务器和客户端),都无法从客户端访问该文件夹。 在服务器上 # ls /data Folder1 Forlder2 并且/ etc / exports文件包含 /data 192.168.1.0/24(rw,no_subtree_check,async,no_root_squash) 在客户端上 # ls /data ls: cannot access /data: Stale NFS file handle 我不得不说,客户端的共享文件夹没有问题,但是在重新启动(服务器和客户端)后,我看到了此消息。 有什么办法解决吗?

3
具有加密的ubuntu主目录的NFS
我在使用Vagrant进行NFS安装时遇到了麻烦: 在我的本地计算机上,我已经安装了NFS: apt-get install nfs-common nfs-kernel-server 在我的Vagrantfile中将其设置为要使用: config.vm.share_folder("v-root", "/vagrant", ".", :nfs => true) 在vagrant up我得到: exportfs: /home/<user>/path/to/dir does not support NFS export Mounting NFS shared folders failed. This is most often caused by the NFS client software not being installed on the guest machine. Please verify that the NFS client …

5
为100台VM Web服务器选择SAN技术
问题 我们在现有平台上的性能存在问题,因此,我正在蜂巢式地寻求对此的第二种意见。到目前为止,性能问题与IOPS有关,而不与吞吐量有关。 场景 16个主机的刀片中心,每个主机具有64GB的RAM。(这是一台带M610的Dell M1000e,但这可能不相关)500个VM,所有Web服务器(或相关的Web技术,例如MySQL,负载均衡器等),其中约90%是Linux,其余的是Windows。系统管理程序是VMWare vSphere。我们需要提供主机HA,因此本地存储空间不足。这样,主机只需启动一张SD卡即可。 有点背景思维 目前,我们最多可容纳6台主机(以当前的增长,刀片服务器中心将在几年内达到满负荷状态),并且我们正在iSCSI上运行Dell MD3220i w / MD1220进行扩展。 我们已经考虑了可能的选择,以及随之而来的即时想法: 在NFS数据存储中分布VM,并运行满足多达给定数量VM的性能要求的NFS存储。NFS似乎更便宜,而且比块级存储要抽象得多,因此我们可以根据需要进行移动。 添加更多的MD3220i控制器/目标。尽管我们担心这样做会在某种程度上对VMWare处理具有许多目标的方式产生负面影响。 将所有磁盘从Nearline SAS交换到SSD。这应该可以完全解决IOPS问题,但是会明显降低我们的存储容量。而且它仍然非常昂贵。 vSphere 5具有存储设备。我们没有做太多研究,但是它必须运作良好吗? 问题 您将在所有这些存储下运行哪种存储?它不需要扩展到另一个刀片服务器中心,只需要为所有这些VM提供相对良好的性能即可。 我不是在寻找“购买SAN x,因为它是最好的”答案。我正在寻找关于各种SAN技术(iSCSI,FC,FCoE,InfiniBand,NFS等),不同类型的存储(SATA,SAS,SSD)以及用于处理100个VM的存储方法(整合,分离)的想法。 ,分片等)。 对此绝对欢迎任何想法,链接,指南,指针等。我也很想听听我们已经考虑过的上述选择的想法。 非常感谢您的任何投入! 12年3月5日更新 到目前为止,一些精彩的回复,非常感谢大家! 到目前为止,按照对这个问题的回答,我开始认为以下方法是可行的: 将可用存储分层到VMWare群集,并将VM磁盘放置在适合其工作负载的存储上。 潜在地利用能够自动管理将数据放置到合适的存储上的SAN的SAN。 Infiniband似乎是最具成本效益的,可在主机满载时获得所需带宽。 绝对听起来像是要利用主要SAN供应商的售前服务来解决这个问题。 我将继续考虑这个问题一段时间。同时,我们再感激收到任何更多的建议!

2
如何设置缓存网络共享的NFS服务器?
用户数据存储在两个相当大的(> 1 PB)OpenStack Swift存储集群中。让他们成为集A和集B。 此外,还有一些PoP需要与该数据进行交互。这些PoP中的服务器实际上是无盘的,这意味着没有用户数据存储在它们上或从未下载到它们。PoP点可分为一般世界地区(如北美,南非,中欧等)。 一些PoP距离任何集群的Swift端点都相距很远,从而导致了不希望的延迟。为了减轻这种情况,我想在每个区域中设置一个缓存网关服务器,该服务器将r / w请求缓存到最近的集群。 当前,任何PoP中的客户端都通过永久安装的swift虚拟文件系统(该FUSE模块将Swift Object Storage作为块设备(或多或少)安装)访问用户数据。但是,svfs最初并不稳定,将来,客户端应通过NFS访问缓存服务器。 这是所需架构的一个分支的示意图: +------------------+ +------------------+ NFS +------------------+ | Cluster A | SVFS | Region 1 Cache +----------> R1 PoP a Client | | +----------------> | | | |Persistent Storage| |Ephemeral Storage+----+ |Generates R/W Load| +-----------------++ +------------------+ | +------------------+ | | | …


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.