Questions tagged «nfs»

网络文件系统(NFS)是最初由Sun Micro Systems在1984年开发的网络文件系统协议,它允许客户端计算机上的用户以类似于访问本地存储的方式通过网络访问文件。像许多其他协议一样,NFS建立在开放网络计算远程过程调用(ONC RPC)系统上。网络文件系统是RFC中定义的开放标准。

1
NFS在Debian上的性能下降
我在两台喘不过气的机器之间使用NFS的性能非常不一致,而且似乎无法确定。 设定: 机器1'video1':双5506 w / 12GB内存,8x3TB RAID6上的XFS从'/ mnt / storage'导出为'video1' 机器2'storage1':Phenom X2 @ 3.2Ghtz w / 8GB ram,5x2TB上的ZFS从/ mnt / storage1-storage导出为'storage1' 本地写入性能: mackek2@video1:/mnt/storage/testing$ dd if=/dev/zero of=localwrite10GB bs=5000k count=2000 2000+0 records in 2000+0 records out 10240000000 bytes (10 GB) copied, 16.7657 s, 611 MB/s 本地读取性能: 两者都连接到同一个HP千兆交换机,而iperf两种方式都能提供坚如磐石的940mbps。 我的问题是,当我从storage1写入video1导出时,性能无处不在。似乎对于前几(5-7)个文件传输(我希望尽快移动30-120GB AVCHD或MJPEG文件),性能从900mbps下降到150-180mbps,因此慢到30mbps。如果我重新启动NFS内核服务器,则性能会提高一些。 mackek2@storage1:/mnt/video1/testing$ dd if=/dev/zero …
9 linux  networking  nfs 

2
典型的NFS读/写速率是多少
我刚刚安装了通过NFS将HTTP视频流文件发送到Web服务器的服务器,并且我想确保传输速度得到了优化。但是我不知道典型的读写速率是什么,所以我不知道我是否已经接近最大速率。据我所知,wsize和rsize参数是重要的,但我不知道他们在默认为,如果它的价值改变它们。 根据NFS上的sourceforge文章,我使用以下命令测试了写入速度: time dd if=/dev/zero of=/mnt/data/video/testfile bs=16k count=16384 而且我得到了48MB / s的写入速率。 我对此进行了多次测试(卸载/安装以清除缓存),并且速度相当稳定。 我测试了读取速度: time dd if=/mnt/data/video/testfile of=/dev/null bs=16k 并获得117MB / s的读取速率 以太网交换机和所有电缆都适用于1Gb / s,并且两台计算机上的NIC都设置为使用巨型帧(MTU = 9000),并且在/ etc / exportfs中设置了该async选项-速度对我而言比完美的数据更重要诚信。这两台机器都是带有7.2K SATA驱动器(一个为3G,另一个为6G)的HP Proliant的标准配置。两台机器都使用Linux 2.6.18。发送文件的计算机正在运行CentOS 5.5,接收文件的计算机正在运行RHEL 5.4(Tikanga)。 我希望已经测试了许多不同系统的人可以说出上述数字对于NFS数据传输是否典型,或者是否有足够的空间来增加它们。

1
可以在打开文件的NFS挂载卷上取消打开文件的链接吗?
NFS是否允许我像本地文件系统一样取消链接/删除打开的文件? 我问的原因是我正在开发可以在多台服务器上运行并且可以作为后端访问NFS的东西。如果我可以对打开的文件进行取消链接,则可以在某种程度上简化事情。 这是linux(unix?)文件系统的一个不错的功能,您可以取消链接打开的文件。它只是删除目录条目。只要打开该文件,该文件仍可用于使其保持打开状态的进程。一旦关闭,inode就被销毁。 对于在NFS挂载上打开的文件,同样的功能是否成立?
9 nfs 

4
只读绑定安装?
我使用mount -o bind在chroots中装载目录,这确实很好。问题是我希望其中一些绑定安装的目录只能在chroot中读取。 可能吗?如果不是-是否有其他实现方法? 我曾考虑过将NFS用于本地主机挂载,但是这看起来有些过分。
9 linux  nfs  mount  bind  read-only 


1
无法删除Linux目录-无限递归
我们在支持我们的版本控制服务器的RHEL6 VM上安装了NFS-最近,其中一个存储库变得有些疯狂,这是我在服务器上找到的: ls -latri repo.git/refs/heads/ total 28 5551210 drwxr-xr-x. 2 git git 8192 Jun 1 21:21 . 5551210 drwxr-xr-x. 2 git git 8192 Jun 1 21:21 5551210 drwxr-xr-x. 2 git git 8192 Jun 1 21:21 5551209 drwxr-xr-x. 3 git git 4096 Jun 1 22:09 .. 当我tree对目录运行时,它似乎是无限递归的-例如: repo.git/refs/heads/ ├── │ ├── …
8 linux  redhat  nfs 

3
如何为git等工作负载获得良好的NFS性能?
我vagrant为运行OSX的开发人员管理设置,以管理VirtualBox系统进行开发。 为了inotify在Linux机器内部提供支持,我们避开了与VirtualBox共享目录的常用方法:相反,Virtualbox机器公开了一个NFS共享,该共享安装在OSX中。 Git(以及诸如sourcetree之类的相关工具)在OSX的共享目录中运行。这种方法的性能极差:运行通常需要5秒钟git status。将小型存储库克隆到已安装的NFS驱动器中可能需要花费几分钟(在本地驱动器上需要5-10秒)。 显然,NFS性能要比直接写入本地SSD差,但是NFS只是通过Virtualbox在虚拟专用网络接口上运行。 我运行了几个基准测试。首先: dd if=/dev/zero of=test bs=16 count=16384 每个结果均基于100个样本。 # local drive Min. 1st Qu. Median Mean 3rd Qu. Max. 0.990 1.000 1.020 1.021 1.030 1.130 # on the shared NFS drive Min. 1st Qu. Median Mean 3rd Qu. Max. 6.000 6.278 6.390 6.482 6.570 7.630 # …

3
如果不运行rpcbind,NFSv4无法为nfsd设置任何套接字
根据Red Hat的文档,不再需要'rpcbind'了: 由于协议支持已集成到v4协议中,因此NFSv4没有与portmap,rpc.lockd和rpc.statd守护程序进行交互。NFSv4侦听众所周知的TCP端口2049,从而无需进行端口映射交互。安装和锁定协议已合并到V4协议中,从而无需与rpc.lockd和rpc.statd进行交互。服务器上仍需要rpc.mountd守护程序,但不参与任何在线操作。 但是,当'rpcbind'服务未运行时,我无法启动NFS守护程序: # service nfs start Starting NFS services: [ OK ] Starting NFS quotas: Cannot register service: RPC: Unable to receive; errno = Connection refused rpc.rquotad: unable to register (RQUOTAPROG, RQUOTAVERS, udp). [FAILED] Starting NFS mountd: [ OK ] Starting NFS daemon: rpc.nfsd: writing fd to kernel …
8 redhat  nfs  nfs4  rpc 

1
NFSv4如何在FreeBSD上共享ZFS文件系统?
使用FreeBSD 9,并创建了一个ZFS文件系统,如下所示 zfs create tank/project1 zfs set sharenfs=on tank/project1 在网络上的FreeBSD上设置NFSv3的方法有很多,但是当ZFS完成NFS共享时,我找不到任何一个NFSv4。 例如,该如何说我必须重新启动(NFSv3)nfsd -u -t -n 4,但我什至没有nfsd。 当我做 # echo /usr/ports/*/*nfs* /usr/ports/net-mgmt/nfsen /usr/ports/net/nfsshell /usr/ports/net/pcnfsd /usr/ports/net/unfs3 /usr/ports/sysutils/fusefs-chironfs /usr/ports/sysutils/fusefs-funionfs /usr/ports/sysutils/fusefs-unionfs # 我没有看到任何可以安装的NFSv4服务器pkg_add。 题 如何安装和设置NFSv4,以便可以从Linux主机上挂载共享?
8 linux  freebsd  nfs  zfs 

1
高负载平均,高等待时间,dmesg raid错误消息(debian nfs服务器)
HP proliant(2 CPU)上的Debian 6,具有RAID(2 * 1.5T RAID1 + 2 * 2T RAID1加入RAID0以制成3.5T),主要运行nfs和imapd(用于Windows共享的samba和用于预览网页的本地www);在本地ubuntu桌面客户端安装$ HOME的情况下,笔记本电脑通过nfs / smb访问imap和奇数文件(例如视频);通过家庭路由器/交换机连接100baseT或wifi的盒子 优名 Linux prole 2.6.32-5-686 #1 SMP Wed Jan 11 12:29:30 UTC 2012 i686 GNU/Linux 安装程序已经工作了几个月,但是经常会间歇性地变慢(从服务器或笔记本电脑播放视频的台式机安装$ HOME上的用户体验),现在一直如此糟糕,我不得不深入研究它才能找出问题所在(! ) 服务器在低负载下似乎可以,例如(笔记本电脑)客户端(本地磁盘上有$ HOME)连接到服务器的imapd和nfs安装RAID来访问1个文件:顶部显示负载〜0.1或更少,0等待 但是当(桌面)客户端挂载$ HOME并启动用户KDE会话(所有正在访问的服务器)时,顶部显示例如 top - 13:41:17 up 3:43, 3 users, load average: 9.29, 9.55, 8.27 Tasks: 158 …

1
由于“在Kerberos数据库中找不到服务器”错误,NFS(使用Kerberos)安装失败
运行时: sudo mount -t nfs4 -o sec=krb5 sol.domain.com:/ /mnt 我在客户端上收到此错误: mount.nfs4: access denied by server while mounting sol.domain.com:/ 在服务器syslog上,我阅读了 UNKNOWN_SERVER: authtime 0, nfs/mercury.domain.com@SOL.DOMAIN.COM for nfs/ip-#-#-#-#.ec2.internal@SOL.DOMAIN.COM, Server not found in Kerberos database UNKNOWN_SERVER: authtime 0, nfs/mercury.domain.com@SOL.DOMAIN.COM for krbtgt/EC2.INTERNAL@SOL.DOMAIN.COM, Server not found in Kerberos database UNKNOWN_SERVER: authtime 0, nfs/mercury.domain.com@SOL.DOMAIN.COM for krbtgt/INTERNAL@SOL.DOMAIN.COM, Server …

3
访问位于NFS挂载点的基础文件系统上的文件
也许这是一个奇怪的请求,但这与以下问题的相反: 是否可以在不卸载NFS内容的情况下查看基础NFS装载的内容? 我有一个安排,其中多个远程站点上的Linux服务器从中央服务器(所有CentOS 5.x)安装NFS共享。认为:/opt/software或类似的东西。 如果一切正常,则客户端系统将从主服务器安装NFS导出,并且可以正常运行。共享中包含的数据不会频繁(可能每周)更改。 我担心与主要NFS服务器的连接丢失(NFS服务器中断,光纤切断等)的情况。由于共享数据并不经常更改,因此我希望这些系统在丢失NFS挂载后能够独立运行。 假设挂载消失了,我想使用/opt/software位于NFS挂载下面同一位置的本地文件。此外,我会每天同步这些文件。 NFS挂载是读/写的,因为需要从任何客户端站点更改挂载的卷。 这可能吗?如何访问(或覆盖)基础目录中的文件?可能存在超时问题吗?是否有任何安装选项/提示可以帮助您解决此问题?
8 linux  nfs  mount  failover 

3
结合了NFS,Samba服务器和Active Directory中的用户
我想构建一个通过SMB / CIFS和NFS导出用户主目录的服务器。该服务器将加入一个包含我们的用户数据库的Win2k3 AD域控制器。据我了解,winbind会即时为这些用户发明UID。此用户名-UID映射必须对安装主目录的NFS客户端可用,否则文件所有权将无法正确显示。 我认为这可以使用SFU来实现,但是据我所知SFU已停产,并且在Windows的最新版本中将不支持SFU,所以我宁愿不使用它。 如何最好地将此映射提供给NFS客户端? (您会认为这是一个常见的用例,但我找不到相关的方法。我的Google-fu可能很弱。) 编辑:顺便说一句,在这种情况下,用户是否可以通过NFS进行连接而无需先通过SMB / CIFS进行连接?

5
具有Linux用户级别安全性的联网文件系统
我想启用服务器和客户端(两者均为Linux)之间的文件共享。我不想像NFSv4那样依赖机器信任,因为客户端用户将具有root特权。除了SMB(SAMBA),我还有哪些选择?OpenAFS是否支持用户级别的身份验证和访问?对于局域网来说,使用挂载的WebDAV / ftp / sshfs似乎很愚蠢。

3
Samba共享NFS挂载点
很抱歉,如果这是重复的帖子,看来我的第一次尝试失败了... 首先一点上下文。 首先,我从地狱继承了经典网络之一。在许多其他事情中,我发现大多数客户端数据(包括一堆法规遵从性数据)当前存储在一个向上的USB驱动器中,该USB驱动器通过Samba与其他客户端共享(并且不备份)。 为了帮助我晚上入睡,我将一个带两个raid 5阵列的linux文件服务器组合在一起,以放置此数据,并避免了重新映射所有客户端计算机的操作,认为卸载USB磁盘应该可以,将数据同步到文件服务器,然后nfs将新的安装点安装在它们的位置。 通过一些快速测试,这似乎可以正常工作,但是,今天,我发现我的用户在通过这种方式打开文件时遇到了极大的麻烦,文件传输速度非常慢。 我没有看到直接通过磁盘进行nfs挂载的任何问题(从我的linux盒中),但是通过samba共享完全无法使用。 我确实在导出和挂载点中都使用了默认设置,所以今晚不会在google上找到的一些选项中发挥默认作用,但是我认为至少明天必须回滚。 我应该能够做到吗?我不明白为什么不这样做,因为我想无论如何这将是对NAS系统要做的事情。 有什么建议吗?请?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.