NFS(Network File System)即网络文件系统,是 FreeBSD 支持的文件系统中的一种,它允许网络中的计算机之间通过 TCP/IP 网络共享资源。在 NFS 的应用中,本地 NFS 的客户端应用可以透明地读写位于远端 NFS 服务器上的文件,就像访问本地文件一样。
目前 NFS 主要有三个版本(NFSv2,NFSv3,NFSv4)。 NFSv2 和 NFSv3 除了 3 版本支持更多的新特性以外,最主要的区别应该就是 NFSv2 是使用 UDP 协议进行传输的,所以 NFSv2 的连接在复杂网络环境下可能没有那么可靠,而 NFSv3 同时支持 UDP 和 TCP 协议。而 NFSv4 则是在 NFSv3 的基础上提升了性能,强制了安全策略,引入有状态的协议等…
当 Client 端要挂载 NFS 共享卷的时候,会发送 RPC 请求给服务端,而 NFS 服务端会在用户验证后将一个随机的 Cookie 传送至客户端,以便客户端使用这个 Cookie 来认证那些要访问的共享卷。
NFS 的验证支持内置的 IP/主机权限分配,同时也被 tcp wrappers 所限制。
上面这段话以及架构图都是我从网上找的,主要的作用大概就是撑个场子这样,你懂的。如果你只想快速地搭建一个 CentOS 上的 NFS 环境,跳过这段 …
VMWare 12 x64
CentOS 6.7 x64 * 3
nfs-utils
nfs-utils-lib
rpcblind
注:
登录连接到规划的 NFS Server 节点,使用 root 用户执行如下命令创建共享目录
[root@hadoop1 ~]# mkdir -p /data/shared
注:
这个共享目录是实际存放数据文件的位置,其他的 NFS Client 访问该位置获取共享的文件信息。
root 用户执行如下命令
[root@hadoop1 data]# cd /data
[root@hadoop1 data]# pwd
/data
[root@hadoop1 data]# chmod -R 777 shared
[root@hadoop1 data]# ll -d shared
drwxrwxrwx. 2 root root 4096 Aug 6 06:18 shared
可以根据服务器的配置以及具体的业务需求选取一台服务器作为 NFS Server,NFS Server 是用作文件物理存储的节点。因此,要考虑的是 NFS Server 服务器的磁盘资源是否满足需求。此处我选取 192.168.174.200 作为 NFS Server。SSH 连接到 192.168.174.200 服务器过程省略…
[root@hadoop1 ~]# rpm -qa | grep nfs-utils
[root@hadoop1 ~]#
如果已经安装了 nfs-utils 及 nfs-utils-lib 包,可以直接跳过第 2 步
root 用户执行如下命令安装 nfs-utils
[root@hadoop1 ~]# yum install -y nfs-utils
注:
nfs-utils-lib.x86_64 0:1.1.5-13.el6
keyutils.x86_64 0:1.4-5.el6
libgssglue.x86_64 0:0.1-11.el6
libtirpc.x86_64 0:0.2.1-15.el6
rpcbind.x86_64 0:0.2.0-16.el6
...
NFS 的配置文件位于 /etc/exports,在 CentOS 6.7 中,/etc/exports 文件已经存在,内容为空。因此,我这儿使用 root 用户直接编辑此文件配置即可(如果没有此文件,可以直接创建此文件即可 touch /etc/exports 或者 vim /etc/exports)。
[root@hadoop1 ~]# vim /etc/exports
在文件中添加如下内容:
/data/shared 192.168.174.201(rw,sync,all_squash)
/data/shared192.168.174.202(rw,sync,all_squash)
注:
上面的文件也可以配置成一行 /data/shared192.168.174.*(rw,sync,all_squash) ,表示允许 192.168.174 这个网段的所有机器的访问
配置文件中的内容格式如下,'()’ 中的选项列表之间没有空格
<输出目录> [客户端1 选项(访问权限,同步方式,用户映射)] [客户端2 选项(访问权限,同步方式,用户映射)]
root 用户执行如下命令编辑 iptables 文件
[root@hadoop1 shared]# vim /etc/sysconfig/iptables
添加如下内容,并保存退出
### rpcbind
-A INPUT -p udp -m multiport --dports 111,875,892,2049,10053,32769 -m state --state NEW,ESTABLISHED -j ACCEPT
-A INPUT -p tcp -m multiport --dports 111,875,892,2049,10053,32803 -m state --state NEW,ESTABLISHED -j ACCEPT
-A OUTPUT -p udp -m multiport --sports 111,875,892,2049,10053,32769 -m state --state ESTABLISHED -j ACCEPT
-A OUTPUT -p tcp -m multiport --sports 111,875,892,2049,10053,32803 -m state --state ESTABLISHED -j ACCEPT
如下示例:
注:
在启动 nfs 之前必须先启动 rpcbind,root 用户执行如下命令启动 rpcbind
[root@hadoop1 data]# service rpcbind start
Starting rpcbind: [ OK ]
root 用户执行如下命令启动 nfs
[root@hadoop1 data]# service nfs start
Starting NFS services: [ OK ]
Starting NFS quotas: [ OK ]
Starting NFS mountd: [ OK ]
Starting NFS daemon: [ OK ]
Starting RPC idmapd: [ OK ]
使用 SSH 分别连接到 NFS Client 对应的两个节点 192.168.174.201/202
使用 root 用户分别在两台客户端服务器上执行如下命令安装 nfs
[root@hadoop2 ~]# yum install -y nfs-utils
注:
使用 root 用户分别在两台客户端服务器上执行如下命令创建两个本地目录,用于将 NFS Server 上的共享目录映射到本地目录。
[root@hadoop3 ~]# mkdir -p /data/shared
[root@hadoop3 ~]# cd /data
[root@hadoop3 data]# pwd
/data
[root@hadoop3 data]# chmod -R 777 shared
[root@hadoop3 data]# ll -d shared/
drwxrwxrwx. 2 root root 4096 Aug 6 06:43 shared/
注:
[root@hadoop2 data] mount -t nfs 192.168.174.200:/data/shared /data/shared
查看挂载后的服务器文件系统
[root@hadoop2 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 97G 4.3G 87G 5% /
tmpfs 1.9G 72K 1.9G 1% /dev/shm
/dev/sda1 283M 41M 227M 16% /boot
192.168.174.200:/data/shared
97G 16G 76G 18% /data/shared
可以看到多出了一个将 192.168.174.200:/data/shared 挂载到本地的 /data/shared 目录的记录
在 192.168.174.202 服务器上执行如下命令
[root@hadoop3 data]# cd shared
[root@hadoop3 shared]# vim test.text
输入如下内容,保存退出:
This is a test text!
查看 192.168.174.202 服务器上的 /data/shared 目录,有 test.text 文件
[root@hadoop3 shared]# pwd
/data/shared
[root@hadoop3 shared]# ll
total 4
-rw-r--r--. 1 nfsnobody nfsnobody 21 Aug 6 09:38 test.text
[root@hadoop3 shared]# cat test.text
This is a test text!
登录 192.168.174.200/201 服务器,查看 /data/shared 目录,可以看到两个节点上都能访问刚刚在 202 上创建的 test.text 文件,如下所示:
200:
[root@hadoop1 shared]# pwd
/data/shared
[root@hadoop1 shared]# ll
total 4
-rw-r--r--. 1 nfsnobody nfsnobody 21 Aug 6 09:38 test.text
201:
[root@hadoop2 shared]# pwd
/data/shared
[root@hadoop2 shared]# ll
total 4
-rw-r--r--. 1 nfsnobody nfsnobody 21 Aug 6 09:38 test.text
在 192.168.174.201 上修改文件,并在文件下方添加一行 Hello World 并保存退出
[root@hadoop2 shared]# vim test.text
This is a test text!
Hello World
查看 192.168.174.200/202 上的 /data/shared/test.text 文件内容:
200:
[root@hadoop1 shared]# pwd
/data/shared
[root@hadoop1 shared]# cat test.text
This is a test text!
Hello World
202:
[root@hadoop3 shared]# pwd
/data/shared
[root@hadoop3 shared]# cat test.text
This is a test text!
Hello World
可以看到更改后的内容也同时在另外两个节点上生效了。
至此,我们在 CentOS 6.X 上安装配置 NFS 共享文件目录就完成了。