文章目录
- 一、GlusterFS概述
-
- 1.1 GlusterFS简介
- 1.2 GlusterFS特点
- 1.3 GlusterFS术语
- 1.4 模块化堆栈架构
- 二、GlusterFS工作原理
-
- 2.1 GlusterFS工作流程
- 2.2 弹性HASH算法
- 三、GlusterFS的卷类型
-
- 类型
- 3.1 分布式卷
- 3.2 条带卷
- 3.3 复制卷
- 3.4 分布式条带卷
- 3.5 分布式复制卷
- 四、部署群集类型
-
- 群集环境
- 卷类型
- GlusterFS部署实操
-
- 4.1 配置四台节点服务器
- 4.2 修改hosts文件
- 4.3 挂载Gluster文件系统跟修改fstab配置文件
- 4.4 安装GlusterFS
- 4.5 时间同步,每台节点都需要操作
- 4.6 添加加入存储信息池只要一台主机上添加其他节点即可
- 五、创建卷、部署客户端、测试文件系统
-
- 5.1 创建分布式卷
- 5.2 创建复制卷
- 5.3 创建分布式复制卷
- 5.4 破坏测试
- 5.5 访问控制
一、GlusterFS概述
1.1 GlusterFS简介
- 开源的分布式文件系统
- 由存储服务器、客户端以及NFS/Samba存储网关组成
- 无元数据服务器
1.2 GlusterFS特点
- 扩展性和高性能
- 高可用性
- 全局统一命名空间
- 弹性卷管理
- 基于标准协议
1.3 GlusterFS术语
- Brick
- Volume
- FUSE
- VFS
- Glusterd
1.4 模块化堆栈架构
- 模块化、堆栈式的架构
- 通过对模块的组合,实现复杂的功能d
二、GlusterFS工作原理
2.1 GlusterFS工作流程
- 客户端或应用程序通过GlusterFS的挂载点访问数据
- linux系统内核通过VFS API收到请求并处理
- VFS将数据递交给FUSE内核文件系统,fuse文件系统则是将数据通过/dev/fuse设备文件递交给了GlusterFS client端
- GlusterFS client收到数据后,client根据配置文件的配置对数据进行处理
- 通过网络将数据传递至远端的GlusterFS client,并且将数据写入到服务器存储设备上
2.2 弹性HASH算法
- 通过HASH算法得到一个32位的整数
- 划分为N个连续的子空间,每个空间对应一个Brick
- 弹性HASH算法的优点
三、GlusterFS的卷类型
类型
- 分布式卷
- 条带卷
- 复制卷
- 分布式条带卷
- 分布式复制卷
- 条带复制卷
- 分布式条带复制卷
3.1 分布式卷
-
分布式卷
-
分布式卷的特点
- 文件分布在不同的服务器,不具备冗余性
- 更容易和廉价地扩展卷的大小
- 单点故障会造成数据丢书
- 依赖底层的数据保护
-
创建分布式卷
- 创建一个名为dis-volume的分布式卷,文件将根据HSAH分布在server1:/dir1、server2:/dir2和server3:/dir3中
#gluster volume create dis-volume server1:/dir1 server2:/dir2 server3:/dir3
3.2 条带卷
- 根据偏移量将文件分成N块(N个条带节点),轮询存储在每个Brick Server节点
- 存储大文件时,性能尤为突出
- 不具备冗余性,类似Raid0
- 特点
- 数据被分割成更小块分布到块服务器群中的不同条带区
- 分布减少了负载且更小的文件加速了存取的速度
- 没有数据冗余
- 创建条带卷
- 创建了一个名为Stripe-volume的条带卷,文件将被分块轮询的存储在Server:/dir1和Server2:/dir2两个Brick中
# gluster volume create stripe-volume stripe 2 transport tcp server1:/dir1 server2:/dir2
3.3 复制卷
- 同一文件保存一份或多份副本
- 因为要保存副本,所以磁盘利用率较低
- 若多个节点上的存储空间不一致,将按照木桶效应取最低点的容量作为改卷的总容量
- 特点
- 卷中所有的服务器均保存一个完整的副本
- 卷的副本数量可由客户创建的时候决定
- 至少有两个块服务器或更多服务器
- 具备冗余性
- 创建复制卷
- 创建名为rep-volume的复制卷,文件将同时存储两个副本,分别在Server1:/dir和Server:/dir2两个Brick中
# gluster volume create rep-volume replica 2 transport tcp server1:/dir1 server2:/dir2
3.4 分布式条带卷
- 分布式条带卷
- 兼顾分布式卷和条带卷的功能
- 主要用于大文件访问处理
- 至少最少需要4台服务器
- 创建分布式条带卷
- 创建名为dis-stripe的分布式条带卷,配置分布式的条带卷时,卷中Brick所包含的存储服务器数必须是条带数的倍数(>=2倍)
# gluster volume create dis-stripe stripe 2 transport tcp server1:/dir1 server2:/dir2 server3:/dir3 server4:/dir4
3.5 分布式复制卷
- 分布式复制卷
- 兼顾分布式卷和复制卷的功能
- 用于需要冗余的情况
- 创建分布式复制卷
- 创建名为dis-rep的分布式条带卷,配置分布式复制卷时,卷中Brick所包含的存储服务器必须是条带数的倍数(>=2倍)
# gluster volume create dis-rep replica 2 tarnsport tcp server1:/dir1 server2:/dir2 server3:/dir3 server4:/dir4
四、部署群集类型
群集环境
卷类型
卷名称 | 卷类型 |
---|---|
dis-volume | 分布式卷 |
stripe-volume | 条带卷 |
rep-volume | 复制卷 |
dis-stripe | 分布式条带卷 |
dis-rep | 分布式复制卷 |
GlusterFS部署实操
五台虚拟机:一台作为客户机,另外四台作为节点,每个虚拟机新增4块磁盘(每块磁盘20G)
角色 | 空间大小 |
---|---|
node1【20.0.0.41】 | 20G×4 |
node2【20.0.0.42】 | 20G×4 |
node3【20.0.0.43】 | 20G×4 |
node4【20.0.0.44】 | 20G×4 |
客户端【20.0.0.45】 |
分别给四个节点服务器添加磁盘,每个节点添加4个20G磁盘
4.1 配置四台节点服务器
[root@localhost ~]# hostnamectl set-hostname node1
[root@localhost ~]# hostnamectl set-hostname node2
[root@localhost ~]# hostnamectl set-hostname node3
[root@localhost ~]# hostnamectl set-hostname node4'//重启查看分区情况,四台节点服务器一样操作就不一一列举了'
[root@node1 ~]# fdisk -l'//关闭所有节点防火墙跟防护功能,否则下面配置查看其他节点服务器会有问题'
[root@node1 ~]# systemctl stop firewalld.service
[root@node1 ~]# setenforce 0
4.2 修改hosts文件
(当用户在浏览器中输入一个需要登录的网址时,系统会首先自动从Hosts文件中寻找对应的IP地址,一旦找到,系统会立即打开对应网页,如果没有找到,则系统会再将网址提交DNS域名解析服务器进行IP地址的解析。),添加主机名和 IP地址
[root@node2 ~]# vim /etc/hosts
//::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
#下面添加
20.0.0.41 node1
20.0.0.42 node2
20.0.0.43 node3
20.0.0.44 node4#把node1的hosts文件远程共享给另外三台节点服务器
[root@node1 ~]# scp /etc/hosts root@20.0.0.42:/etc/hosts
...省略信息....
Are you sure you want to continue connecting (yes/no)? yes '//输入确认'
Warning: Permanently added '20.0.0.42' (ECDSA) to the list of known hosts.
root@20.0.0.42's password: '//输入对方密码'
hosts 100% 222 122.8KB/s 00:00 #一样操作复制到node3/4节点服务器
[root@node1 ~]# scp /etc/hosts root@20.0.0.43:/etc/hosts
[root@node1 ~]# scp /etc/hosts root@20.0.0.44:/etc/hosts:#一定要去服务器检查配置文件是否正确
4.3 挂载Gluster文件系统跟修改fstab配置文件
[root@node1 opt]# vim disk.sh
'//编写脚本'#! /bin/bash
echo "the disks exist list:"
fdisk -l |grep '磁盘 /dev/sd[a-z]'
echo "=================================================="
PS3="chose which disk you want to create:"
select VAR in `ls /dev/sd*|grep -o 'sd[b-z]'|uniq` quit
docase $VAR insda)fdisk -l /dev/sdabreak ;;sd[b-z])#create partitionsecho "npw" | fdisk /dev/$VAR#make filesystemmkfs.xfs -i size=512 /dev/${VAR}"1" &> /dev/null#mount the systemmkdir -p /data/${VAR}"1" &> /dev/nullecho -e "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0\n" >> /etc/fstabmount -a &> /dev/nullbreak ;;quit)break;;*)echo "wrong disk,please check again";;esac
done'//增加执行脚本'
[root@node1 opt]# chmod +x disk.sh '//远程复制脚本到另外三台服务器'
[root@node1 opt]# scp disk.sh root@20.0.0.42:/opt[root@node1 opt]# scp disk.sh root@20.0.0.43:/opt[root@node1 opt]# scp disk.sh root@20.0.0.44:/opt'//执行脚本'
[root@node1 opt]# ./disk.sh
the disks exist list:
磁盘 /dev/sda:322.1 GB, 322122547200 字节,629145600 个扇区
磁盘 /dev/sdb:21.5 GB, 21474836480 字节,41943040 个扇区
磁盘 /dev/sdc:21.5 GB, 21474836480 字节,41943040 个扇区
磁盘 /dev/sde:21.5 GB, 21474836480 字节,41943040 个扇区
磁盘 /dev/sdd:21.5 GB, 21474836480 字节,41943040 个扇区
===========================================
1) sdb
2) sdc
3) sdd
4) sde
5) quit
chose which disk you want to create: //挨个输出1-4创建分区######
./disk.sh
1
./disk.sh
2
./disk.sh
3
./disk.sh
4
######'//查看挂载'
[root@node1 opt]# df -Th
文件系统 类型 容量 已用 可用 已用% 挂载点
....省略信息
/dev/sdc1 xfs 20G 33M 20G 1% /data/sdc1
/dev/sdd1 xfs 20G 33M 20G 1% /data/sdd1
/dev/sde1 xfs 20G 33M 20G 1% /data/s:de1
/dev/sdb1 xfs 20G 33M 20G 1% /data/sdb1
4.4 安装GlusterFS
四个节点相同操作
[root@node1 ~]# wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo#清理yum源
[root@node1 ~]# yum clean all#获取yum源列表
[root@node1 ~]# yum list#安装gluster
[root@node1 ~]# yum -y install centos-release-gluster[root@node1 ~]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma#启动glusterfs
systemctl start glusterd.service #查看状态
[root@node4 opt]# systemctl status :glusterd.service
4.5 时间同步,每台节点都需要操作
这边必须关闭防火墙
ntpdate ntp1.aliyun.com
4.6 添加加入存储信息池只要一台主机上添加其他节点即可
[root@node1 ~]# gluster peer probe node2
peer probe: success.
[root@node1 ~]# gluster peer probe node3
peer probe: success.
[root@node1 ~]# gluster peer probe node4
peer probe: success. #查看所有节点
[root@node1 ~]# gluster peer status
Number of Peers: 3Hostname: node2
Uuid: 61ea3244-2d19-48dc-ab1c-e30bd4e7d01d
State: Peer in Cluster (Connected)Hostname: node3
Uuid: 134437ba-1bce-4d4a-ab62-689f99796dba
State: Peer in Cluster (Connected)Hostname: node4
Uuid: 72b81ad1-0428-4488-a146-c8a0d5b466f3
State: Peer in Cluster (Connected)
五、创建卷、部署客户端、测试文件系统
5.1 创建分布式卷
'//在node4创建 利用node1和node2上的两块磁盘创建;dis-vol为磁盘名;force表示强制'
[root@node4 opt]# gluster volume create dis-vol node1:/data/sdb1 node2:/data/sdb1 forcevolume create: dis-vol: success: please start the volume to access data#查看卷
[root@node4 opt]# gluster volume list
dis-vol#启动
[root@node4 opt]# gluster volume start dis-vol
volume start: dis-vol: success#查看状态
[root@node4 opt]# gluster volume info dis-vol Volume Name: dis-vol
Type: Distribute
Volume ID: 351d5534-d3d1-450b-93c5-beac0a39e757
Status: Started
Snapshot Count: 0
Number of Bricks: 2
Transport-type: tcp
Bricks:
Brick1: node1:/data/sdb1
Brick2: node2:/data/sdb1
Options Reconfigured:
transport.address-family: inet
storage.fips-mode-rchecksum: on
nfs.disable: on#如果不想用可以关闭
[root@node4 opt]# gluster volume stop dis-vol #删除卷
[root@node4 opt]# gluster volume delete dis-vol
-
客户端配置
-
关闭防火墙
-
配置安装GFS源
[root@client ~]# systemctl stop firewalld.service
[root@client ~]# setenforce 01、先下载阿里云yum源:wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo2、清理yum源:yum clean all3、获取yum源列表:yum list4、安装:yum -y install centos-release-gluster5、安装软件包:yum -y install glusterfs glusterfs-fuse
修改hosts文件
vim /etc/hosts::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
#添加四个节点
20.0.0.41 node1
20.0.0.42 node2
20.0.0.43 node3
20.0.0.44 node4
创建临时挂载点:
[root@client opt]# mkdir -p /test/dis #递归创建挂载点
[root@client opt]# mount.glusterfs node2:dis-vol /test/dis #挂载分布式node2是随意 写 只要是地地址池里面的节点都行
[root@node4 opt]# df -Th
文件系统 类型 容量 已用 可用 已用% 挂载点
。。。省略信息
node2:dis-vol fuse.glusterfs 40G 475M 40G 2% /test/dis
40G:两个空间20G加起来就是40G
测试卷:创建5个40M的文件
dd if=/dev/zero of=/demo1.log bs=1M count=40
dd if=/dev/zero of=/demo2.log bs=1M count=40
dd if=/dev/zero of=/demo3.log bs=1M count=40
dd if=/dev/zero of=/demo4.log bs=1M count=40
dd if=/dev/zero of=/demo5.log bs=1M count=40#跟目录查看5个文件
[root@client ~]# cd /
[root@client /]# ls
bin demo2.log dev lib mnt root srv usr
boot demo3.log etc lib64 opt run sys var
demo1.log demo4.log home media proc sbin tmp
创建的5个文件复制到不同的卷上
[root@client /]# cp demo* /test/dis#查看
[root@client /]# ls /test/dis
demo1.log demo2.log demo3.log demo4.log demo5.log//查看多大 每个都40M
-rw-r--r--. 1 root root 40M 9月 13 22:45 demo5.log
[root@client dis]# pwd
/test/dis
[root@client dis]# ll -h
总用量 200M
-rw-r--r--. 1 root root 40M 9月 13 22:45 demo1.log
-rw-r--r--. 1 root root 40M 9月 13 22:45 demo2.log
-rw-r--r--. 1 root root 40M 9月 13 22:45 demo3.log
-rw-r--r--. 1 root root 40M 9月 13 22:45 demo4.log
-rw-r--r--. 1 root root 40M 9月 13 22:45 demo5.log
去node1与node2查看
可以看出每个文件按都是完整的
[root@node1 ~]# cd /data/sdb1
[root@node1 sdb1]# ll -h
总用量 160M
-rw-r--r--. 2 root root 40M 9月 13 22:45 demo1.log
-rw-r--r--. 2 root root 40M 9月 13 22:45 demo2.log
-rw-r--r--. 2 root root 40M 9月 13 22:45 demo3.log
-rw-r--r--. 2 root root 40M 9月 13 22:45 demo4.log#node2查看一下
[root@node2 opt]# cd /data/sdb1
[root@node2 sdb1]# ll -h
总用量 40M
-rw-r--r--. 2 root root 40M 9月 13 22:45 demo5.log
5.2 创建复制卷
[root@node3 opt]# gluster volume create rep-vol replica 2 node3:/data/sdb1 noode4:/data/sdb1 force#查看卷
[root@node3 opt]# gluster volume list
dis-vol
rep-vol#启动
[root@node3 opt]# gluster volume start rep-vol
客户端挂载
'//创建挂载点'
[root@client dis]# mkdir /test/rep-vol
//挂载
[root@client dis]# mount.glusterfs node2:rep-vol /test/rep-vol/#复制到挂载点
[root@client /]# cp demo* /test/rep-vol/#node3节点查看
[root@node3 sdc1]# cd /data/sdb1
[root@node3 sdb1]# ll -h
总用量 200M
-rw-r--r--. 2 root root 40M 9月 13 23:23 demo1.log
-rw-r--r--. 2 root root 40M 9月 13 23:23 demo2.log
-rw-r--r--. 2 root root 40M 9月 13 23:23 demo3.log
-rw-r--r--. 2 root root 40M 9月 13 23:23 demo4.log
-rw-r--r--. 2 root root 40M 9月 13 23:23 demo5.log#node4节点查看
[root@node4 opt]# cd /data/sdb1
[root@node4 sdb1]# ll -h
总用量 200M
-rw-r--r--. 2 root root 40M 9月 13 23:23 demo1.log
-rw-r--r--. 2 root root 40M 9月 13 23:23 demo2.log
-rw-r--r--. 2 root root 40M 9月 13 23:23 demo3.log
-rw-r--r--. 2 root root 40M 9月 13 23:23 demo4.log
-rw-r--r--. 2 root root 40M 9月 13 23:23 demo5.log//node3跟node4均保留完整的副本 可靠安全的是复制卷 读写速度快的是条带卷
5.3 创建分布式复制卷
[root@node4 ~]# gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force//开启
gluster volume start dis-stripe
gluster volume info dis-stripe
客户端挂载
[root@client ~]# mkdir /test/dis-rep
[root@client ~]# mount.glusterfs node1:dis-rep /test/dis-rep/#查看挂载
[root@client ~]# df -Th
文件系统 类型 容量 已用 可用 已用% 挂载点
node1:dis-rep fuse.glusterfs 40G 475M 40G 2% /test/dis-rep#复制卷到挂载卷
[root@client /]# cp demo* /test/dis-rep/#去node1节点查看
[root@node1 ~]# cd /data/sde1
[root@node1 sde1]# ll -h
总用量 160M
-rw-r--r--. 2 root root 40M 9月 14 09:04 demo1.log
-rw-r--r--. 2 root root 40M 9月 14 09:04 demo2.log
-rw-r--r--. 2 root root 40M 9月 14 09:04 demo3.log
-rw-r--r--. 2 root root 40M 9月 14 09:04 demo4.log#node2节点查看
[root@node2 ~]# cd /data/sde1
[root@node2 sde1]# ll -h
总用量 160M
-rw-r--r--. 2 root root 40M 9月 14 09:04 demo1.log
-rw-r--r--. 2 root root 40M 9月 14 09:04 demo2.log
-rw-r--r--. 2 root root 40M 9月 14 09:04 demo3.log
-rw-r--r--. 2 root root 40M 9月 14 09:04 demo4.log#node3查看
[root@node3 ~]# cd /data/sde1
[root@node3 sde1]# ll -h
总用量 40M
-rw-r--r--. 2 root root 40M 9月 14 09:04 demo5.log#node4查看
[root@node4 ~]# cd /data/sde1
[root@node4 sde1]# ll -h
总用量 40M
-rw-r--r--.: 2 root root 40M 9月 14 09:04 demo5.log
5.4 破坏测试
关闭node2服务器观察结果
[root@client /]# cd /test/
[root@client test]# ls
dis dis-rep rep-vol
[root@client test]# ls dis #查看分布卷
demo1.log demo2.log demo3.log demo4.log //这边缺少deme05.log[root@client test]# ls dis-rep/ #查看复制卷
demo1.log demo2.log demo3.log demo4.log demo5.log #这边是完整的[root@client test]# ls rep-vol/
demo1.log demo2.log demo3.log demo4.log demo5.log #查看分布式复制卷 也是完整的
5.5 访问控制
//仅拒绝
[root@node1 yum.repos.d]# gluster volume set dis-vol auth.reject 20.0.0.42
volume set: success//仅允许
[root@node1 yum.repos.d] gluster volume set dis-vol auth.allow 20.0.0.42
volume set: success