GFS分布式文件系统(分布式卷、条带卷、复制卷、分布式条带卷、分布式复制卷)

文章目录

  • 一、GlusterFS概述
    • 1.1 GlusterFS简介
    • 1.2 GlusterFS特点
    • 1.3 GlusterFS术语
    • 1.4 模块化堆栈架构
  • 二、GlusterFS工作原理
    • 2.1 GlusterFS工作流程
    • 2.2 弹性HASH算法
  • 三、GlusterFS的卷类型
    • 类型
    • 3.1 分布式卷
    • 3.2 条带卷
    • 3.3 复制卷
    • 3.4 分布式条带卷
    • 3.5 分布式复制卷
  • 四、部署群集类型
    • 群集环境
    • 卷类型
    • GlusterFS部署实操
      • 4.1 配置四台节点服务器
      • 4.2 修改hosts文件
      • 4.3 挂载Gluster文件系统跟修改fstab配置文件
      • 4.4 安装GlusterFS
      • 4.5 时间同步,每台节点都需要操作
      • 4.6 添加加入存储信息池只要一台主机上添加其他节点即可
  • 五、创建卷、部署客户端、测试文件系统
    • 5.1 创建分布式卷
    • 5.2 创建复制卷
    • 5.3 创建分布式复制卷
    • 5.4 破坏测试
    • 5.5 访问控制

一、GlusterFS概述

1.1 GlusterFS简介

  • 开源的分布式文件系统
  • 由存储服务器、客户端以及NFS/Samba存储网关组成
  • 无元数据服务器

1.2 GlusterFS特点

  • 扩展性和高性能
  • 高可用性
  • 全局统一命名空间
  • 弹性卷管理
  • 基于标准协议

1.3 GlusterFS术语

  • Brick
  • Volume
  • FUSE
  • VFS
  • Glusterd

1.4 模块化堆栈架构

  • 模块化、堆栈式的架构
  • 通过对模块的组合,实现复杂的功能d

在这里插入图片描述

二、GlusterFS工作原理

2.1 GlusterFS工作流程

在这里插入图片描述

  • 客户端或应用程序通过GlusterFS的挂载点访问数据
  • linux系统内核通过VFS API收到请求并处理
  • VFS将数据递交给FUSE内核文件系统,fuse文件系统则是将数据通过/dev/fuse设备文件递交给了GlusterFS client端
  • GlusterFS client收到数据后,client根据配置文件的配置对数据进行处理
  • 通过网络将数据传递至远端的GlusterFS client,并且将数据写入到服务器存储设备上

2.2 弹性HASH算法

  • 通过HASH算法得到一个32位的整数
  • 划分为N个连续的子空间,每个空间对应一个Brick
  • 弹性HASH算法的优点
    • 保证数据平均分布在每一个Brick中
    • 解决了对元数据服务器的依赖,进而解决了单点故障以及访问瓶颈
      在这里插入图片描述
      在这里插入图片描述

三、GlusterFS的卷类型

类型

  • 分布式卷
  • 条带卷
  • 复制卷
  • 分布式条带卷
  • 分布式复制卷
  • 条带复制卷
  • 分布式条带复制卷

3.1 分布式卷

  • 分布式卷

    • 没有对文件进行分块处理
    • 通过扩展文件属性保存HASH值
    • 支持的底层文件系统有EXT3、EXT4、ZFS、XFS等
      在这里插入图片描述
  • 分布式卷的特点

    • 文件分布在不同的服务器,不具备冗余性
    • 更容易和廉价地扩展卷的大小
    • 单点故障会造成数据丢书
    • 依赖底层的数据保护
  • 创建分布式卷

    • 创建一个名为dis-volume的分布式卷,文件将根据HSAH分布在server1:/dir1、server2:/dir2和server3:/dir3中
#gluster volume create dis-volume server1:/dir1 server2:/dir2 server3:/dir3

3.2 条带卷

  • 根据偏移量将文件分成N块(N个条带节点),轮询存储在每个Brick Server节点
  • 存储大文件时,性能尤为突出
  • 不具备冗余性,类似Raid0
    在这里插入图片描述
  • 特点
    • 数据被分割成更小块分布到块服务器群中的不同条带区
    • 分布减少了负载且更小的文件加速了存取的速度
    • 没有数据冗余
  • 创建条带卷
    • 创建了一个名为Stripe-volume的条带卷,文件将被分块轮询的存储在Server:/dir1和Server2:/dir2两个Brick中
# gluster volume create stripe-volume stripe 2 transport tcp server1:/dir1 server2:/dir2

3.3 复制卷

  • 同一文件保存一份或多份副本
  • 因为要保存副本,所以磁盘利用率较低
  • 若多个节点上的存储空间不一致,将按照木桶效应取最低点的容量作为改卷的总容量
    在这里插入图片描述
  • 特点
    • 卷中所有的服务器均保存一个完整的副本
    • 卷的副本数量可由客户创建的时候决定
    • 至少有两个块服务器或更多服务器
    • 具备冗余性
  • 创建复制卷
    • 创建名为rep-volume的复制卷,文件将同时存储两个副本,分别在Server1:/dir和Server:/dir2两个Brick中
# gluster volume create rep-volume replica 2 transport tcp server1:/dir1 server2:/dir2

3.4 分布式条带卷

  • 分布式条带卷
    • 兼顾分布式卷和条带卷的功能
    • 主要用于大文件访问处理
    • 至少最少需要4台服务器
  • 创建分布式条带卷
    • 创建名为dis-stripe的分布式条带卷,配置分布式的条带卷时,卷中Brick所包含的存储服务器数必须是条带数的倍数(>=2倍)
# gluster volume create dis-stripe stripe 2 transport tcp server1:/dir1 server2:/dir2 server3:/dir3 server4:/dir4

3.5 分布式复制卷

  • 分布式复制卷
    • 兼顾分布式卷和复制卷的功能
    • 用于需要冗余的情况
  • 创建分布式复制卷
    • 创建名为dis-rep的分布式条带卷,配置分布式复制卷时,卷中Brick所包含的存储服务器必须是条带数的倍数(>=2倍)
# gluster volume create dis-rep replica 2 tarnsport tcp server1:/dir1 server2:/dir2 server3:/dir3 server4:/dir4

四、部署群集类型

群集环境

在这里插入图片描述

卷类型

卷名称 卷类型
dis-volume 分布式卷
stripe-volume 条带卷
rep-volume 复制卷
dis-stripe 分布式条带卷
dis-rep 分布式复制卷

GlusterFS部署实操

五台虚拟机:一台作为客户机,另外四台作为节点,每个虚拟机新增4块磁盘(每块磁盘20G)

角色 空间大小
node1【20.0.0.41】 20G×4
node2【20.0.0.42】 20G×4
node3【20.0.0.43】 20G×4
node4【20.0.0.44】 20G×4
客户端【20.0.0.45】

分别给四个节点服务器添加磁盘,每个节点添加4个20G磁盘

4.1 配置四台节点服务器

[root@localhost ~]# hostnamectl set-hostname node1
[root@localhost ~]# hostnamectl set-hostname node2
[root@localhost ~]# hostnamectl set-hostname node3
[root@localhost ~]# hostnamectl set-hostname node4'//重启查看分区情况,四台节点服务器一样操作就不一一列举了'
[root@node1 ~]# fdisk -l'//关闭所有节点防火墙跟防护功能,否则下面配置查看其他节点服务器会有问题'
[root@node1 ~]# systemctl stop firewalld.service 
[root@node1 ~]# setenforce 0

4.2 修改hosts文件

(当用户在浏览器中输入一个需要登录的网址时,系统会首先自动从Hosts文件中寻找对应的IP地址,一旦找到,系统会立即打开对应网页,如果没有找到,则系统会再将网址提交DNS域名解析服务器进行IP地址的解析。),添加主机名和 IP地址

[root@node2 ~]# vim /etc/hosts
//::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
#下面添加
20.0.0.41 node1
20.0.0.42 node2
20.0.0.43 node3
20.0.0.44 node4#把node1的hosts文件远程共享给另外三台节点服务器
[root@node1 ~]# scp /etc/hosts root@20.0.0.42:/etc/hosts
...省略信息....
Are you sure you want to continue connecting (yes/no)? yes     '//输入确认'
Warning: Permanently added '20.0.0.42' (ECDSA) to the list of known hosts.
root@20.0.0.42's password:                                     '//输入对方密码'
hosts                                                    100%  222   122.8KB/s   00:00  #一样操作复制到node3/4节点服务器
[root@node1 ~]# scp /etc/hosts root@20.0.0.43:/etc/hosts
[root@node1 ~]# scp /etc/hosts root@20.0.0.44:/etc/hosts:#一定要去服务器检查配置文件是否正确

4.3 挂载Gluster文件系统跟修改fstab配置文件

[root@node1 opt]# vim disk.sh
'//编写脚本'#! /bin/bash
echo "the disks exist list:"
fdisk -l |grep '磁盘 /dev/sd[a-z]'
echo "=================================================="
PS3="chose which disk you want to create:"
select VAR in `ls /dev/sd*|grep -o 'sd[b-z]'|uniq` quit
docase $VAR insda)fdisk -l /dev/sdabreak ;;sd[b-z])#create partitionsecho "npw"  | fdisk /dev/$VAR#make filesystemmkfs.xfs -i size=512 /dev/${VAR}"1" &> /dev/null#mount the systemmkdir -p /data/${VAR}"1" &> /dev/nullecho -e "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0\n" >> /etc/fstabmount -a &> /dev/nullbreak ;;quit)break;;*)echo "wrong disk,please check again";;esac
done'//增加执行脚本'
[root@node1 opt]# chmod +x disk.sh '//远程复制脚本到另外三台服务器'
[root@node1 opt]# scp disk.sh root@20.0.0.42:/opt[root@node1 opt]# scp disk.sh root@20.0.0.43:/opt[root@node1 opt]# scp disk.sh root@20.0.0.44:/opt'//执行脚本'
[root@node1 opt]# ./disk.sh 
the disks exist list:
磁盘 /dev/sda:322.1 GB, 322122547200 字节,629145600 个扇区
磁盘 /dev/sdb:21.5 GB, 21474836480 字节,41943040 个扇区
磁盘 /dev/sdc:21.5 GB, 21474836480 字节,41943040 个扇区
磁盘 /dev/sde:21.5 GB, 21474836480 字节,41943040 个扇区
磁盘 /dev/sdd:21.5 GB, 21474836480 字节,41943040 个扇区
===========================================
1) sdb
2) sdc
3) sdd
4) sde
5) quit
chose which disk you want to create:   //挨个输出1-4创建分区######
./disk.sh
1
./disk.sh
2
./disk.sh
3
./disk.sh
4
######'//查看挂载'
[root@node1 opt]# df -Th
文件系统                类型      容量  已用  可用 已用% 挂载点
....省略信息
/dev/sdc1               xfs        20G   33M   20G    1% /data/sdc1
/dev/sdd1               xfs        20G   33M   20G    1% /data/sdd1
/dev/sde1               xfs        20G   33M   20G    1% /data/s:de1
/dev/sdb1               xfs        20G   33M   20G    1% /data/sdb1

4.4 安装GlusterFS

四个节点相同操作

[root@node1 ~]# wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo#清理yum源
[root@node1 ~]# yum clean all#获取yum源列表
[root@node1 ~]# yum list#安装gluster
[root@node1 ~]# yum -y install centos-release-gluster[root@node1 ~]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma#启动glusterfs
systemctl start glusterd.service #查看状态
[root@node4 opt]# systemctl status :glusterd.service 

4.5 时间同步,每台节点都需要操作

这边必须关闭防火墙

ntpdate ntp1.aliyun.com

4.6 添加加入存储信息池只要一台主机上添加其他节点即可

[root@node1 ~]# gluster peer probe node2
peer probe: success. 
[root@node1 ~]# gluster peer probe node3
peer probe: success. 
[root@node1 ~]# gluster peer probe node4
peer probe: success. #查看所有节点
[root@node1 ~]# gluster peer status
Number of Peers: 3Hostname: node2
Uuid: 61ea3244-2d19-48dc-ab1c-e30bd4e7d01d
State: Peer in Cluster (Connected)Hostname: node3
Uuid: 134437ba-1bce-4d4a-ab62-689f99796dba
State: Peer in Cluster (Connected)Hostname: node4
Uuid: 72b81ad1-0428-4488-a146-c8a0d5b466f3
State: Peer in Cluster (Connected)

五、创建卷、部署客户端、测试文件系统

5.1 创建分布式卷

'//在node4创建  利用node1和node2上的两块磁盘创建;dis-vol为磁盘名;force表示强制'
[root@node4 opt]# gluster volume create dis-vol node1:/data/sdb1 node2:/data/sdb1 forcevolume create: dis-vol: success: please start the volume to access data#查看卷
[root@node4 opt]# gluster volume list
dis-vol#启动
[root@node4 opt]# gluster volume start dis-vol 
volume start: dis-vol: success#查看状态
[root@node4 opt]# gluster volume info dis-vol Volume Name: dis-vol
Type: Distribute
Volume ID: 351d5534-d3d1-450b-93c5-beac0a39e757
Status: Started
Snapshot Count: 0
Number of Bricks: 2
Transport-type: tcp
Bricks:
Brick1: node1:/data/sdb1
Brick2: node2:/data/sdb1
Options Reconfigured:
transport.address-family: inet
storage.fips-mode-rchecksum: on
nfs.disable: on#如果不想用可以关闭
[root@node4 opt]# gluster volume stop dis-vol #删除卷
[root@node4 opt]# gluster volume delete dis-vol 
  • 客户端配置

  • 关闭防火墙

  • 配置安装GFS源

[root@client ~]# systemctl stop firewalld.service 
[root@client ~]# setenforce 01、先下载阿里云yum源:wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo2、清理yum源:yum clean all3、获取yum源列表:yum list4、安装:yum -y install centos-release-gluster5、安装软件包:yum -y install glusterfs glusterfs-fuse  

修改hosts文件

vim /etc/hosts::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
#添加四个节点
20.0.0.41 node1
20.0.0.42 node2
20.0.0.43 node3
20.0.0.44 node4

创建临时挂载点:

[root@client opt]# mkdir -p /test/dis     #递归创建挂载点
[root@client opt]# mount.glusterfs node2:dis-vol /test/dis    #挂载分布式node2是随意 写 只要是地地址池里面的节点都行
[root@node4 opt]# df -Th
文件系统                类型            容量  已用  可用 已用% 挂载点
。。。省略信息
node2:dis-vol           fuse.glusterfs   40G  475M   40G    2% /test/dis
40G:两个空间20G加起来就是40G

测试卷:创建5个40M的文件

dd if=/dev/zero of=/demo1.log bs=1M count=40
dd if=/dev/zero of=/demo2.log bs=1M count=40
dd if=/dev/zero of=/demo3.log bs=1M count=40
dd if=/dev/zero of=/demo4.log bs=1M count=40
dd if=/dev/zero of=/demo5.log bs=1M count=40#跟目录查看5个文件
[root@client ~]# cd /
[root@client /]# ls
bin        demo2.log  dev   lib    mnt   root  srv  usr
boot       demo3.log  etc   lib64  opt   run   sys  var
demo1.log  demo4.log  home  media  proc  sbin  tmp

创建的5个文件复制到不同的卷上

[root@client /]# cp demo* /test/dis#查看
[root@client /]# ls /test/dis
demo1.log  demo2.log  demo3.log  demo4.log  demo5.log//查看多大  每个都40M
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo5.log
[root@client dis]# pwd
/test/dis
[root@client dis]# ll -h
总用量 200M
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo1.log
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo2.log
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo3.log
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo4.log
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo5.log

去node1与node2查看

可以看出每个文件按都是完整的

[root@node1 ~]# cd /data/sdb1
[root@node1 sdb1]# ll -h
总用量 160M
-rw-r--r--. 2 root root 40M 9月  13 22:45 demo1.log
-rw-r--r--. 2 root root 40M 9月  13 22:45 demo2.log
-rw-r--r--. 2 root root 40M 9月  13 22:45 demo3.log
-rw-r--r--. 2 root root 40M 9月  13 22:45 demo4.log#node2查看一下
[root@node2 opt]# cd /data/sdb1
[root@node2 sdb1]# ll -h
总用量 40M
-rw-r--r--. 2 root root 40M 9月  13 22:45 demo5.log

5.2 创建复制卷

[root@node3 opt]# gluster volume create rep-vol replica 2 node3:/data/sdb1 noode4:/data/sdb1 force#查看卷
[root@node3 opt]# gluster volume list
dis-vol
rep-vol#启动
[root@node3 opt]# gluster volume start rep-vol

客户端挂载

'//创建挂载点'
[root@client dis]# mkdir /test/rep-vol
//挂载
[root@client dis]# mount.glusterfs node2:rep-vol /test/rep-vol/#复制到挂载点
[root@client /]# cp demo* /test/rep-vol/#node3节点查看
[root@node3 sdc1]# cd /data/sdb1
[root@node3 sdb1]# ll -h
总用量 200M
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo1.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo2.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo3.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo4.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo5.log#node4节点查看 
[root@node4 opt]# cd /data/sdb1
[root@node4 sdb1]# ll -h
总用量 200M
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo1.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo2.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo3.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo4.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo5.log//node3跟node4均保留完整的副本  可靠安全的是复制卷 读写速度快的是条带卷

5.3 创建分布式复制卷

[root@node4 ~]# gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force//开启
gluster volume start dis-stripe
gluster volume info dis-stripe

客户端挂载

[root@client ~]# mkdir /test/dis-rep
[root@client ~]# mount.glusterfs node1:dis-rep /test/dis-rep/#查看挂载
[root@client ~]# df -Th
文件系统                类型            容量  已用  可用 已用% 挂载点
node1:dis-rep           fuse.glusterfs   40G  475M   40G    2% /test/dis-rep#复制卷到挂载卷
[root@client /]# cp demo* /test/dis-rep/#去node1节点查看
[root@node1 ~]# cd /data/sde1
[root@node1 sde1]# ll -h
总用量 160M
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo1.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo2.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo3.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo4.log#node2节点查看
[root@node2 ~]# cd /data/sde1
[root@node2 sde1]# ll -h
总用量 160M
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo1.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo2.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo3.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo4.log#node3查看
[root@node3 ~]# cd /data/sde1
[root@node3 sde1]# ll -h
总用量 40M
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo5.log#node4查看
[root@node4 ~]# cd /data/sde1
[root@node4 sde1]# ll -h
总用量 40M
-rw-r--r--.: 2 root root 40M 9月  14 09:04 demo5.log

5.4 破坏测试

关闭node2服务器观察结果

[root@client /]# cd /test/
[root@client test]# ls
dis  dis-rep  rep-vol
[root@client test]# ls dis                    #查看分布卷
demo1.log  demo2.log  demo3.log  demo4.log    //这边缺少deme05.log[root@client test]# ls dis-rep/                          #查看复制卷
demo1.log  demo2.log  demo3.log  demo4.log  demo5.log    #这边是完整的[root@client test]# ls rep-vol/
demo1.log  demo2.log  demo3.log  demo4.log  demo5.log   #查看分布式复制卷  也是完整的

5.5 访问控制

//仅拒绝
[root@node1 yum.repos.d]# gluster volume set dis-vol auth.reject 20.0.0.42
volume set: success//仅允许
[root@node1 yum.repos.d] gluster volume set dis-vol auth.allow 20.0.0.42
volume set: success

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注