mfs使用指引(推荐)

客户端工具集

    mfsgetgoal      #设定副本数
    mfssetgoal      #获取副本数
    mfscopygoal     #
    mfsgetsclass
    mfssetsclass
    mfscopysclass
    mfsxchgsclass
    mfslistsclass
    mfsgettrashtime     #设定回收站时间
    mfssettrashtime     #设定回收站时间
    mfscopytrashtime
    mfsgeteattr     #设置权限
    mfsseteattr     #获取权限
    mfsdeleattr
    mfscopyeattr
    mfsgetquota
    mfssetquota
    mfsdelquota
    mfscopyquota
    mfscheckfile        #检查文件
    mfsfileinfo     #文件信息
    mfsappendchunks
    mfsdirinfo      #目录信息
    mfsfilerepair       #文件修复
    mfsmakesnapshot     #快照
    mfsfilepaths
    mfschkarchive
    mfssetarchive
    mfsclrarchive
    mfsscadmin

deprecated tools:                                  // 递归设置
        mfsrgetgoal = mfsgetgoal -r
        mfsrsetgoal = mfssetgoal -r
        mfsrgettrashtime = mfsgettreshtime -r
        mfsrsettrashtime = mfssettreshtime -r

mfsmaster运行目录下的文件介绍

     metadata.mfs.back  #MFS元数据信息,延迟将内存数据写入文件,默认频率1h,默认1d同步一次此文件到metalogger server
      changelog.*.mfs      #文件操作日志记录,实时记录、同步到metalogger server
      sessions.mfs  #客户操作状态记录
      stats.mfs        #?

mfsmaster的权限管理(类似于nfs的exports文件)

    vi /etc/mfs/mfsexports.cfg

#客户端IP        允许挂载的目录  客户端拥有的权限
192.168.1.5     /            rw,alldirs,maproot=0  # /标识MFS的根(读写的方式共享,允许挂载任何指定的子目录)
192.168.0.0/24     .         rw                    # .标识MFSMETA 文件系统

#客户端           #目录部分需要注意两点         #权限部分
#* 所有客户机       / 标识MooseFS 根               ro 只读模式共享
#f.f.f.f 单个主机      . 表示MFSMETA 文件系统            rw 读写的方式共享
#f.f.f.f/p 某个子网段                       alldirs 允许挂载任何指定的子目录
#f.f.f.f-d.d.d.d 某两个ip段区间                  maproot 映射为root,还是指定的用户
                                password 指定客户端密码

客户端挂载文件系统(使用命令:mfsmount)

mfsmount可用参数
    -H  #接管理服务器IP
    -P  #接管理服务器端口
    -S  #指出被挂接mfs 目录的子目录,默认是/目录,就是挂载整个mfs 目录
    -m  #这样可以挂载一个辅助的文件系统mfsmeta,辅助文件系统可以在如下两个方面恢复丢失的数据

设定数据副本数量

#设定数据副本数量
    #在客户挂载好的目录下创建,两个用于测试的目录
    mkdir /data/test{1,2}

    #设置存放文件的份数
    mfssetgoal 1 /data/test1    #注意:对于已经存在的文件不会改变其副本数,只对后续新写入的文件副本数生效
    mfssetgoal -r 2 /data/test2 #此时所有已存在的文件及子目录副本数为2,并且新写入的文件和子目录的副本数也为2

    #注意若是空文件,那么在后端chunk上是不会创建文件的,只会出现在元数据中
    #注意:文件及目录所保留的真实副本数是依据数据存储服务器的数量,如果数据存储服服务器只有两台,但却为文件及目录设定了3个副本的话,最后的真实副本数为2

    #复制文件到对应的目录
    cp /etc/hosts /data/test1
    cp /etc/hosts /data/test2

    #验证1
[root@client68 ~]# mfsfileinfo /data/test1/hosts 
/data/test1/hosts:
    chunk 0: 0000000000000029_00000001 / (id:41 ver:1)
        copy 1: 192.168.1.65:9422 (status:VALID)

[root@client68 ~]# mfsfileinfo /data/test2/hosts 
/data/test2/hosts:
    chunk 0: 000000000000002A_00000001 / (id:42 ver:1)
        copy 1: 192.168.1.66:9422 (status:VALID)
        copy 2: 192.168.1.67:9422 (status:VALID)

    #验证2
[root@client68 ~]# mfsgetgoal /data/
/data/: 2
[root@client68 ~]# mfsgetgoal /data/test1
/data/test1: 1
[root@client68 ~]# mfsgetgoal /data/test2
/data/test2: 2

设定垃圾回收站,回收时间(使用命令:mfssettrashtime ,可以使用-r 参数递归)

    #一个被删除文件能够存放在一个“ 垃圾箱”的时间就是一个隔离时间, 这个时间可以用 mfsgettrashtime 命令来验证,也可以使用`mfssettrashtime 命令来设置

    #设置删除文件最长保留时间,单位为秒(0:表示立即彻底删除,1小时:3600;1天:86400;一周:604800;1月:2592000)
    mfssettrashtime 64800 /data/test1   

    mfsgettrashtime /data/test1     #获取删除文件最长保留时间(验证)

快照snapshot(使用命令:mfsmakesnapshot)

快照snapshot(使用命令:mfsmakesnapshot)
    #可以给任何一个文件或目录树做快照,前提是必须是在mfs体系里的
    #语法:mfsmakesnapshot src dst
    mfsmakesnapshot /data/test2/hosts /data/

    #是在一次执行中整合了一个或是一组文件的拷贝,而且任何修改这些文件的源文件都不会影响到源文件的快照, 就是说任何对源文件的操作,例如写入源文件,将不会修改副本

    a:对一个文件做snapshot后,查看两个文件的块,是同一个块。把原文件删除,原文件删除后(回收站中最初可以看到,但一段时间后,回收站中就彻底删除了),snapshot文件仍然存在,并且可以访问。使用mfsfileinfo查看,发现仍然是原来的块。

    b:对一个文件做snapshot后,查看两个文件的块,是同一个块。把原文件修改后,发现原文件使用的块名变了,即使用的是一个新块。而snapshot文件仍然使用原来的块。

如何在回收站(trash)中将删除的数据恢复

如何在回收站(trash)中将删除的数据恢复
    #思路:在垃圾箱有效时限内,挂载mfsmeta文件系统,定位到被删除的文件,将其移动到所在目录下的 undel 目录即可

    1:确保垃圾箱的回收时间稍大一点,方便做实验
[root@client68 undel]# mfsgettrashtime /data/test1/
/data/test1/: 86400

    2:创建文件,输入内容,然后保存,并删除
    touch /data/test1/hello
    echo "我们是共产主义接班人" >> /data/test1/hello

    rm  /data/test1/hello

    3:先挂载mfsmeta文件系统
    mount -m -H 192.168.1.61 /tmp/ceshi

    4:定位文件(根据文件名)
[root@client68 ~]# find /tmp/ceshi/trash/ -name "*hello*"  
/tmp/ceshi/trash/00F/0000000F|test1|hello

    5:查看定位到文件内容(注意:一定要用单引号)
[root@client68 ~]# cat '/tmp/ceshi/trash/00F/0000000F|test1|hello'
test1/hello

    6:恢复文件成功(移动这个文件到文件所在目录下的undel下面,将会使原始的文件恢复到正确的MFS文件系统原来的路径下)
[root@client68 ~]# cd /tmp/ceshi/trash/00F
[root@client68 00F]# ls
0000000F|test1|hello  undel
[root@client68 00F]# pwd
/tmp/ceshi/trash/00F
[root@client68 00F]# mv 0000000F\|test1\|hello ./undel/
[root@client68 00F]# ls /data/test1/
hello
[root@client68 00F]# cat /data/test1/hello 
我们是共产主义接班人

    #注意:在恢复文件的时候,原来被删文件下面的目录下,不能有同名文件,不然恢复不成功

MFS元数据备份

通常元数据有两部分的数据:

    #主要元数据文件metadata.mfs,当mfsmaster 运行的时候会被命名为metadata.mfs.back
    元数据改变日志changelog.*.mfs,存储了过去的N 小时的文件改变(N 的数值是由BACK_LOGS参数设置的,参数的设置在mfschunkserver.cfg 配置文件中)。

    #主要的元数据文件需要定期备份,备份的频率取决于取决于多少小时changelogs 储存。元数据changelogs 实时的自动复制。1.6版本中这个工作都由metalogger完成。

MFSMaster的恢复

    #需要最后一个元数据日志changelog 并入主要的metadata 中。这个操作时通过 mfsmetarestore 工具做的
    #先修复(几次测试发现:如果mfsmetarestore -a无法修复,则使用metalogger也无法修复)
    mfsmetarestore -a

    #如果master 数据被存储在MooseFS 编译指定地点外的路径,则要利用-d 参数指定使用,如:
    mfsmetarestore -a -d /opt/mfsmaster

    #再启动(才能成功)

    #强制使用metadata.mfs.back创建metadata.mfs,可以启动master,但应该会丢失1小时的数据。
    #明确表示会丢失故障点到上一个整点之间的数据。和之前我猜测的一致。因为对mfs的操作日志都记录到changelog.0.mfs里面。changelog.0.mfs每小时合并一次到metadata.mfs中,如果突然断电,则changelog.0.mfs里面的信息就没有合并到metadata中,强制使用metadata.mfs.back创建metadata.mfs,就会导致丢失changelog.0.mfs里的数据。

从MetaLogger中恢复Master

    #在MetaLogger上,使用mfsmetarestore -a 命令,合并changelogs,然后将其角色提升为mfsmaster.
    #强制使用metadata.mfs.back创建metadata.mfs,可以启动master,但丢失的数据暂无法确定
声明:本文为原创,作者为 辣条①号,转载时请保留本声明及附带文章链接:https://boke.wsfnk.com/archives/500.html
微信打赏微信打赏

如果文章对你有帮助,欢迎点击上方按钮打赏作者

最后编辑于:2020/1/15作者: 辣条①号

现在在做什么? 接下来打算做什么? 你的目标什么? 期限还有多少? 进度如何?

暂无评论

发表评论

电子邮件地址不会被公开。 必填项已用*标注