龙空技术网

分布式文件存储方案之FastDFS的安装部署

心安科技 816

前言:

眼前朋友们对“centos65raid安装”可能比较珍视,兄弟们都想要剖析一些“centos65raid安装”的相关知识。那么小编也在网上收集了一些有关“centos65raid安装””的相关文章,希望各位老铁们能喜欢,同学们快快来了解一下吧!

一、FastDFS介绍1.1、基本简介

FastDFS是一个C语言实现的实现的开源的、高性能轻量级的、分布式文件系统(DFS),作者余庆(happyfish100),支持 Linux、FreeBSD、AID等Unix系统和Windows系统,主要功能包括:文件存储、文件同步、文件访问(上传、下载)、以及高容量和负载平衡等。主要解决了大容量存储和读写负载均衡等问题,特别适合以中小文件(建议范围:4KB < file_size <500MB)为载体的在线服务,如图片网站、短视频网站、文档、app下载站等;UC、京东、支付宝、迅雷、酷狗等都有使用,其中 UC基于FastDFS向用户提供网盘、广告和应用下载的业务的存储服务。FastDFS与 MogileF、HDFS、TFS 等都不是系统级的分布式文件系统,而是应用级的分布式文件存储服务。

FastDFS 系统有三个角色:跟踪服务器(Tracker Server)、存储服务器(Storage Server)和客户端(Client)。

Ø Tracker Server

跟踪服务器,主要做调度工作,起到均衡的作用;负责管理所有的storage server和 group,每个storage在启动 后会连接Tracker,告知自己所属groupg等信息,并保持周期性心跳, Tracker根据storage心跳信息,建立group--------->[storage server list]的映射表 ;tracker管理的元数据很少,会直接存放在内存 ;tracker上的元信息都是由 storage汇报的 信息生成汇报的,本身不需要持久化任何数据 ,tracker之间是对等关系,因此扩展tracker服务非常容易,之间增加tracker服务器即可,所有 tracker都接受 stroage心跳信息,生成元数据来提供读写服务(与其他 Master-Slave架构的优势是没有单点,tracker也不会成为瓶颈,最终数据是和一个可用的Storage Server进行传输的)。

Ø Storage Server

存储服务器,主要提供容量和备份服务;以group为单位,每个group内可以包多台storage server,数据互为备份,存储容量空间以group内容量最小的storage为准;建议group内的storage server配置相同;以group为单位组织存储能够方便的进行应用隔离、负载均衡和副本数定制;缺点是group的容量受单机存储限制,同时group内机器坏掉,数据恢复只能依赖group内其他机器重新同步(坏盘 替换,重新挂载启fdfs_storaged即可)。

多个group之间的存储方式有3种策略:round robin(轮询 )、load balance(选择最大剩余空间的组上传文件)、specify group(指定group上传)。

group中storage存储依赖本地文件系统,storage可配置多个数据存储目录,磁盘不做raid,直接分别挂载到多个目录,将这些目录配置为storage的数据目录即可。

storage接受写请求时,会根据配置好的规则,选择其中一个存储目录来存储文件;为避免单个目录下的文件过多,storage第一次启时,会在每个数据存储目录里创建2级子目录,每级256个,总共65536个,新写的文件会以hash的方式被路由到其中某个子目录下,然后将文件数据直接作为一个本地文件存储到该目录中。

Ø Client:客户端,上传下载数据的服务器,也就是我们自己的项目所部署在的服务器。

总结:1. 高可靠性、无单点故障 2.高吞吐性:只要Group足够多,数据流量是分散的。

FastDFS为互联网量身定制,充分考虑了冗余备份、负载均衡、线性扩容等机制,并注重高可用、高性能等指标,使用FastDFS很容易搭建一套高性能的文件服务器集群提供文件上传、下载等服务。

图-1:FastDFS架构图

1.2、FastDFS的存储策略

为了支持大容量,存储节点(服务器)采用了分卷(或分组)的组织方式。存储系统由一个或多个卷组成,卷与卷之间的文件是相互独立的,所有卷的文件容量累加就是整个存储系统中的文件容量。一个卷可以由一台或多台存储服务器组成,一个卷下的存储服务器中的文件都是相同的,卷中的多台存储服务器起到了冗余备份和负载均衡的作用。

在卷中增加服务器时,同步已有的文件由系统自动完成,同步完成后,系统自动将新增服务器切换到线上提供服务。当存储空间不足或即将耗尽时,可以动态添加卷。只需要增加一台或多台服务器,并将它们配置为一个新的卷,这样就扩大了存储系统的容量。

1.3、FastDFS的上传过程

FastDFS向使用者提供基本文件访问接口,比如upload、download、append、delete等,以客户端库的方式提供给用户使用。

Storage Server会定期的向Tracker Server发送自己的存储信息。当Tracker Server Cluster中的Tracker Server不止一个时,各个Tracker之间的关系是对等的,所以客户端上传时可以选择任意一个Tracker。

当Tracker收到客户端上传文件的请求时,会为该文件分配一个可以存储文件的group,当选定了group后就要决定给客户端分配group中的哪一个storage server。当分配好storage server后,客户端向storage发送写文件请求,storage将会为文件分配一个数据存储目录。然后为文件分配一个fileid,最后根据以上的信息生成文件名存储文件。

图-2:FastDFS的上传过程图

FastDFS提供基本的文件访问接口,如upload、download、append、delete等。

1.4、FastDFS的文件同步

写文件时,客户端将文件写至group内一个storage server即认为写文件成功,storage server写完文件后,会由后台线程将文件同步至同group内其他的storage server。

每个storage写文件后,同时会写一份binlog,binlog里不包含文件数据,只包含文件名等元信息,这份binlog用于后台同步,storage会记录向group内其他storage同步的进度,以便重启后能接上次的进度继续同步;进度以时间戳的方式进行记录,所以最好能保证集群内所有server的时钟保持同步。

storage的同步进度会作为元数据的一部分汇报到tracker上,tracke在选择读storage的时候会以同步进度作为参考。

1.5、FastDFS的下载过程

客户端uploadfile成功后,会拿到一个storage生成的文件名,接下来客户端根据这个文件名即可访问到该文件。

跟upload file一样,在downloadfile时客户端可以选择任意tracker server。tracker发送download请求给某个tracker,必须带上文件名信息,tracke从文件名中解析出文件的group、大小、创建时间等信息,然后为该请求选择一个storage用来服务读请求。

图-3:FastDFS下载文件过程图

client发送下载请求给某个tracker,必须带上文件名信息,tracker从文件名中解析出文件的group、大小、创建时间等信息,然后为该请求选择一个storage用于读请求;由于group内的文件同步在后台是异步进行的,可能出现文件没有同到其他storage server上或者延迟的问题,后面我们在使用nginx_fastdfs_module模块可以很好地解决这一问题

图-4:client请求及响应流程图

FastDFS提供合并存储功能,默认创建的大文件为64MB,然后在该大文件中存储很多小文件;大文件中容纳一个小文件的空间称作一个Slot,规定Slotlotlot最小值为256字节,最大为16MB,即小于256字节的文件也要占用256字节,超过16MB的文件独立存储。

为了支持文件合并机制,FastDFS生成的文件file_id需要额外增加16个字节;每个trunk file由一个id 唯一标识,trunk file由group内的trunk server负责创建(trunk server是tracker选出来的),并同步到group内其他的storage,文件存储合并存储到trunk file后,根据其文件偏移量就能从trunk file中读取文件。

二、安装FastDFS环境2.1、安装前准备

操作环境:CentOS 7.4 x64,以下所有操作都是在单机环境完成的。

A、所有的安装包都下载到/opt/tools/fastdfs目录下了,并解压到当前目录。

B、先做一件事,修改hosts,将文件服务器的ip与域名映射(单机TrackerServer环境),因为后面很多配置里面都需要去配置服务器地址,ip变了,就只需要修改hosts即可。

C、安装环境依赖包

# yum -y install gcc zlib pcre pcre-devel zlib-devel

2.2、安装libfastcommon

libfastcommon是从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库,基础环境,安装即可 。这里已经将libfastcommon下载并上传至/opt/tools/fastdfs目录。

下载地址:

A、开始安装:

# cd /opt/tools/fastdfs

# unzip libfastcommon.zip

# cd libfastcommon

# ./make.sh && ./make.sh install

2.3、安装FastDFS

下载地址:

开始安装FastDFS

# cd /opt/tools/fastdfs

# unzip fastdfs.zip

# cd fastdfs

#./make.sh && ./make.sh install

# cp -rf ./conf/* /etc/fdfs/

默认安装方式安装后的相应文件与目录

  A、服务脚本:

/etc/init.d/fdfs_storaged

/etc/init.d/fdfs_trackerd

B、配置文件(这三个是作者给的样例配置文件) :

/etc/fdfs/client.conf.sample

/etc/fdfs/storage.conf.sample

/etc/fdfs/tracker.conf.sample

C、命令工具在 /usr/bin/ 目录下:

2.4、配置FastDFS跟踪器(Tracker)

A、编辑tracker.conf ,标红的需要修改下,其它的默认即可。

# vim /etc/fdfs/tracker.conf# 配置文件是否不生效,false 为生效disabled=false# 提供服务的端口port=22122# Tracker 数据和日志目录地址(根目录必须存在,子目录会自动创建)base_path=/home/yuqing/fastdfs# HTTP 服务端口http.server_port=80

B、查看修改后内容

# grep -v "^#" /etc/fdfs/tracker.conf |grep -v "^$"

C、创建tracker基础数据目录,即base_path对应的目录

# mkdir -p /home/yuqing/fastdfs

D、防火墙中打开跟踪端口(默认的22122)

# vim /etc/sysconfig/iptables添加如下端口行:-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT重启防火墙:# service iptables restart

E、启动Tracker服务

初次成功启动,会在/home/yuqing/fastdfs(配置的base_path)下创建 data、logs 两个目录。

可以用这种方式启动# /etc/init.d/fdfs_trackerd start也可以用这种方式启动,前提是上面创建了软链接,后面都用这种方式# service fdfs_trackerd start

查看 FastDFS Tracker 是否已成功启动 ,22122端口正在被监听,则算是Tracker服务安装并启动成功。

# netstat -unltp|grep fdfs# ps -ef |grep track |grep -v 'grep'

关闭Tracker服务

# service fdfs_trackerd stop

F、设置Tracker开机启动

# chkconfig fdfs_trackerd on或者:# vim /etc/rc.d/rc.local加入配置:/etc/init.d/fdfs_trackerd start 

G、Tracker Server 目录及文件结构

Tracker服务启动成功后,会在base_path下创建data、logs两个目录。目录结构如下:

${base_path}  |__data  |   |__storage_groups.dat:存储分组信息  |   |__storage_servers.dat:存储服务器列表  |__logs  |   |__trackerd.log: tracker server 日志文件 

H、启动、重启、停止、状态查看

#启动:/usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf start#重启:/usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf restart#停止:/usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf stop#或者#启动:service fdfs_trackerd start#重启:service fdfs_trackerd restart#停止:service fdfs_trackerd stop#状态:service fdfs_trackerd status
2.5、配置FastDFS存储 (Storage)

A、在实际的生产环境中Storage节点和Tracker节点一般是不同的服务器,所以是仍须安装libfastcommon、FastDFS的,具体安装步骤请参考步骤2.2和2.3进行安装;由于本文档的安装部署是在一台服务器上进行的安装,所以这里的Storage就不再进行安装了。

B、编辑storage.conf,标红的需要修改,其它的默认即可。

# vim /etc/fdfs/storage.conf#启用配置文件disabled=false#指定此 storage server 所在 组(卷)group_name=group1#设置storage server的端口号port=23000#设置Storage数据和日志目录地址(根目录必须存在,子目录会自动生成)base_path=/home/fastdfs#存放文件时 storage server 支持多个路径。这里配置存放文件的基路径数目,通常只配一个目录,需要和store_path个数匹配store_path_count=1#逐一配置 store_path_count 个路径,索引号基于 0#如果不配置 store_path0,那它就和 base_path 对应的路径一样#文件存储路径store_path0=/home/fastdfs/image-data0#tracker服务器的IP地址和端口号列表#有多个 tracker server 时,每个 tracker server 写一行tracker_server=dahai.wang:22122#设置http访问端口号http.server_port=80# 心跳间隔时间,单位为秒 (这里是指主动向 tracker server 发送心跳)heart_beat_interval=30# FastDFS 存储文件时,采用了两级目录。这里配置存放文件的目录个数。 # 如果本参数只为 N(如: 256),那么 storage server 在初次运行时,会在 store_path 下自动创建 N * N 个存放文件的子目录。subdir_count_per_path=256# 允许系统同步的时间段 (默认是全天) 。一般用于避免高峰同步产生一些问题而设定。sync_start_time=00:00sync_end_time=23:59

C、创建Storage基础数据目录,对应base_path目录

# 这是配置的base_path路径# mkdir -p /home/fastdfs# 这是配置的store_path0路径# mkdir -p /home/fastdfs/image-data0

D、防火墙中打开存储器端口(默认的 23000)

# vim /etc/sysconfig/iptables添加如下端口行:-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT重启防火墙:# service iptables restart

E、启动 Storage

启动Storage前确保Tracker是启动的。初次启动成功,会在 /ljzsg/fastdfs/storage 目录下创建 data、 logs 两个目录。

可以用这种方式启动# /etc/init.d/fdfs_storaged start也可以用这种方式,后面都用这种# service fdfs_storaged start

查看 Storage 是否成功启动,23000 端口正在被监听,就算 Storage 启动成功。

# netstat -unltp|grep fdfs_storaged

关闭Storage命令:

# service fdfs_storaged stop

查看Storage和Tracker是否在通信:

/usr/bin/fdfs_monitor /etc/fdfs/storage.conf

F、设置 Storage 开机启动

# chkconfig fdfs_storaged on或者:# vim /etc/rc.d/rc.local加入配置:/etc/init.d/fdfs_storaged start

G、Storage 目录

同 Tracker,Storage 启动成功后,在base_path 下创建了data、logs目录,记录着 Storage Server 的信息。在 store_path0 目录下,创建了N*N个子目录:

H、启动、重启、停止、状态查看

#启动:/usr/bin/fdfs_storaged /etc/fdfs/tracker.conf start#重启:/usr/bin/fdfs_storaged /etc/fdfs/tracker.conf restart#停止:/usr/bin/fdfs_storaged /etc/fdfs/tracker.conf stop#或者#启动:service fdfs_storaged start#重启:service fdfs_storaged restart#停止:service fdfs_storaged stop#状态:service fdfs_storaged status

I、特别说明

如果是安装了多个Storage服务的情况,需要在每个服务器上全部安装storage并确认运行正常。相关配置参照步骤2.5进行修改,注意配置文件中group名参数需要根据实际情况调整,且每个group中所有storage的端口号必须一致。

2.6、文件上传测试

A、修改 Tracker 服务器中的客户端配置文件;修改如下配置即可,其它默认。

# vim /etc/fdfs/client.conf# Client 的数据和日志目录base_path=/home/yuqing/fastdfs# Tracker端口tracker_server=dahai.wang:22122#tracker服务器的http端口号http.tracker_server_port=80

B、上传测试

ü 通过fdfs_test上传

# /usr/bin/fdfs_test /etc/fdfs/client.conf upload test00.png

ü 通过fdfs_upload_file上传

# /usr/bin/fdfs_upload_file /etc/fdfs/client.conf test00.png

返回的文件ID由group、存储目录、两级子目录、fileid、文件后缀名(由客户端指定,主要用于区分文件类型)拼接而成。

3、配置fastdfs-nginx-module模块

FastDFS 通过 Tracker 服务器,将文件存放在 Storage 服务器存储, 但是同组存储服务器之间需要进行文件复制, 有同步延迟的问题。

假设 Tracker 服务器将文件上传到了 192.168.56.88,上传成功后文件 ID已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 192.168.56.89,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.56.89 上取文件,就会出现文件无法访问的错误。而 fastdfs-nginx-module 可以重定向文件链接到源服务器取文件,避免客户端由于复制延迟导致的文件无法访问错误。

3.1、模块配置

A、配置fastdfs-nginx-module插件

# cd /opt/tools/fastdfs# 解压fastdfs-nginx-module插件# unzip fastdfs-nginx-module.zip# 将FastDFS的nginx插件模块的配置文件copy到FastDFS配置文件目录# cp -rf fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/

B、编辑mod_fastdfs.conf

# vim /etc/fdfs/mod_fastdfs.conf#保存日志目录base_path=/home/fastdfs#tracker服务器的IP地址以及端口号tracker_server=dahai.wang:22122#storage服务器的端口号storage_server_port=23000#当前服务器的group名group_name=group1 #文件url中是否有group名url_have_group_name=true #存储路径个数,需要和store_path个数匹配store_path_count=1 #文件存储路径store_path0=/home/fastdfs/image-data0#从文件扩展名查找文件类型(nginx时为true)http.need_find_content_type=true#设置组的个数group_count=1 #在文件末尾增加1个组的具体信息:[group1]group_name=group1storage_server_port=23000store_path_count=1store_path0=/home/fastdfs/image-data0

C、建立M00的链接

# 建立M00至存储目录的符号连接:# ln -s /home/fastdfs/data /home/fastdfs/data/M00
4、安装Nginx并配置

经过以上步骤,已经将文件上传成功了,但我们还无法下载。因此安装Nginx作为服务器以支持Http方式访问文件。同时,后面安装FastDFS的Nginx模块也需要Nginx环境。

Nginx只需要安装到Storage Server所在的服务器即可,用于访问文件。我这里由于是单机,Tracker Server和Storage Server在一台服务器上。

4.1、安装nginx所需环境

A、安装所需依赖包

# yum -y install gcc-c++ \pcre pcre-devel \zlib zlib-devel \openssl openssl-devel
4.2、安装并配置Nginx

下载地址:

A、解压、配置、安装编译nginx

# cd /opt/tools/fastdfs# tar -zxf nginx-1.8.0.tar.gz # cd nginx-1.8.0# ./configure --prefix=/usr/local/nginx \--add-module=../fastdfs-nginx-module/src# make && make install

B、查看Nginx的模块

# /usr/local/nginx/sbin/nginx -V

有下面这个就说明添加模块成功

C、配置nginx

# 注意这一行,我特别加上了使用 root 用户去执行,不然有些目录没有权限访问user  root;worker_processes  1;events {    worker_connections  1024;}http {    include       mime.types;    default_type  application/octet-stream;    #设置缓存参数    server_names_hash_bucket_size 128;    client_header_buffer_size 32k;    large_client_header_buffers 4 32k;    client_max_body_size 300m;    sendfile       on;    tcp_nopush     on;    proxy_redirect off;    proxy_set_header Host $http_host;    proxy_set_header X-Real-IP $remote_addr;    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;    proxy_connect_timeout 90;    proxy_send_timeout 90;    proxy_read_timeout 90;    proxy_buffer_size 16k;    proxy_buffers 4 64k;    proxy_busy_buffers_size 128k;    proxy_temp_file_write_size 128k;    #设置缓存存储路径、存储方式、分配内存大小、磁盘最大空间、缓存期限    proxy_cache_path /var/cache/nginx/proxy_cache levels=1:2 keys_zone=http-cache:500m max_size=10g inactive=30d;    proxy_temp_path /var/cache/nginx/proxy_cache/tmp;    keepalive_timeout  65;    server {        listen       80;        # 访问本机        server_name  dahai.wang;        # 拦截包含 /group1/M00 请求,使用 fastdfs 这个 Nginx 模块进行转发        location ~/group[0-9]  {            ngx_fastdfs_module;        }        error_page   500 502 503 504  /50x.html;        location = /50x.html {            root html;        }    }}

注意:

listen 80 端口值是要与 /etc/fdfs/storage.conf 中的 http.server_port=80 (前面改成80了)相对应。如果改成其它端口,则需要统一,同时在防火墙中打开该端口。

  location 的配置,如果有多个group则配置location ~/group([0-9])/M00 ,没有则不用配group。

D、启动nginx

# /usr/local/nginx/sbin/nginx其它命令# /usr/local/nginx/sbin/nginx -s stop# /usr/local/nginx/sbin/nginx -s quit# /usr/local/nginx/sbin/nginx -s reload

E、设置开机启动

# vim /etc/rc.local添加一行:/usr/local/nginx/sbin/nginx# 设置执行权限# chmod 755 rc.local

F、查看nginx的版本及模块

/usr/local/nginx/sbin/nginx -V

G、防火墙中打开nginx端口(默认的 80),添加后就能在本机使用80端口访问了。

# vim /etc/sysconfig/iptables添加如下端口行:-A INPUT -m state --state NEW -m tcp -p tcp --dport 80 -j ACCEPT重启防火墙:# service iptables restart

H、在浏览器访问之前上传的图片、成功。注意和第三点中直接使用nginx路由访问不同的是,这里配置 fastdfs-nginx-module 模块,可以重定向文件链接到源服务器取文件。

I、最终部署结构图:可以按照下面的结构搭建环境。

以上就是整个搭建FastDFS分布式文件系统并实现上传下载的全部过程。欢迎评论区留言讨论。

====================【分享结束】====================

标签: #centos65raid安装