前言:
眼前朋友们对“centos65raid安装”可能比较珍视,兄弟们都想要剖析一些“centos65raid安装”的相关知识。那么小编也在网上收集了一些有关“centos65raid安装””的相关文章,希望各位老铁们能喜欢,同学们快快来了解一下吧!一、FastDFS介绍1.1、基本简介
FastDFS是一个C语言实现的实现的开源的、高性能轻量级的、分布式文件系统(DFS),作者余庆(happyfish100),支持 Linux、FreeBSD、AID等Unix系统和Windows系统,主要功能包括:文件存储、文件同步、文件访问(上传、下载)、以及高容量和负载平衡等。主要解决了大容量存储和读写负载均衡等问题,特别适合以中小文件(建议范围:4KB < file_size <500MB)为载体的在线服务,如图片网站、短视频网站、文档、app下载站等;UC、京东、支付宝、迅雷、酷狗等都有使用,其中 UC基于FastDFS向用户提供网盘、广告和应用下载的业务的存储服务。FastDFS与 MogileF、HDFS、TFS 等都不是系统级的分布式文件系统,而是应用级的分布式文件存储服务。
FastDFS 系统有三个角色:跟踪服务器(Tracker Server)、存储服务器(Storage Server)和客户端(Client)。
Ø Tracker Server
跟踪服务器,主要做调度工作,起到均衡的作用;负责管理所有的storage server和 group,每个storage在启动 后会连接Tracker,告知自己所属groupg等信息,并保持周期性心跳, Tracker根据storage心跳信息,建立group--------->[storage server list]的映射表 ;tracker管理的元数据很少,会直接存放在内存 ;tracker上的元信息都是由 storage汇报的 信息生成汇报的,本身不需要持久化任何数据 ,tracker之间是对等关系,因此扩展tracker服务非常容易,之间增加tracker服务器即可,所有 tracker都接受 stroage心跳信息,生成元数据来提供读写服务(与其他 Master-Slave架构的优势是没有单点,tracker也不会成为瓶颈,最终数据是和一个可用的Storage Server进行传输的)。
Ø Storage Server
存储服务器,主要提供容量和备份服务;以group为单位,每个group内可以包多台storage server,数据互为备份,存储容量空间以group内容量最小的storage为准;建议group内的storage server配置相同;以group为单位组织存储能够方便的进行应用隔离、负载均衡和副本数定制;缺点是group的容量受单机存储限制,同时group内机器坏掉,数据恢复只能依赖group内其他机器重新同步(坏盘 替换,重新挂载启fdfs_storaged即可)。
多个group之间的存储方式有3种策略:round robin(轮询 )、load balance(选择最大剩余空间的组上传文件)、specify group(指定group上传)。
group中storage存储依赖本地文件系统,storage可配置多个数据存储目录,磁盘不做raid,直接分别挂载到多个目录,将这些目录配置为storage的数据目录即可。
storage接受写请求时,会根据配置好的规则,选择其中一个存储目录来存储文件;为避免单个目录下的文件过多,storage第一次启时,会在每个数据存储目录里创建2级子目录,每级256个,总共65536个,新写的文件会以hash的方式被路由到其中某个子目录下,然后将文件数据直接作为一个本地文件存储到该目录中。
Ø Client:客户端,上传下载数据的服务器,也就是我们自己的项目所部署在的服务器。
总结:1. 高可靠性、无单点故障 2.高吞吐性:只要Group足够多,数据流量是分散的。
FastDFS为互联网量身定制,充分考虑了冗余备份、负载均衡、线性扩容等机制,并注重高可用、高性能等指标,使用FastDFS很容易搭建一套高性能的文件服务器集群提供文件上传、下载等服务。
1.2、FastDFS的存储策略
为了支持大容量,存储节点(服务器)采用了分卷(或分组)的组织方式。存储系统由一个或多个卷组成,卷与卷之间的文件是相互独立的,所有卷的文件容量累加就是整个存储系统中的文件容量。一个卷可以由一台或多台存储服务器组成,一个卷下的存储服务器中的文件都是相同的,卷中的多台存储服务器起到了冗余备份和负载均衡的作用。
在卷中增加服务器时,同步已有的文件由系统自动完成,同步完成后,系统自动将新增服务器切换到线上提供服务。当存储空间不足或即将耗尽时,可以动态添加卷。只需要增加一台或多台服务器,并将它们配置为一个新的卷,这样就扩大了存储系统的容量。
1.3、FastDFS的上传过程
FastDFS向使用者提供基本文件访问接口,比如upload、download、append、delete等,以客户端库的方式提供给用户使用。
Storage Server会定期的向Tracker Server发送自己的存储信息。当Tracker Server Cluster中的Tracker Server不止一个时,各个Tracker之间的关系是对等的,所以客户端上传时可以选择任意一个Tracker。
当Tracker收到客户端上传文件的请求时,会为该文件分配一个可以存储文件的group,当选定了group后就要决定给客户端分配group中的哪一个storage server。当分配好storage server后,客户端向storage发送写文件请求,storage将会为文件分配一个数据存储目录。然后为文件分配一个fileid,最后根据以上的信息生成文件名存储文件。
FastDFS提供基本的文件访问接口,如upload、download、append、delete等。
1.4、FastDFS的文件同步
写文件时,客户端将文件写至group内一个storage server即认为写文件成功,storage server写完文件后,会由后台线程将文件同步至同group内其他的storage server。
每个storage写文件后,同时会写一份binlog,binlog里不包含文件数据,只包含文件名等元信息,这份binlog用于后台同步,storage会记录向group内其他storage同步的进度,以便重启后能接上次的进度继续同步;进度以时间戳的方式进行记录,所以最好能保证集群内所有server的时钟保持同步。
storage的同步进度会作为元数据的一部分汇报到tracker上,tracke在选择读storage的时候会以同步进度作为参考。
1.5、FastDFS的下载过程
客户端uploadfile成功后,会拿到一个storage生成的文件名,接下来客户端根据这个文件名即可访问到该文件。
跟upload file一样,在downloadfile时客户端可以选择任意tracker server。tracker发送download请求给某个tracker,必须带上文件名信息,tracke从文件名中解析出文件的group、大小、创建时间等信息,然后为该请求选择一个storage用来服务读请求。
client发送下载请求给某个tracker,必须带上文件名信息,tracker从文件名中解析出文件的group、大小、创建时间等信息,然后为该请求选择一个storage用于读请求;由于group内的文件同步在后台是异步进行的,可能出现文件没有同到其他storage server上或者延迟的问题,后面我们在使用nginx_fastdfs_module模块可以很好地解决这一问题
FastDFS提供合并存储功能,默认创建的大文件为64MB,然后在该大文件中存储很多小文件;大文件中容纳一个小文件的空间称作一个Slot,规定Slotlotlot最小值为256字节,最大为16MB,即小于256字节的文件也要占用256字节,超过16MB的文件独立存储。
为了支持文件合并机制,FastDFS生成的文件file_id需要额外增加16个字节;每个trunk file由一个id 唯一标识,trunk file由group内的trunk server负责创建(trunk server是tracker选出来的),并同步到group内其他的storage,文件存储合并存储到trunk file后,根据其文件偏移量就能从trunk file中读取文件。
二、安装FastDFS环境2.1、安装前准备
操作环境:CentOS 7.4 x64,以下所有操作都是在单机环境完成的。
A、所有的安装包都下载到/opt/tools/fastdfs目录下了,并解压到当前目录。
B、先做一件事,修改hosts,将文件服务器的ip与域名映射(单机TrackerServer环境),因为后面很多配置里面都需要去配置服务器地址,ip变了,就只需要修改hosts即可。
C、安装环境依赖包
# yum -y install gcc zlib pcre pcre-devel zlib-devel
2.2、安装libfastcommon
libfastcommon是从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库,基础环境,安装即可 。这里已经将libfastcommon下载并上传至/opt/tools/fastdfs目录。
下载地址:
A、开始安装:
# cd /opt/tools/fastdfs
# unzip libfastcommon.zip
# cd libfastcommon
# ./make.sh && ./make.sh install
2.3、安装FastDFS
下载地址:
开始安装FastDFS
# cd /opt/tools/fastdfs
# unzip fastdfs.zip
# cd fastdfs
#./make.sh && ./make.sh install
# cp -rf ./conf/* /etc/fdfs/
默认安装方式安装后的相应文件与目录
A、服务脚本:
/etc/init.d/fdfs_storaged
/etc/init.d/fdfs_trackerd
B、配置文件(这三个是作者给的样例配置文件) :
/etc/fdfs/client.conf.sample
/etc/fdfs/storage.conf.sample
/etc/fdfs/tracker.conf.sample
C、命令工具在 /usr/bin/ 目录下:
2.4、配置FastDFS跟踪器(Tracker)
A、编辑tracker.conf ,标红的需要修改下,其它的默认即可。
# vim /etc/fdfs/tracker.conf# 配置文件是否不生效,false 为生效disabled=false# 提供服务的端口port=22122# Tracker 数据和日志目录地址(根目录必须存在,子目录会自动创建)base_path=/home/yuqing/fastdfs# HTTP 服务端口http.server_port=80
B、查看修改后内容
# grep -v "^#" /etc/fdfs/tracker.conf |grep -v "^$"
C、创建tracker基础数据目录,即base_path对应的目录
# mkdir -p /home/yuqing/fastdfs
D、防火墙中打开跟踪端口(默认的22122)
# vim /etc/sysconfig/iptables添加如下端口行:-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT重启防火墙:# service iptables restart
E、启动Tracker服务
初次成功启动,会在/home/yuqing/fastdfs(配置的base_path)下创建 data、logs 两个目录。
可以用这种方式启动# /etc/init.d/fdfs_trackerd start也可以用这种方式启动,前提是上面创建了软链接,后面都用这种方式# service fdfs_trackerd start
查看 FastDFS Tracker 是否已成功启动 ,22122端口正在被监听,则算是Tracker服务安装并启动成功。
# netstat -unltp|grep fdfs# ps -ef |grep track |grep -v 'grep'
关闭Tracker服务
# service fdfs_trackerd stop
F、设置Tracker开机启动
# chkconfig fdfs_trackerd on或者:# vim /etc/rc.d/rc.local加入配置:/etc/init.d/fdfs_trackerd start
G、Tracker Server 目录及文件结构
Tracker服务启动成功后,会在base_path下创建data、logs两个目录。目录结构如下:
${base_path} |__data | |__storage_groups.dat:存储分组信息 | |__storage_servers.dat:存储服务器列表 |__logs | |__trackerd.log: tracker server 日志文件
H、启动、重启、停止、状态查看
#启动:/usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf start#重启:/usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf restart#停止:/usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf stop#或者#启动:service fdfs_trackerd start#重启:service fdfs_trackerd restart#停止:service fdfs_trackerd stop#状态:service fdfs_trackerd status2.5、配置FastDFS存储 (Storage)
A、在实际的生产环境中Storage节点和Tracker节点一般是不同的服务器,所以是仍须安装libfastcommon、FastDFS的,具体安装步骤请参考步骤2.2和2.3进行安装;由于本文档的安装部署是在一台服务器上进行的安装,所以这里的Storage就不再进行安装了。
B、编辑storage.conf,标红的需要修改,其它的默认即可。
# vim /etc/fdfs/storage.conf#启用配置文件disabled=false#指定此 storage server 所在 组(卷)group_name=group1#设置storage server的端口号port=23000#设置Storage数据和日志目录地址(根目录必须存在,子目录会自动生成)base_path=/home/fastdfs#存放文件时 storage server 支持多个路径。这里配置存放文件的基路径数目,通常只配一个目录,需要和store_path个数匹配store_path_count=1#逐一配置 store_path_count 个路径,索引号基于 0#如果不配置 store_path0,那它就和 base_path 对应的路径一样#文件存储路径store_path0=/home/fastdfs/image-data0#tracker服务器的IP地址和端口号列表#有多个 tracker server 时,每个 tracker server 写一行tracker_server=dahai.wang:22122#设置http访问端口号http.server_port=80# 心跳间隔时间,单位为秒 (这里是指主动向 tracker server 发送心跳)heart_beat_interval=30# FastDFS 存储文件时,采用了两级目录。这里配置存放文件的目录个数。 # 如果本参数只为 N(如: 256),那么 storage server 在初次运行时,会在 store_path 下自动创建 N * N 个存放文件的子目录。subdir_count_per_path=256# 允许系统同步的时间段 (默认是全天) 。一般用于避免高峰同步产生一些问题而设定。sync_start_time=00:00sync_end_time=23:59
C、创建Storage基础数据目录,对应base_path目录
# 这是配置的base_path路径# mkdir -p /home/fastdfs# 这是配置的store_path0路径# mkdir -p /home/fastdfs/image-data0
D、防火墙中打开存储器端口(默认的 23000)
# vim /etc/sysconfig/iptables添加如下端口行:-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT重启防火墙:# service iptables restart
E、启动 Storage
启动Storage前确保Tracker是启动的。初次启动成功,会在 /ljzsg/fastdfs/storage 目录下创建 data、 logs 两个目录。
可以用这种方式启动# /etc/init.d/fdfs_storaged start也可以用这种方式,后面都用这种# service fdfs_storaged start
查看 Storage 是否成功启动,23000 端口正在被监听,就算 Storage 启动成功。
# netstat -unltp|grep fdfs_storaged
关闭Storage命令:
# service fdfs_storaged stop
查看Storage和Tracker是否在通信:
/usr/bin/fdfs_monitor /etc/fdfs/storage.conf
F、设置 Storage 开机启动
# chkconfig fdfs_storaged on或者:# vim /etc/rc.d/rc.local加入配置:/etc/init.d/fdfs_storaged start
G、Storage 目录
同 Tracker,Storage 启动成功后,在base_path 下创建了data、logs目录,记录着 Storage Server 的信息。在 store_path0 目录下,创建了N*N个子目录:
H、启动、重启、停止、状态查看
#启动:/usr/bin/fdfs_storaged /etc/fdfs/tracker.conf start#重启:/usr/bin/fdfs_storaged /etc/fdfs/tracker.conf restart#停止:/usr/bin/fdfs_storaged /etc/fdfs/tracker.conf stop#或者#启动:service fdfs_storaged start#重启:service fdfs_storaged restart#停止:service fdfs_storaged stop#状态:service fdfs_storaged status
I、特别说明
如果是安装了多个Storage服务的情况,需要在每个服务器上全部安装storage并确认运行正常。相关配置参照步骤2.5进行修改,注意配置文件中group名参数需要根据实际情况调整,且每个group中所有storage的端口号必须一致。
2.6、文件上传测试
A、修改 Tracker 服务器中的客户端配置文件;修改如下配置即可,其它默认。
# vim /etc/fdfs/client.conf# Client 的数据和日志目录base_path=/home/yuqing/fastdfs# Tracker端口tracker_server=dahai.wang:22122#tracker服务器的http端口号http.tracker_server_port=80
B、上传测试
ü 通过fdfs_test上传
# /usr/bin/fdfs_test /etc/fdfs/client.conf upload test00.png
ü 通过fdfs_upload_file上传
# /usr/bin/fdfs_upload_file /etc/fdfs/client.conf test00.png
返回的文件ID由group、存储目录、两级子目录、fileid、文件后缀名(由客户端指定,主要用于区分文件类型)拼接而成。
3、配置fastdfs-nginx-module模块
FastDFS 通过 Tracker 服务器,将文件存放在 Storage 服务器存储, 但是同组存储服务器之间需要进行文件复制, 有同步延迟的问题。
假设 Tracker 服务器将文件上传到了 192.168.56.88,上传成功后文件 ID已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 192.168.56.89,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.56.89 上取文件,就会出现文件无法访问的错误。而 fastdfs-nginx-module 可以重定向文件链接到源服务器取文件,避免客户端由于复制延迟导致的文件无法访问错误。
3.1、模块配置
A、配置fastdfs-nginx-module插件
# cd /opt/tools/fastdfs# 解压fastdfs-nginx-module插件# unzip fastdfs-nginx-module.zip# 将FastDFS的nginx插件模块的配置文件copy到FastDFS配置文件目录# cp -rf fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/
B、编辑mod_fastdfs.conf
# vim /etc/fdfs/mod_fastdfs.conf#保存日志目录base_path=/home/fastdfs#tracker服务器的IP地址以及端口号tracker_server=dahai.wang:22122#storage服务器的端口号storage_server_port=23000#当前服务器的group名group_name=group1 #文件url中是否有group名url_have_group_name=true #存储路径个数,需要和store_path个数匹配store_path_count=1 #文件存储路径store_path0=/home/fastdfs/image-data0#从文件扩展名查找文件类型(nginx时为true)http.need_find_content_type=true#设置组的个数group_count=1 #在文件末尾增加1个组的具体信息:[group1]group_name=group1storage_server_port=23000store_path_count=1store_path0=/home/fastdfs/image-data0
C、建立M00的链接
# 建立M00至存储目录的符号连接:# ln -s /home/fastdfs/data /home/fastdfs/data/M004、安装Nginx并配置
经过以上步骤,已经将文件上传成功了,但我们还无法下载。因此安装Nginx作为服务器以支持Http方式访问文件。同时,后面安装FastDFS的Nginx模块也需要Nginx环境。
Nginx只需要安装到Storage Server所在的服务器即可,用于访问文件。我这里由于是单机,Tracker Server和Storage Server在一台服务器上。
4.1、安装nginx所需环境
A、安装所需依赖包
# yum -y install gcc-c++ \pcre pcre-devel \zlib zlib-devel \openssl openssl-devel4.2、安装并配置Nginx
下载地址:
A、解压、配置、安装编译nginx
# cd /opt/tools/fastdfs# tar -zxf nginx-1.8.0.tar.gz # cd nginx-1.8.0# ./configure --prefix=/usr/local/nginx \--add-module=../fastdfs-nginx-module/src# make && make install
B、查看Nginx的模块
# /usr/local/nginx/sbin/nginx -V
有下面这个就说明添加模块成功
C、配置nginx
# 注意这一行,我特别加上了使用 root 用户去执行,不然有些目录没有权限访问user root;worker_processes 1;events { worker_connections 1024;}http { include mime.types; default_type application/octet-stream; #设置缓存参数 server_names_hash_bucket_size 128; client_header_buffer_size 32k; large_client_header_buffers 4 32k; client_max_body_size 300m; sendfile on; tcp_nopush on; proxy_redirect off; proxy_set_header Host $http_host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_connect_timeout 90; proxy_send_timeout 90; proxy_read_timeout 90; proxy_buffer_size 16k; proxy_buffers 4 64k; proxy_busy_buffers_size 128k; proxy_temp_file_write_size 128k; #设置缓存存储路径、存储方式、分配内存大小、磁盘最大空间、缓存期限 proxy_cache_path /var/cache/nginx/proxy_cache levels=1:2 keys_zone=http-cache:500m max_size=10g inactive=30d; proxy_temp_path /var/cache/nginx/proxy_cache/tmp; keepalive_timeout 65; server { listen 80; # 访问本机 server_name dahai.wang; # 拦截包含 /group1/M00 请求,使用 fastdfs 这个 Nginx 模块进行转发 location ~/group[0-9] { ngx_fastdfs_module; } error_page 500 502 503 504 /50x.html; location = /50x.html { root html; } }}
注意:
listen 80 端口值是要与 /etc/fdfs/storage.conf 中的 http.server_port=80 (前面改成80了)相对应。如果改成其它端口,则需要统一,同时在防火墙中打开该端口。
location 的配置,如果有多个group则配置location ~/group([0-9])/M00 ,没有则不用配group。
D、启动nginx
# /usr/local/nginx/sbin/nginx其它命令# /usr/local/nginx/sbin/nginx -s stop# /usr/local/nginx/sbin/nginx -s quit# /usr/local/nginx/sbin/nginx -s reload
E、设置开机启动
# vim /etc/rc.local添加一行:/usr/local/nginx/sbin/nginx# 设置执行权限# chmod 755 rc.local
F、查看nginx的版本及模块
/usr/local/nginx/sbin/nginx -V
G、防火墙中打开nginx端口(默认的 80),添加后就能在本机使用80端口访问了。
# vim /etc/sysconfig/iptables添加如下端口行:-A INPUT -m state --state NEW -m tcp -p tcp --dport 80 -j ACCEPT重启防火墙:# service iptables restart
H、在浏览器访问之前上传的图片、成功。注意和第三点中直接使用nginx路由访问不同的是,这里配置 fastdfs-nginx-module 模块,可以重定向文件链接到源服务器取文件。
I、最终部署结构图:可以按照下面的结构搭建环境。
以上就是整个搭建FastDFS分布式文件系统并实现上传下载的全部过程。欢迎评论区留言讨论。
====================【分享结束】====================
标签: #centos65raid安装