龙空技术网

单机版Ceph环境部署,Linux平台

数据存储张 539

前言:

现时同学们对“ubuntu单机ceph”可能比较讲究,咱们都想要剖析一些“ubuntu单机ceph”的相关内容。那么小编也在网摘上收集了一些关于“ubuntu单机ceph””的相关知识,希望我们能喜欢,咱们一起来了解一下吧!

Ceph已经如火如荼,很多公司都在使用Ceph作为自己的存储系统。日常学习不太可能安装一个Ceph集群,因此本文介绍如何部署一个单节点的Ceph系统。另外,本文安装的后端存储引擎是BlueStore,这个引擎是目前性能比较好,且成熟的引擎。

环境说明单节点:可以是VMWare或者VirtualBox虚拟机操作系统: CentOS 7.4 或者 Ubuntu 18.04部署工具:使用 ceph-deploy 进行部署安装软件ceph-deploy

我们针对目前比较流行的2个发行版分别介绍,也就是CentOS和Ubuntu系统。对于其它发行版本文暂时不做介绍。

CentOS 7.4

准备 centos 7.4 系统的机器(可以是物理机或者虚拟机),并配置好 ssh 的无密码登录。

需要注意的是这里需要的版本是2.0,不要使用系统默认的版本(默认版本可能是1.x)。因为默认版本比较低,可能无法使用BlueStore特性。

yum install 

Ubuntu 18.04

对于Ubuntu系统需要添加安装源,如果使用系统默认的安装源ceph-deploy版本太低,后续操作会有问题。

wget -q -O- '' | sudo apt-key add -echo deb -{ceph-stable-release}/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list

上述命令中的ceph-stable-release是希望安装Ceph的版本,在具体安装时需要替换掉,比如希望安装L版本则需要替换成字符串luminous, 如果希望安装M版时,需要替换成字符串mimic。下面是一个具体的例子。

echo deb  $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list

添加完安装源后,更新apt缓存,然后就可以安装ceph-deploy了,具体命令如下:

sudo apt updatesudo apt -y install ceph-deploy
安装ceph软件包

创建新集群

安装完ceph-deploy之后就可以通过它安装ceph软件了(后续安装与发行版没有关系了),当然首先要创建一个ceph集群。创建ceph集群也是通过ceph-deploy命令,其本质上是创建配置文件和key文件。

mkdir mycephcd mycephceph-deploy new zhangsn

因为我们是单节点ceph集群,因此需要将集群的副本数量设置为1,这样方便一些。具体方法是把如下内容加入到 ceph.conf 里面。

[global]osd pool default size = 1osd pool default min size = 1

安装 ceph 软件

修改完配置文件之后,我们就可以安装Ceph软件包了。以安装L版本的软件为例,执行如下命令即可。

ceph-deploy install --release luminous zhangsn
配置服务及资源

初始化 mon

Ceph的整个集群的状态和配置信息等都是通过一个名为Monitor的集群管理的,因此首先需要启动Monitor服务。可以执行如下命令完成:

ceph-deploy mon create-initialceph-deploy admin zhangsn

启动Monitor节点后Ceph集群就可以访问了,通过ceph -s命令可以查看集群的状态。

图1 Ceph集群状态

部署ceph mgr

ceph mgr也是一个必须部署的组件,可以通过如下命令部署。

ceph-deploy mgr create zhangsn

部署ceph osd

我们知道OSD是Ceph中存储数据的节点,前面我们部署了Monitor节点,接下来部署 ceph osd。为了便于我们后续研究BlueStore的架构及原理,我们创建2种类型的OSD,一个是具有3个逻辑卷的OSD(模拟不同类型的存储介质),另外一个是只有一个逻辑卷的OSD。

首先创建具有3个逻辑卷的OSD,分别是db、wal和data。分别执行如下命令创建卷组和逻辑卷。

$ pvcreate /dev/sdb Physical volume "/dev/sdb" successfully created.$ vgcreate ceph-pool /dev/sdb Volume group "ceph-pool" successfully created$ lvcreate -n osd0.wal -L 1G ceph-pool Logical volume "osd0.wal" created.$ lvcreate -n osd0.db -L 1G ceph-pool Logical volume "osd0.db" created.$ lvcreate -n osd0 -l 100%FREE ceph-pool Logical volume "osd0" created.

完成逻辑卷的创建后我们就可以创建 OSD 了。

ceph-deploy osd create \ --data ceph-pool/osd0 \ --block-db ceph-pool/osd0.db \ --block-wal ceph-pool/osd0.wal \ --bluestore zhangsn

如果一切顺利,经过上述步骤后就完成了一个最小的集群的创建了。可以在通过ceph -s查看一下状态。

图2 Ceph集群状态

接下来我们在创建一个运行在整个裸盘上的OSD,也是通过ceph-deploy进行创建,具体命令如下:

ceph-deploy osd create --bluestore zhangsn --data /dev/sdc

至此,我们完成了整个安装过程,可以通过前面的命令看一下集群的状态,本文不在赘述。BlueStore在设计的时候就可以支持多个分区,主要目的是为了在同一个OSD的不同内容使用不同的存储介质。例如,对于元数据采用更高性能的SSD。

今天我们部署了一个基本的环境,后续我们将依赖该环境进行后续的学习,比如BlueStore的实现原理和代码分析等等。

标签: #ubuntu单机ceph