|
| 1 | +# Cài đặt Ceph Storage Cluster 3 Node Jewel - CentOS 7 |
| 2 | +--- |
| 3 | +## Chuẩn bị |
| 4 | +### Về tài nguyên |
| 5 | + |
| 6 | +__Yêu cầu sử dụng 3 node, tất cả cài đặt CentOS 7__ |
| 7 | + |
| 8 | +| Tên node | Public Network | Cluster Network | |
| 9 | +|---|---|---| |
| 10 | +| ceph-admin | 192.168.2.133 | 192.168.3.128 | |
| 11 | +| ceph-node-1 | 192.168.2.134 | 192.168.3.129 | |
| 12 | +| ceph-node-2 | 192.168.2.135 | 192.168.3.130 | |
| 13 | + |
| 14 | +> quyền root trên tất cả các node |
| 15 | +
|
| 16 | +### Cấu hình mỗi máy |
| 17 | +#### __ceph-admin__ |
| 18 | +``` |
| 19 | +CPU: 2 core |
| 20 | +RAM: 2 GB |
| 21 | +Hard Disk: 50 GB |
| 22 | +``` |
| 23 | + |
| 24 | +#### __ceph-node-1__ |
| 25 | +``` |
| 26 | +CPU: 2 core |
| 27 | +RAM: 2 GB |
| 28 | +Hard Disk: 50 GB |
| 29 | +Hard Disk: 20 GB (Dùng cho Ceph Cluster) |
| 30 | +``` |
| 31 | + |
| 32 | +#### __ceph-node-2__ |
| 33 | +``` |
| 34 | +CPU: 2 core |
| 35 | +RAM: 2 GB |
| 36 | +Hard Disk: 50 GB |
| 37 | +Hard Disk: 20 GB (Dùng cho Ceph Cluster) |
| 38 | +``` |
| 39 | + |
| 40 | +## Cài đặt |
| 41 | +### Phần 1 - Cấu hình chuẩn bị trên tất cả các node |
| 42 | +#### Bước 1: Tạo Ceph User |
| 43 | +Tạo Ceph user 'cephuser' trên tất các các nodes. |
| 44 | +``` |
| 45 | +useradd -d /home/cephuser -m cephuser |
| 46 | +passwd cephuser |
| 47 | +``` |
| 48 | +Cấp quyền root cho user vừa tạo |
| 49 | +``` |
| 50 | +echo "cephuser ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/cephuser |
| 51 | +chmod 0440 /etc/sudoers.d/cephuser |
| 52 | +sed -i s'/Defaults requiretty/#Defaults requiretty'/g /etc/sudoers |
| 53 | +``` |
| 54 | +#### Bước 2: Cấu hình NTP |
| 55 | +Sử dụng NTP đồng bộ thời gian trên tất cả các Node. |
| 56 | +> Ở đây sử dụng NTP pool US. |
| 57 | +
|
| 58 | +``` |
| 59 | +yum install -y ntp ntpdate ntp-doc |
| 60 | +ntpdate 0.us.pool.ntp.org |
| 61 | +hwclock --systohc |
| 62 | +systemctl enable ntpd.service |
| 63 | +systemctl start ntpd.service |
| 64 | +``` |
| 65 | + |
| 66 | +#### Bước 3 (Tùy chọn): Nếu chạy tất cả node trên VMware, cần sử dụng công cụ hỗ trợ |
| 67 | +``` |
| 68 | +yum install -y open-vm-tools |
| 69 | +``` |
| 70 | + |
| 71 | +#### Bước 4: Hủy bỏ SELinux |
| 72 | +``` |
| 73 | +sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config |
| 74 | +``` |
| 75 | + |
| 76 | +#### Bước 5: Cấu hình Host File |
| 77 | +Cấu hình trên tất cả các node |
| 78 | +``` |
| 79 | +vim /etc/hosts |
| 80 | +
|
| 81 | +# content |
| 82 | +192.168.2.133 ceph-admin |
| 83 | +
|
| 84 | +192.168.2.134 ceph-node-1 |
| 85 | +
|
| 86 | +192.168.2.135 ceph-node-2 |
| 87 | +``` |
| 88 | +> Ping thử tới các host, kiếm tra Network |
| 89 | +
|
| 90 | +> VD: ping -c ceph-node-1 |
| 91 | +
|
| 92 | +### Phần 2: Cấu hình SSH Server |
| 93 | +> __Cấu hình trên ceph-admin node__ |
| 94 | +
|
| 95 | +Sẽ sử dụng admin node để cấu hình các node còn lại. |
| 96 | + |
| 97 | +#### Bước 1: Truy cập ceph-admin |
| 98 | +``` |
| 99 | +ssh root@ceph-admin |
| 100 | +``` |
| 101 | +> Sử dụng admin node để cài đặt các node còn lại, vì vậy ceph-admin node cần có khả năng truy cập tới các node còn lại. |
| 102 | +
|
| 103 | +#### Bước 2: Tạo ssh-key |
| 104 | +``` |
| 105 | +ssh-keygen |
| 106 | +``` |
| 107 | +> Để khoảng trắng trên các lựa chọn |
| 108 | +
|
| 109 | + |
| 110 | +#### Bước 3: Cấu hình ssh file |
| 111 | +``` |
| 112 | +vim ~/.ssh/config |
| 113 | +
|
| 114 | +# content |
| 115 | +
|
| 116 | +Host ceph-admin |
| 117 | + Hostname ceph-admin |
| 118 | + User cephuser |
| 119 | +
|
| 120 | +Host ceph-node-1 |
| 121 | + Hostname ceph-node-1 |
| 122 | + User cephuser |
| 123 | +
|
| 124 | +Host ceph-node-2 |
| 125 | + Hostname ceph-node-2 |
| 126 | + User cephuser |
| 127 | +``` |
| 128 | +Thay đổi quyền trên file |
| 129 | +``` |
| 130 | +chmod 644 ~/.ssh/config |
| 131 | +``` |
| 132 | + |
| 133 | +Chuyển ssh-key tới các node còn lại |
| 134 | +``` |
| 135 | +ssh-keyscan ceph-admin ceph-node-1 ceph-node-2 >> ~/.ssh/known_hosts |
| 136 | +ssh-copy-id ceph-admin |
| 137 | +ssh-copy-id ceph-node-1 |
| 138 | +ssh-copy-id ceph-node-2 |
| 139 | +``` |
| 140 | +> Yều cầu nhập passwd trong lần đầu tiền truy cập |
| 141 | +
|
| 142 | +### Phần 3: Cấu hình Firewalld |
| 143 | +#### Tùy chọn 1: Cấu hình dựa theo lab |
| 144 | +Trong lab ta sẽ bỏ qua cấu hình firewalld (cấu hình trên tất cả các node) |
| 145 | +``` |
| 146 | +systemctl stop firewalld |
| 147 | +systemctl disable firewalld |
| 148 | +``` |
| 149 | + |
| 150 | +#### Tùy chọn 2: Cấu hình firewalld (Chưa kiểm chứng) |
| 151 | +##### Xem thêm |
| 152 | +[Cài đặt Ceph trên CentOS 7](ceph-install-lab.md) |
| 153 | + |
| 154 | +### Phần 4: Thiết lập Ceph Cluster |
| 155 | +Tại phân này, ta sẽ cài đặt tât cả các Ceph node thông qua ceph-admin node. |
| 156 | + |
| 157 | +#### Bước 1: Truy cập ceph-admin node |
| 158 | +``` |
| 159 | +ssh root@ceph-admin |
| 160 | +``` |
| 161 | + |
| 162 | +#### Bước 2: Cài đặt ceph-deploy trên ceph-admin node |
| 163 | +Thêm Ceph repo và cài đặt gói thiết lập Ceph với yum cmd |
| 164 | +``` |
| 165 | +sudo rpm -Uhv http://download.ceph.com/rpm-jewel/el7/noarch/ceph-release-1-1.el7.noarch.rpm |
| 166 | +sudo yum update -y && sudo yum install ceph-deploy -y |
| 167 | +``` |
| 168 | + |
| 169 | +#### Bước 3: Tạo mới Ceph Cluster config |
| 170 | +Tạo cluster directory |
| 171 | +``` |
| 172 | +mkdir cluster |
| 173 | +cd cluster/ |
| 174 | +``` |
| 175 | + |
| 176 | +Tạo mới cluster config với 'ceph-deploy' command, thiết lập monitor node = 'ceph-admin' |
| 177 | +``` |
| 178 | +ceph-deploy new ceph-admin |
| 179 | +``` |
| 180 | + |
| 181 | +Cấu hình ceph.conf |
| 182 | +``` |
| 183 | +vim ceph.conf |
| 184 | +
|
| 185 | +# Content (Sửa lại theo lab) |
| 186 | +[global] |
| 187 | +fsid = 60643eb6-a568-42ae-b665-114807627e09 |
| 188 | +auth_cluster_required = cephx |
| 189 | +auth_service_required = cephx |
| 190 | +auth_client_required = cephx |
| 191 | +osd pool default size = 2 |
| 192 | +
|
| 193 | +# Cấu hình Network |
| 194 | +public network = 192.168.2.0/24 |
| 195 | +cluster network = 192.168.3.0/24 |
| 196 | +
|
| 197 | +# Cấu hình monitor node |
| 198 | +[mon] |
| 199 | +mon host = ceph-admin, ceph-node-1, ceph-node-2 |
| 200 | +mon initial members = ceph-admin, ceph-node-1, ceph-node-2 |
| 201 | +
|
| 202 | +[mon.ceph-admin] |
| 203 | +host = ceph-admin |
| 204 | +mon addr = 192.168.2.133 |
| 205 | +
|
| 206 | +[mon.ceph-node-1] |
| 207 | +host = ceph-node-1 |
| 208 | +mon addr = 192.168.2.134 |
| 209 | +
|
| 210 | +[mon.ceph-node-2] |
| 211 | +host = ceph-node-2 |
| 212 | +mon addr = 192.168.2.135 |
| 213 | +``` |
| 214 | + |
| 215 | +#### Bước 4: Cài đặt Ceph tới tất cả các node |
| 216 | +Cài đặt Ceph tới tất cả các node từ ceph-admin node. |
| 217 | +``` |
| 218 | +ceph-deploy install ceph-admin ceph-node-1 ceph-node-2 |
| 219 | +``` |
| 220 | +> cmd sẽ tự động cài đặt ceph tới tất cả các node: mon1, osd1-2 và ceph-amdin |
| 221 | +
|
| 222 | +Thiết lập ceph-mon tới mon1 node |
| 223 | +``` |
| 224 | +ceph-deploy mon create-initial |
| 225 | +``` |
| 226 | + |
| 227 | +#### Bước 5: Thêm OSD tới Cluster |
| 228 | +Sau khi Ceph được cài đặt tới các node, ta cần thêm tiến trình OSD tới cluster. Các tiến trình OSD sẽ tạo data, journal partition trên disk /dev/sdb. |
| 229 | +``` |
| 230 | +ceph-deploy disk list ceph-node-1 ceph-node-2 |
| 231 | +``` |
| 232 | + |
| 233 | + |
| 234 | + |
| 235 | +Xóa /dev/sdb partition tables trên tất cả node với zap option |
| 236 | +``` |
| 237 | +ceph-deploy disk zap ceph-node-1:/dev/sdb |
| 238 | +ceph-deploy disk zap ceph-node-2:/dev/sdb |
| 239 | +``` |
| 240 | +> cmd trên sẽ xóa toàn bộ data trên /dev/sdb tại Ceph OSD node |
| 241 | +
|
| 242 | + |
| 243 | + |
| 244 | +Thiết lập OSD node |
| 245 | +``` |
| 246 | +ceph-deploy osd prepare ceph-node-1:/dev/sdb ceph-node-2:/dev/sdb |
| 247 | +``` |
| 248 | + |
| 249 | + |
| 250 | + |
| 251 | +Kích hoạt OSD |
| 252 | +``` |
| 253 | +ceph-deploy osd activate ceph-node-1:/dev/sdb1 ceph-node-2:/dev/sdb1 |
| 254 | +``` |
| 255 | + |
| 256 | + |
| 257 | + |
| 258 | +Theo kết quả, /dev/sdb sẽ có 2 phân vùng |
| 259 | +- /dev/sdb1 - Ceph Data |
| 260 | +- /dev/sdb2 - Ceph Journal |
| 261 | + |
| 262 | +Kiểm tra tại OSD node |
| 263 | +``` |
| 264 | +fdisk -l /dev/sdb |
| 265 | +``` |
| 266 | + |
| 267 | + |
| 268 | + |
| 269 | +Thiết lập management-key liên kết các node |
| 270 | +``` |
| 271 | +ceph-deploy admin ceph-admin ceph-node-1 ceph-node-2 |
| 272 | +``` |
| 273 | + |
| 274 | +Thiết lập quyền truy cập file trên tất cả các node |
| 275 | +``` |
| 276 | +sudo chmod 644 /etc/ceph/ceph.client.admin.keyring |
| 277 | +``` |
| 278 | + |
| 279 | +> Sau bước trên thiết lập Ceph Cluster hoàn tất |
| 280 | +
|
| 281 | +### Phần 6: Kiểm tra Ceph setup |
| 282 | +#### Kiểm tra tại 1 trong các Ceph monitor node |
| 283 | +Truy cập 1 trong các ceph monitor |
| 284 | +``` |
| 285 | +ssh root@ceph-admin |
| 286 | +``` |
| 287 | + |
| 288 | +Kiểm tra cluster health |
| 289 | +``` |
| 290 | +sudo ceph health |
| 291 | +``` |
| 292 | +Kiểm tra cluster status |
| 293 | +``` |
| 294 | +sudo ceph -s |
| 295 | +``` |
| 296 | + |
| 297 | + |
| 298 | + |
| 299 | +#### Tại node khác (__ceph-node-1__) |
| 300 | + |
0 commit comments