CEPH ADMINISTRATION
Pendahuluan
Assalamu'alaikum WaarohmatullahiWabarokatuh
Apakah rekan rekan pernah membayangkan sebuah Storage Cluster yang pintar, seperti dapat membuat replikasi automatis di antar node. Atau bahkan sebuah Storage Cluster yang dapat memanage dirinya secara automatis.
Jika rekan rekan penasaran apakah imajinasi tersebut dapat menjadi nyata, rekan2 tidak salah kalau mampir di blog ini. Couse, kita akan ngeLab apa yang selaa ini kamu bayangin.
So, check it Out
Apakah rekan rekan pernah membayangkan sebuah Storage Cluster yang pintar, seperti dapat membuat replikasi automatis di antar node. Atau bahkan sebuah Storage Cluster yang dapat memanage dirinya secara automatis.
Jika rekan rekan penasaran apakah imajinasi tersebut dapat menjadi nyata, rekan2 tidak salah kalau mampir di blog ini. Couse, kita akan ngeLab apa yang selaa ini kamu bayangin.
So, check it Out
Tujuan
1. Laporan dari Tugas di KelasNolsatu dari Bapak Utian Ayuba
2. Mengetahui Ceph WorkFlow
3. Mengenal Lebih dalam tentang Storage dan Manajemennya
Basic Concept
Ceph dengan kemampuan RADOS menyediakan storage dengan scalability yang luar biasa dimana ribuan client atau ribuan KVM mengakses petabytes hingga exabytes data. Masing-masing aplikasi dapat menggunakan object, block atau filesytem pada cluster RADOS yang sama yang berarti kita memiliki kita memiliki storage Ceph yang fleksibel. Kita dapat menggunakan Ceph ini secara gratis menggunakan komoditas hardware yang lebih murah. Ceph merupakan cara baru yang lebih baik dalam menyimpan data.
Cepth storage cluster menggunakan algoritma CRUSH (Controlled Replication Under Scalable Hashing) yang memastikan bahwa data terdistribusi ke seluruh anggota cluster dan semua cluster node dapat menyediakan data tanpa ada bottleneck.
Ceph block storage dapat dijadikan virtual disk pada Linux maupun virtual machine. Teknologi RADOS yang dimiliki Ceph memampukan Ceph melakukan snapshot dan replikasi.
Ceph object storage dapat diakses melalui Amazon S3 (Simple StorageService) dan OpenStack Swift REST (Representational State Transfer).
Tahap Pengerjaan
0. Karena Praktikum kali ini melanjutkan dari Praktikum sebelumnya yang
menggunakan OpenStack, maka step by step di Praktikum ini juga
menggunakan Openstack
1. Yang pertama tentu saja kita buat Topologynya terlebih dahulu
2. Melihat dari Basic Concept yang menjelaskan Ceph storage cluster yang dapat melakukan Replikasi Antar Node maka untuk Ceph-osd0 & Ceph-osd1 kita atatch Volume tambahan untuk tempat replikasi data
3. Jangan tambahkan storage pada Ceph Monitor, karena Ceph monitor disini bertugas untuk mengontrol Ceph-Storage0 & 1
4. Cek Topologi Di Openstack, apakah semua sudah OK dan Node mempunyai IP Static
5. Masuk ke OS ceph-mon, ceph-osd1, ceph-osd1. Pada praktikum ini saya menggunakan CentOSx86_64 & Test PING
6. Gunakan Repository epel.repo dan repo dari ceph yang bisa dilihat confignya dibawah
7. Install Chrony untuk NTP di semua Node dan Setting Firewallnya
serta Disabled NetworkManager dan aktifkan networking.service
8. Buat User baru karena Ceph tidak dianjurkan untuk root user
7. Install Chrony untuk NTP di semua Node dan Setting Firewallnya
serta Disabled NetworkManager dan aktifkan networking.service
8. Buat User baru karena Ceph tidak dianjurkan untuk root user
9. Setting SElinux menjadi seperti
10. Mulai langkah nomor 10 hanya exsekusi di Node Ceph-mon.
11. Install ceph-deploy atau bisa menggunakan ANSIBLE
# yum -y install ceph-deploy
# yum -y install ceph-deploy
12. Buat Pub Key dan berikan ke Node Ceph-OSD0 Ceph-OSD1
# ssh-copy-id Ip Ceph-OSD0
# ssh-copy-id Ip Ceph-OSD1
13. Edit Configurasi SSH User ceph-deploy & chmod 644 ~/.ssh/config
14. Berikut Ialah Configurasi ceph-deploy
15.Jika Output dari $ ceph health OK. Konfigurasi Berhasil
16. Nah, bisa kita check berapa jumlah OSDs yang terdaftar di node Ceph-mon
17. Mari kita masuk ke Lab Ceph nya :)
# Min, jadi dari tadi tu masih deploy ya min ?
# Yup, gimana keren kan ?? wkwkwkkw
Yup, berikut tampilan data yang diterima oleh Node ceph-osd1 & ceph-osd2
3. Berikut Skema Komunikasi dari Lab 1
Penjelasan : jadi Ceph Client (RBD, RGW,.dll) setelah mendapat request dari monitor lalu memberikan reply. Dan karena Ceph Client telah mendpat Permission, request dapat dilanjutkan untuk melihat data yang ada di Pool. Dalam kasus ini Pool ada di Node ceph-osd1 & ceph-osd2
Klu :
1. Gunakan docker.io (lebih mudah menggunakan ubuntu)
2. Buat network overlay
a. key value di container Node Monitor
b. overlay network ada di Node ceph-osd1 / ceph osd2
3. Create Docker Volume Driver dan mount / bind ke Node Monitor
4. Antar Node harus singgle command ssh user maupun root
5. Ucapkan lafaz basmallah sebelum praktek :)
14. Berikut Ialah Configurasi ceph-deploy
15.Jika Output dari $ ceph health OK. Konfigurasi Berhasil
16. Nah, bisa kita check berapa jumlah OSDs yang terdaftar di node Ceph-mon
17. Mari kita masuk ke Lab Ceph nya :)
# Min, jadi dari tadi tu masih deploy ya min ?
# Yup, gimana keren kan ?? wkwkwkkw
LAB 1
Pada Lab1 kita akan belajar cara CEPH bekerja dengan operasi Object data dari node monitor ke node ceph-osd1 & ceph-osd2 . Dalam hal ini kita sebut POOL.
Pool ialah sebuah cara Client (RBD, RGW,.dll) menyimpan data, karena saat membuat sebuah Pool itu sama saja kita membuat sebuah interface untuk client untuk menyimpan data. Dalam hal ini client ialah Node ceph-osd1 & ceph-osd2. Sedang Pool yang digunakan untuk client dibuat di Node Ceph-mon. Atau lebih mudahnya kita membuat File di Node ceph-monitor lalu data tersebut automatis tereplicate di Node Ceph-OSD 1 & 2
Pool ialah sebuah cara Client (RBD, RGW,.dll) menyimpan data, karena saat membuat sebuah Pool itu sama saja kita membuat sebuah interface untuk client untuk menyimpan data. Dalam hal ini client ialah Node ceph-osd1 & ceph-osd2. Sedang Pool yang digunakan untuk client dibuat di Node Ceph-mon. Atau lebih mudahnya kita membuat File di Node ceph-monitor lalu data tersebut automatis tereplicate di Node Ceph-OSD 1 & 2
1.
Penjelasan : Pada screen shot pertama (Node Monitor) kita membuat Pool bernama "fedora-pool"
lalu pada screen Shot ke 2 kita menaruh sebuah file "fedora.iso" dan menaruhnya di object-test1.
# anda juga dapat membuat file .txt .img atau apapun. usahakan beri test di dalam file, supaya lebih mudah mengetahui outputnya :)
2. Kita masuk ke Node ceph-osd1 & ceph-osd2 untuk melihat hasil dari replika nya
Yup, berikut tampilan data yang diterima oleh Node ceph-osd1 & ceph-osd2
Penjelasan : jadi Ceph Client (RBD, RGW,.dll) setelah mendapat request dari monitor lalu memberikan reply. Dan karena Ceph Client telah mendpat Permission, request dapat dilanjutkan untuk melihat data yang ada di Pool. Dalam kasus ini Pool ada di Node ceph-osd1 & ceph-osd2
LAB 2
Pada Lab 2 kita akan mengenenal tentang RADOS BLOCK DEVICE (RBD)
RBD ialah sebuah sebuah Fasilitas Block Device pada CEPH yang memberikan kinerja tinggi untuk KVM dan menawarkan infinity scaling serta rollback lost data. Jadi sangat cocok untuk membangun OpenStack ataupun Sharing Storage pada Cloud system & Container virtualization yang tentunya sangat bergantung pada libvirt & QEMU utilities untuk diintegerasikan dengan CEPH BLOCK DEVICE.
Goal pada Lab ini rekan2 akan mengetahui tentang Fasilitas Snapshot pada RBD serta bagaimana Block Storage create & running
1. ssh ke Node ceph-monitor & dan login root
2. Ikuti Petunjuk Screen Shoot untuk step selanjutnya
3. Bagaimana sudah jelas ? jika belum silahkan tulis di kolom komentar.
Sampai tahap ini Lab CEPH ADMIN sudah selesai, tapi yang saya berikan masihlah sangat dasar dan saya harap rekan-rekan dapat explore lebih dalam lagi..
Silahkan jika ada pertanyaan, dapat ditulis di komentar / Chat Facebook saya
3. Bagaimana sudah jelas ? jika belum silahkan tulis di kolom komentar.
Sampai tahap ini Lab CEPH ADMIN sudah selesai, tapi yang saya berikan masihlah sangat dasar dan saya harap rekan-rekan dapat explore lebih dalam lagi..
Silahkan jika ada pertanyaan, dapat ditulis di komentar / Chat Facebook saya
QUIZ
Yup, sampailah pada sesi yang ditunggu tunggu, sedikit Quiz untuk mempertajam pemahaman kita. hehehe :)
Pada Quiz kali ini silahakn rekan rekan membuat Docker Sharing Storage menggunakan CEPH RADOS BLOCK DEVICE / CEPH RBD.
Kenapa menggunakan RBD sebagai Sharing Storage nya, couse RBD mempunyai fasilatas rollback snapshot & infinity scale seperti yang telah kita praktekan tadi. So, sangat bermanfaat untuk membuat sebuah sharing Storge atau Destination Deploy Storage.
Berikut Output jika Success ..
Klu :
1. Gunakan docker.io (lebih mudah menggunakan ubuntu)
2. Buat network overlay
a. key value di container Node Monitor
b. overlay network ada di Node ceph-osd1 / ceph osd2
3. Create Docker Volume Driver dan mount / bind ke Node Monitor
4. Antar Node harus singgle command ssh user maupun root
5. Ucapkan lafaz basmallah sebelum praktek :)
Komentar
Posting Komentar