CEPH ADMINISTRATION




Pendahuluan

    Assalamu'alaikum WaarohmatullahiWabarokatuh

Apakah rekan rekan pernah membayangkan sebuah Storage Cluster yang pintar, seperti dapat membuat replikasi automatis di antar node. Atau bahkan sebuah Storage Cluster yang dapat memanage dirinya secara automatis.

Jika rekan rekan penasaran apakah imajinasi tersebut dapat menjadi nyata, rekan2 tidak salah kalau mampir di blog ini. Couse, kita akan ngeLab apa yang selaa ini kamu bayangin.
So, check it Out


Tujuan

1. Laporan dari Tugas di KelasNolsatu dari Bapak Utian Ayuba
2. Mengetahui Ceph WorkFlow
3. Mengenal Lebih dalam tentang Storage dan Manajemennya

Basic Concept

 
Dari informasi yang ada pada website Cepth dikatakan bahwa Ceph memiliki kemampuan melakukan transformasi infrastruktur IT dan memampukan kita melakukan manajemen data yang besar. Landasan dari Ceph adalah RADOS yang merupakan kependekan dari Reliable Autonomic Distributed Object Storage yang menyediakan storage untuk object, block dan file system dalam sebuah cluster membuat Ceph fleksibel, dapat diandalkan dan mudah dimanaje.
Ceph dengan kemampuan RADOS menyediakan storage dengan scalability yang luar biasa dimana ribuan client atau ribuan KVM mengakses petabytes hingga exabytes data. Masing-masing aplikasi dapat menggunakan object, block atau filesytem pada cluster RADOS yang sama yang berarti kita memiliki kita memiliki storage Ceph yang fleksibel. Kita dapat menggunakan Ceph ini secara gratis menggunakan komoditas hardware yang lebih murah. Ceph merupakan cara baru yang lebih baik dalam menyimpan data.

Cepth storage cluster menggunakan algoritma CRUSH (Controlled Replication Under Scalable Hashing) yang memastikan bahwa data terdistribusi ke seluruh anggota cluster dan semua cluster node dapat menyediakan data tanpa ada bottleneck.

Ceph block storage dapat dijadikan virtual disk pada Linux maupun virtual machine. Teknologi RADOS yang dimiliki Ceph memampukan Ceph melakukan snapshot dan replikasi.

Ceph object storage dapat diakses melalui Amazon S3 (Simple StorageService) dan OpenStack Swift REST (Representational State Transfer).



 Tahap Pengerjaan

0. Karena Praktikum kali ini melanjutkan dari Praktikum sebelumnya yang menggunakan OpenStack, maka step by step di Praktikum ini juga menggunakan Openstack 

 1. Yang pertama tentu saja kita buat Topologynya terlebih dahulu



2. Melihat dari Basic Concept yang menjelaskan Ceph storage cluster yang dapat melakukan Replikasi Antar Node maka untuk Ceph-osd0 & Ceph-osd1 kita atatch Volume tambahan untuk tempat replikasi data 






 3.  Jangan tambahkan storage pada Ceph Monitor, karena Ceph monitor disini bertugas untuk mengontrol Ceph-Storage0 & 1



4. Cek Topologi Di Openstack, apakah semua sudah OK dan Node mempunyai IP Static 


5. Masuk ke OS ceph-mon, ceph-osd1, ceph-osd1. Pada praktikum ini saya menggunakan CentOSx86_64 & Test PING

6. Gunakan Repository epel.repo dan repo dari ceph yang bisa dilihat confignya dibawah


7.  Install Chrony untuk NTP di semua Node dan Setting Firewallnya
serta Disabled NetworkManager dan aktifkan networking.service



8. Buat User baru karena Ceph tidak dianjurkan untuk root user

9. Setting SElinux menjadi seperti 


10. Mulai langkah nomor 10 hanya exsekusi di Node Ceph-mon.

11. Install ceph-deploy  atau bisa menggunakan ANSIBLE
# yum -y install ceph-deploy

12. Buat Pub Key dan berikan ke Node Ceph-OSD0 Ceph-OSD1

 # ssh-copy-id Ip Ceph-OSD0
#  ssh-copy-id Ip Ceph-OSD1

13. Edit Configurasi SSH User ceph-deploy & chmod 644 ~/.ssh/config


14. Berikut Ialah Configurasi ceph-deploy


15.Jika Output dari $ ceph health OK. Konfigurasi Berhasil



16. Nah, bisa kita check berapa jumlah OSDs yang terdaftar di node Ceph-mon


17.  Mari kita masuk ke Lab Ceph nya :)

 # Min, jadi dari tadi tu masih deploy ya min ?
# Yup, gimana keren kan ?? wkwkwkkw




LAB 1 

     Pada Lab1 kita akan belajar cara CEPH bekerja dengan operasi Object data  dari node monitor ke node ceph-osd1 & ceph-osd2 . Dalam hal ini kita sebut POOL.
Pool ialah sebuah cara Client (RBD, RGW,.dll) menyimpan data, karena saat membuat sebuah  Pool itu sama saja kita membuat sebuah interface untuk client untuk menyimpan data. Dalam hal ini client ialah Node ceph-osd1 & ceph-osd2. Sedang Pool yang digunakan untuk client dibuat di Node Ceph-mon. Atau lebih mudahnya kita membuat File di Node ceph-monitor lalu data tersebut automatis tereplicate di  Node Ceph-OSD 1 & 2


   1. 

Penjelasan : Pada screen shot pertama (Node Monitor) kita membuat Pool bernama "fedora-pool"
lalu pada screen Shot ke 2 kita menaruh sebuah file "fedora.isodan menaruhnya di object-test1. 
# anda juga dapat membuat file .txt .img atau apapun. usahakan beri test di dalam file, supaya lebih mudah mengetahui outputnya :)
2. Kita masuk ke Node ceph-osd1 & ceph-osd2 untuk melihat hasil dari replika nya

Yup, berikut tampilan data yang diterima oleh Node ceph-osd1 & ceph-osd2


3. Berikut Skema Komunikasi dari Lab 1



Penjelasan : jadi  Ceph Client (RBD, RGW,.dll) setelah mendapat request dari monitor lalu memberikan reply. Dan karena Ceph Client telah mendpat Permission, request dapat dilanjutkan untuk melihat data yang ada di Pool. Dalam kasus ini Pool  ada di Node ceph-osd1 & ceph-osd2


LAB 2


Pada Lab 2 kita akan mengenenal tentang RADOS BLOCK DEVICE (RBD)

RBD ialah sebuah sebuah Fasilitas Block Device pada CEPH yang memberikan kinerja tinggi untuk KVM dan menawarkan infinity scaling serta rollback lost data. Jadi sangat cocok untuk membangun OpenStack ataupun Sharing Storage pada Cloud system & Container virtualization yang tentunya sangat bergantung  pada libvirt & QEMU utilities untuk diintegerasikan dengan CEPH BLOCK DEVICE.

Goal pada Lab ini rekan2 akan mengetahui tentang Fasilitas Snapshot pada RBD serta bagaimana Block Storage create & running 

   1. ssh ke Node ceph-monitor & dan login root
   2. Ikuti Petunjuk Screen Shoot untuk step selanjutnya









3. Bagaimana sudah jelas ? jika belum silahkan tulis di kolom komentar.


Sampai tahap ini Lab CEPH ADMIN sudah selesai, tapi yang saya berikan masihlah sangat dasar dan saya harap rekan-rekan dapat explore lebih dalam lagi..
Silahkan jika ada pertanyaan, dapat ditulis di komentar / Chat Facebook saya 


QUIZ 

Yup, sampailah pada sesi yang ditunggu tunggu, sedikit Quiz untuk mempertajam pemahaman kita. hehehe :)

Pada Quiz kali ini silahakn rekan rekan membuat Docker Sharing Storage menggunakan CEPH RADOS BLOCK DEVICE / CEPH RBD.
Kenapa menggunakan RBD sebagai Sharing Storage nya, couse RBD mempunyai fasilatas rollback snapshot & infinity scale seperti yang telah kita praktekan tadi. So, sangat bermanfaat untuk membuat sebuah sharing Storge atau Destination Deploy Storage.

Berikut Output jika Success ..







Klu :

1. Gunakan docker.io (lebih mudah menggunakan ubuntu)

2. Buat network  overlay
    a. key value di container Node Monitor
    b. overlay network ada di Node ceph-osd1 / ceph osd2

3. Create Docker Volume Driver  dan mount / bind ke Node Monitor

4. Antar Node harus singgle command ssh user maupun root

5. Ucapkan lafaz basmallah sebelum praktek :)





Referensi :












Komentar

Postingan Populer