Ana içeriğe geç

Ceph'e Giriş

Ceph, nesne, blok ve dosya sistemi tipi depolama ortamlarının tamamını bir arada sunan ve depolama sistemlerinin geleceği olarak görülen açık kaynak kodlu bir depolama çözümüdür. Bir Ceph Storage Cluster, en az bir Ceph Monitor, Ceph Manager ve Ceph OSD (Object Storage Daemon) gerektirir. Ceph Metadata Sunucusu, Ceph File System istemcilerini çalıştırırken de gereklidir.

  • Monitors: Bir Ceph Monitor ( ceph-mon), monitör haritası, yönetici haritası, OSD haritası, MDS haritası ve CRUSH haritası dahil olmak üzere küme durumunun haritalarını korur. Bu haritalar, Ceph daemonlarının birbirleriyle koordinasyonu sağlamak için gereken kritik küme durumudur. Monitörler ayrıca arka plan yordamları ve istemciler arasındaki kimlik doğrulamasını yönetmekten de sorumludur. Yedeklilik ve yüksek kullanılabilirlik için normalde en az üç monitör gerekir.

  • Managers: Bir Ceph Manager daemon ( ceph-mgr), çalışma zamanı ölçümlerini ve depolama kullanımı, mevcut performans ölçümleri ve sistem yükü dahil olmak üzere Ceph kümesinin mevcut durumunu takip etmekten sorumludur. Ceph Manager arka plan programları ayrıca, web tabanlı Ceph Dashboard ve REST API dahil olmak üzere Ceph küme bilgilerini yönetmek ve ifşa etmek için python tabanlı modülleri barındırır . Yüksek kullanılabilirlik için normalde en az iki yönetici gerekir.

  • Ceph OSD'ler: Bir Ceph OSD (nesne depolama arka plan programı ceph-osd) verileri depolar, veri çoğaltmayı, kurtarmayı, yeniden dengelemeyi yönetir ve diğer Ceph OSD Daemon'larını kalp atışı için kontrol ederek Ceph Monitörlerine ve Yöneticilerine bazı izleme bilgileri sağlar. Yedeklilik ve yüksek kullanılabilirlik için normalde en az 3 Ceph OSD gereklidir.

  • MDS'ler: Bir Ceph Metadata Sunucusu (MDS, ceph-mds) meta verileri Ceph Dosya Sistemi adına depolar (yani Ceph Blok Cihazları ve Ceph Nesne Depolaması MDS kullanmaz). CEPH Meta veri Sunucuları POSIX dosya sistemi kullanıcıları temel komutları (gibi yürütmesine izin ls, findCeph Depolama Kümesi üzerinde büyük yük getirmeden, vs.).

Ceph, verileri mantıksal depolama havuzlarında nesneler olarak depolar. CRUSH algoritmasını kullanarak Ceph, hangi yerleşim grubunun nesneyi içermesi gerektiğini hesaplar ve ayrıca hangi Ceph OSD Daemon'un yerleşim grubunu saklaması gerektiğini hesaplar. CRUSH algoritması, Ceph Storage Cluster'ın dinamik olarak ölçeklenmesini, yeniden dengelenmesini ve kurtarılmasını sağlar.

Donanım Önerileri

Ceph, petabayt ölçekli veri kümelerinin oluşturulmasını ve bakımını ekonomik olarak mümkün kılan ticari donanım üzerinde çalışacak şekilde tasarlandı. Küme donanımınızı planlarken, hata alanları ve olası performans sorunları dahil olmak üzere bir dizi hususu dengelemeniz gerekecektir. Donanım planlaması, Ceph artalan süreçlerini ve Ceph kullanan diğer işlemleri birçok ana bilgisayarda dağıtmayı içermelidir. Genel olarak, bu tür arka plan programı için yapılandırılmış bir ana bilgisayarda belirli bir türden Ceph arka planını çalıştırmanızı öneririz. Veri kümenizi kullanan işlemler için diğer ana bilgisayarları kullanmanızı öneririz (ör. OpenStack, CloudStack, vb.).

CPU

CephFS meta veri sunucuları CPU yoğun olduğundan, önemli işlem gücüne (örneğin, dört çekirdekli veya daha iyi CPU'lar) sahip olmalı ve daha yüksek saat hızından (GHz cinsinden frekans) yararlanmalıdırlar.

RAM

Genel olarak, daha fazla RAM daha iyidir. Mütevazı bir küme için izleme / yönetici düğümleri 64 GB ile yeterli olabilir; yüzlerce OSD'ye sahip daha büyük bir küme için 128 GB makul bir hedeftir.

MONİTÖRLER VE YÖNETİCİLER (CEPH-MON VE CEPH-MGR)

Arka plan programı bellek kullanımı izleme ve yönetici, genellikle kümenin boyutuna göre ölçeklenir. Önyükleme sırasında ve topoloji değişiklikleri ve kurtarma sırasında bu arka plan yordamlarının sabit durum çalışması sırasında olduğundan daha fazla RAM'e ihtiyaç duyacağını unutmayın, bu nedenle en yüksek kullanımı planlayın. Çok küçük kümeler için 32 GB yeterlidir. 300 OSD'ye kadar olan kümeler için 64 GB'a kadar gider. Daha fazla OSDS ile oluşturulan (veya büyüyecek olan) kümeler için 129 GB sağlamalısınız. Ayrıca dikkatli bir araştırma gibi mon_osd_cache_size veya rocksdb_cache_sizesonrasında ayarları yapmayı da düşünebilirsiniz.

META VERİ SUNUCULARI (CEPH-MDS)

Metadata daemon bellek kullanımı, önbelleğinin ne kadar bellek tüketecek şekilde yapılandırıldığına bağlıdır. Çoğu sistem için minimum 1 GB öneririz. Bakın mds_cache_memory.

VERİ DEPOLAMA

Veri depolama yapılandırmanızı dikkatlice planlayın. Veri depolamayı planlarken göz önünde bulundurulması gereken önemli maliyet ve performans ödünleri vardır. Eşzamanlı işletim sistemi işlemleri ve tek bir sürücüye karşı birden çok arka plan yordamından gelen okuma ve yazma işlemleri için eşzamanlı talep, performansı önemli ölçüde yavaşlatabilir.

SABİT DİSK SÜRÜCÜLERİ

OSD'ler, nesne verileri için bol miktarda sabit disk sürücüsü alanına sahip olmalıdır. En az 1 terabaytlık bir sabit disk sürücüsü boyutu öneririz. Daha büyük disklerin gigabayt başına maliyet avantajını düşünün. Daha büyük sürücüler gigabayt başına maliyet üzerinde önemli bir etkiye sahip olabileceğinden, sabit disk sürücüsünün fiyatını gigabayt sayısına bölmenizi öneririz. Örneğin, fiyatı 75,00 ABD doları olan 1 terabaytlık bir sabit diskin gigabayt başına maliyeti 0,07 ABD dolarıdır (yani, 75/1024 = 0,0732). Buna karşılık, fiyatı 150.00 $ olan 3 terabaytlık bir sabit diskin gigabayt başına 0.05 $ maliyeti vardır (yani, 150/3072 = 0.0488). Yukarıdaki örnekte, 1 terabaytlık disklerin kullanılması genellikle gigabayt başına maliyeti% 40 artıracak ve kümenizi önemli ölçüde daha az maliyet açısından verimli hale getirecektir.

Warning

Tek bir SAS / SATA sürücüsünde birden çok OSD çalıştırmak iyi bir fikir DEĞİLDİR . Bununla birlikte NVMe sürücüleri, iki OSD'ye daha bölünerek gelişmiş performans elde edebilir.

Warning

Tek bir sürücüde bir OSD ve bir monitör veya bir meta veri sunucusu çalıştırmak da iyi bir fikir DEĞİLDİR.

NETWORKS

Raflarınızda en az 10 Gb / sn + ağ iletişimi sağlayın. 1 Gb / sn ağ üzerinde 1 TB veri kopyalamak 3 saat, 10 TB veri ise 30 saat sürer! Buna karşılık, 10 Gb / sn ağ ile çoğaltma süreleri sırasıyla 20 dakika ve 1 saat olacaktır. Ek olarak, bazı dağıtım araçları, donanım ve ağ kablolamasını daha yönetilebilir hale getirmek için VLAN'lar kullanır. 802.1q protokolü kullanan VLAN'lar, VLAN özellikli NIC'ler ve Anahtarlar gerektirir. Eklenen donanım masrafı, ağ kurulumu ve bakımı için operasyonel maliyet tasarrufları ile dengelenebilir. Küme ve hesaplama yığınları (ör. OpenStack, CloudStack, vb.) Arasındaki VM trafiğini işlemek için VLAN'lar kullanıldığında, 10G Ethernet veya daha iyisinin kullanılmasının ek bir değeri vardır; 40 Gb veya 25/50/100 Gb ağ iletişimi 2020 itibariyle üretim kümeleri için yaygındır.

HATA ETKİ ALANLARI

Hata etki alanı, bir veya daha fazla OSD'ye erişimi engelleyen herhangi bir başarısızlıktır. Bu, bir ana bilgisayarda durdurulmuş bir arka plan programı olabilir; bir sabit disk arızası, bir işletim sistemi çökmesi, arızalı bir NIC, arızalı bir güç kaynağı, bir ağ kesintisi, bir elektrik kesintisi vb. Donanım ihtiyaçlarınızı planlarken, çok az sayıda arıza alanına çok fazla sorumluluk yükleyerek maliyetleri düşürme eğilimini ve her potansiyel arıza alanını izole etmenin ek maliyetlerini dengelemelisiniz.