Ceph

Från Lysators datorhandbok, den ultimata referensen.
Version från den 15 maj 2018 kl. 12.37 av Octol (diskussion | bidrag) (Fyllt på med tweaks)
Hoppa till navigering Hoppa till sök
Funktion Tjänsteserver
Specialfunktion Experimentelt lagrings-kluster för /home, /lysator, /scratch och /vm.
Operativsystem Debian 9.0
Arkitektur x86_64
CPU Intel Xeon av olika sorter
Minne Varierande
Chassi Många
Moderkort Varierande
Placering FOO-hallen
Ceph-status Manager
Ansvarig root hx och octol
Driftstatus Snart i drift. Kanske

Lysators lagringslösning i Ceph

RTFM

http://docs.ceph.com/docs/master/

Hårdvara

För att köra Lysators cephlösning används många maskiner, för att få redundans och HA. Mak kan med andra ord rycka sladden ur vilken maskin som helst utan att något hemskt händer. (Gör det inte)

Vogoner

Som mon/mds/mgr körs tre stycken HP DL160-maskiner, vogon-[0-2]. Dessa är bestyckade med 16G RAM och infiniband.

Trillians

Som osd-servrar trillian-[0-3] körs Dell R510 med 12 2TB diskar. Eftersom RAID-korten inte tycker om JBOD så är alla diskar sin egen RAID0. En disk i varje chassi används som systemdisk, resten allokeras till OSD:er. Det finns ingen numrering, utan använd verktygen för RAID-korten för att markera diskar vid behov.

Systemdiskar

Det finns inga speglade systemdiskar i någon av maskinerna. Ifall en systemdisk dör, vänta 10 minuter så kommer ceph börja skyffla runt datan för att komma upp i rätt mängd redundans igen. Smäll upp en ny maskin och smäll in den i klustret igen enligt manualen.

Konfiguration

Användarkontot ceph-vogon

ceph.conf

Prestandatweaks

  • För att använda mer av RAM på mds-servrarna till metadata-cache så har mds_cache_memory_limit satts till 8GiB (standard är 1GiB).
  • För att förhindra att osd-servrarna blir mycket långsam eller kraschar vid recovery så har bluestore_cache_size_hdd satts till 268435456 (byte).