Witam,

Mam do instalacji taki dość pechowy serwerek.
Pierwszym problemem było (U)EFI, musiałem się nieźle podszkolić
z tego "wynalazku" żeby PLD wystartowało za pomocą biosu EFI.

Teraz mam kolejny problem, mam cztery dyski, dwa na system (/)
i dwa na dane/bazę (/home ). Oba zestawy to raid1 i o ile ten
"rootowy" startuje (z EFI) bez problemów, to ten drugi "wisi"
przy starcie (90 sekund) z komunikatem że nie może się doczekać
na "md1" i wchodzi w tryb "maintenance", co odcina mi zdalny
dostęp do niej. Zrobiłem takich zestawów już "trochę",
bywały problemy z tym "drugim" raidem, szczególnie jak dyski na dane
były dokładane, ale zawsze to jakoś się składało i startowało.
Tym razem wszystkie moje sposoby zawiodły, zmiana partycji z mbr na gpt,
dopisywanie do /etc/mdadm.conf (mdadm --detail --scan >>/etc/mdadm.conf)

Drugi raid nie startuje i już. :(

Pomogło dopisanie do rc.local:
/sbin/mdadm -A /dev/md1 /dev/sdc1 /dev/sdd1

i zmodyfikowanie fstab zamiast opcji "defaults" jest:
"nofail,x-systemd.device-timeout=1" .

Dziwne to jakieś. :(
Wie ktoś, jak systemd "składa" i montuje kolejne macierze (raid)??

--
pzdr
Stacho Pal
_______________________________________________
pld-devel-pl mailing list
pld-devel-pl@lists.pld-linux.org
http://lists.pld-linux.org/mailman/listinfo/pld-devel-pl

Odpowiedź listem elektroniczym