Witam, Mam do instalacji taki dość pechowy serwerek. Pierwszym problemem było (U)EFI, musiałem się nieźle podszkolić z tego "wynalazku" żeby PLD wystartowało za pomocą biosu EFI.
Teraz mam kolejny problem, mam cztery dyski, dwa na system (/) i dwa na dane/bazę (/home ). Oba zestawy to raid1 i o ile ten "rootowy" startuje (z EFI) bez problemów, to ten drugi "wisi" przy starcie (90 sekund) z komunikatem że nie może się doczekać na "md1" i wchodzi w tryb "maintenance", co odcina mi zdalny dostęp do niej. Zrobiłem takich zestawów już "trochę", bywały problemy z tym "drugim" raidem, szczególnie jak dyski na dane były dokładane, ale zawsze to jakoś się składało i startowało. Tym razem wszystkie moje sposoby zawiodły, zmiana partycji z mbr na gpt, dopisywanie do /etc/mdadm.conf (mdadm --detail --scan >>/etc/mdadm.conf) Drugi raid nie startuje i już. :( Pomogło dopisanie do rc.local: /sbin/mdadm -A /dev/md1 /dev/sdc1 /dev/sdd1 i zmodyfikowanie fstab zamiast opcji "defaults" jest: "nofail,x-systemd.device-timeout=1" . Dziwne to jakieś. :( Wie ktoś, jak systemd "składa" i montuje kolejne macierze (raid)?? -- pzdr Stacho Pal _______________________________________________ pld-devel-pl mailing list pld-devel-pl@lists.pld-linux.org http://lists.pld-linux.org/mailman/listinfo/pld-devel-pl