bind9 port hasznalat
Sziasztok, Van egy szerverem, ami egy bizonyos porton halgatozik (pl 64321). Ha ezen a porton kap egy jelet, akkor elindit egy adott programot, pl valamilyen shell script-et. A shell script elinditja tobbek kozott a bind9-et. A named viszont ebben az esetben nemcsak a default 53-as porton kezd el fulelni, hanem a 64321-es porton is! Esetleg tudja valaki, hogy mi lehet ennek az oka? Hogyan tudnam a bind9-et errol lebeszelni? Minden otletet elore is koszonettel fogadok, tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
raid mizeria
Sziasztok! Van egy szerverem, amiben 2 diszk van, mindegyik ugyanugy particionalva, es az egyes particiok raid1-ben osszeszerelve. A szerver jol mukodott egeszen addig, amig egy masik gepbol kivett 2 masik, szinten raidben (raid0-ban) levo diszket be nem tettem a meglevo ket diszk melle (a masik gep kapott egy aramloketet, es elhalt, a diszkekrol szerettem volna az adatot lementeni). Miutan betettem a ket diszket a szerver nem volt hajlando elindulni. Raadasul azutan sem, hogy ha csak a ket eredeti diszkkel inditom, a raid valahogy tonkrement. Bootolaskot ezt kapom: error: Unsupported RAID level: -100 error: Unsupported RAID level: -100 error: Unsupported RAID level: -100 error: Unsupported RAID level: -100 error: No such disk Grub rescue: Megprobaltam Ubuntu 12.04 szerver rescue modban inditani, ilyenkor az egyes particiokat latja (sda1-6, sdb1-6), de a raid-et nem tudom ujbol osszeszerelni: mdadm --examine --scan ARRAY /dev/md/2 metadata=1.2 UUID=xxx:xxx:xxx:xxx name=server:2 ARRAY /dev/md/0 metadata=1.2 UUID=xxx:xxx:xxx:xxx name=server:0 spares=2 ARRAY /dev/md/1 metadata=1.2 UUID=xxx:xxx:xxx:xxx name=server:1 spares=2 ARRAY /dev/md/2 metadata=1.2 UUID=xxx:xxx:xxx:xxx name=server:2 spares=1 ARRAY /dev/md/3 metadata=1.2 UUID=xxx:xxx:xxx:xxx name=server:3 spares=2 cat /proc/mdstat (nem mutat semmilyen raid-et) mdadm -A /dev/md0 /dev/sda2 /dev/sdb2 mdadm: /dev/md0 assembled from 0 drives and 2 sparses - not enough to start the array. cat /proc/mdstat Personalities: [raid0] [raid1] [raid[6] [raid5] [raid4] md0: inactive sda2[0](S) sdb2[1](S) 20978842 blocks super 1.2 Miert nem tudom ujbol osszeszerelni a raid-et? Mit kell tennem, hogy ujbol magahoz terjen? Hogyan kavarodhat igy meg ket diszk berakasatol a rendszer (Ubuntu 12.04)? Minden segitseget elore is koszonok, tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
On Mon, 2012-08-13 at 17:12 +0200, Laborczi Pál wrote: 13.08.2012 15:03 keltezéssel, tusi írta: Sziasztok! Van egy szerverem, amiben 2 diszk van, mindegyik ugyanugy particionalva, es az egyes particiok raid1-ben osszeszerelve. A szerver jol mukodott egeszen addig, amig egy masik gepbol kivett 2 masik, szinten raidben (raid0-ban) levo diszket be nem tettem a meglevo ket diszk melle (a masik gep kapott egy aramloketet, es elhalt, a diszkekrol szerettem volna az adatot lementeni). Miutan betettem a ket diszket a szerver nem volt hajlando elindulni. Raadasul azutan sem, hogy ha csak a ket eredeti diszkkel inditom, a raid valahogy tonkrement. Bootolaskot ezt kapom: error: Unsupported RAID level: -100 error: Unsupported RAID level: -100 mdadm -A /dev/md0 /dev/sda2 /dev/sdb2 mdadm: /dev/md0 assembled from 0 drives and 2 sparses - not enough to start the array. Biztos, ami biztos alapon az eredeti diszkek közül csak az egyikek hagyd meg a rendszerben, majd a mentőrendszer betöltés után valami ilyesmivel próbálkozz, értelemszerűen persze mdadm -C --level=1 --raid-device=2 /dev/mdX /dev/sdaY missing Ezzel egy féllábú raid-1-et tudsz összerakni. Ha működik, akkor beteszed a 2. vinyót, és mdadm -A -val hozzáadod, szintén a mentőrendszeren keresztül. Ha ez is megvan, akkor blkid-vel írasd ki az UUID-ket, majd ellenőrizd, hogy ugyanazok az UUID-k vannak-e az mdadm.conf-ban. Sok sikert: Pali. Koszonom, kozben en is gugliztam, es megtalaltam ezt a megoldast, a raid valoban helyreall a /proc/mdstat szerint, de a filrendszer nem. Ezt meg a tobb helyen olvasott hack-kelessel sem (mkfs.ext4 -n /dev/md0; fsck.ext4 -b 32768 /dev/md0) tudtam osszerakni tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
On Mon, 2012-08-13 at 17:26 +0200, Laborczi Pál wrote: 13.08.2012 17:12 keltezéssel, Laborczi Pál írta: 13.08.2012 15:03 keltezéssel, tusi írta: Sziasztok! Van egy szerverem, amiben 2 diszk van, mindegyik ugyanugy particionalva, es az egyes particiok raid1-ben osszeszerelve. A szerver jol mukodott egeszen addig, amig egy masik gepbol kivett 2 masik, szinten raidben (raid0-ban) levo diszket be nem tettem a meglevo ket diszk melle (a masik gep kapott egy aramloketet, es elhalt, a diszkekrol szerettem volna az adatot lementeni). Miutan betettem a ket diszket a szerver nem volt hajlando elindulni. Raadasul azutan sem, hogy ha csak a ket eredeti diszkkel inditom, a raid valahogy tonkrement. Bootolaskot ezt kapom: error: Unsupported RAID level: -100 error: Unsupported RAID level: -100 mdadm -A /dev/md0 /dev/sda2 /dev/sdb2 mdadm: /dev/md0 assembled from 0 drives and 2 sparses - not enough to start the array. Biztos, ami biztos alapon az eredeti diszkek közül csak az egyikek hagyd meg a rendszerben, majd a mentőrendszer betöltés után valami ilyesmivel próbálkozz, értelemszerűen persze mdadm -C --level=1 --raid-device=2 /dev/mdX /dev/sdaY missing Ezzel egy féllábú raid-1-et tudsz összerakni. Ha működik, akkor beteszed a 2. vinyót, és mdadm -A -val hozzáadod, szintén a mentőrendszeren keresztül. Ha ez is megvan, akkor blkid-vel írasd ki az UUID-ket, majd ellenőrizd, hogy ugyanazok az UUID-k vannak-e az mdadm.conf-ban. Az fdisk -l /dev/sd[a\|b] mit mond a partíciók típusára nézve? Jot mond: fd Linux raid autodetect tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
On Mon, 2012-08-13 at 17:17 +0200, Ferenc Wagner wrote: tusi t...@enzim.hu writes: Megprobaltam Ubuntu 12.04 szerver rescue modban inditani, ilyenkor az egyes particiokat latja (sda1-6, sdb1-6), de a raid-et nem tudom ujbol osszeszerelni: mdadm --examine --scan [...] Nézd meg inkább az egyes partíciókat egyenként (mdadm -E /dev/sdaX stb.), hátha az bevilágítóbb lesz. (Bár sajnos úgy tűnik, hogy a metaadatok súlyosan sérültek.) igen, nekem is ugy tunik. Pl az ilyen sor nagyon zavar: Raid Level : -unknown- mdadm -A /dev/md0 /dev/sda2 /dev/sdb2 mdadm: /dev/md0 assembled from 0 drives and 2 sparses - not enough to start the array. Ha mindkét diszken épek az adatok, akkor a --force opció segíthet. Igy gondoltad? mdadm -A /dev/md0 --force /dev/sda2 /dev/sdb2 Végső esetben hasonlítsd össze a két partíciót, vagy derítsd ki akárhogy, hogy melyiken használhatóak az adatok, és készítsd el újból a Hogyan? Az akarhogy nekem nem mukodik ... Nem lehet, hogy az adatok rendben vannak, csak a raid keveredett ossze? Gondolom, valahogy a diszkre irodik ki a raid parameterei, es indulaskor onnet veszi azokat. tömbjeidet egy-egy eszközből (mdadm -C ... missing), majd add hozzá a másikat, amiRE szinkronizálni akarod az adatokat. Elozo valaszban irtam, hogy ez a megoldas nem mukodott... Hogyan kavarodhat igy meg ket diszk berakasatol a rendszer (Ubuntu 12.04)? Nagyon jó kérdés! Mi tortenik, ha van ket gepem, mindkettoben raid1-ben osszeszerelt /dev/md0 es ezutan az egy gepbe teszem mind a negy diszket? Mivel az mdadm.conf-ban uuid-szerint vannak megadva a tombok, nem szabadna osszekavarodnia... es megis. Koszonom a segitseget, tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
On Mon, 2012-08-13 at 20:58 +0200, Gabor HALASZ wrote: On 8/13/2012 3:03 PM, tusi wrote: Hogyan kavarodhat igy meg ket diszk berakasatol a rendszer (Ubuntu 12.04)? Ha nem tevedek, mind a ket gepednek ugyanaz volt a neve. Tevedsz. Kulonbozo a nevuk (w2, fal). tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
On Mon, 2012-08-13 at 22:25 +0200, Bán Miklós wrote: Akkor már csak az érdekesség kedvéért, milyen raid vezérlővel történt mindez? Ez egyszeruseg kedveert mindket gepen Ubuntu 12.04 LTS software raid, 3.2.0-27 kernellel. A kulonbseg annyi, hogy amibol kivettem az 32bites, amibe betettem az 64 bites. tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
Esetleg próbálkozz a metadata verzió explicit megadásával (--metadata=), mert változott már a default, és ez okozhatott akár kavarodást. az biztos 1.2. Ubuntu 12.04 volt a gepen. mdadm -A /dev/md0 /dev/sda2 /dev/sdb2 mdadm: /dev/md0 assembled from 0 drives and 2 sparses - not enough to start the array. Ha mindkét diszken épek az adatok, akkor a --force opció segíthet. Igy gondoltad? mdadm -A /dev/md0 --force /dev/sda2 /dev/sdb2 ez az eredmeny: mdadm --examine /dev/sdb3 /dev/sdb3: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : e2df5dbc:aa77554e:d88c20b4:61a3fae5 Name : fal:1 Creation Time : Fri Nov 11 22:01:05 2011 Raid Level : -unknown- Raid Devices : 0 Avail Dev Size : 20978842 (10.00 GiB 10.74 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 54dda74c:f25f34c8:5e117406:c761f80a Update Time : Mon Aug 13 14:01:24 2012 Checksum : 4f47622e - correct Events : 1 Device Role : spare Array State : ('A' == active, '.' == missing) mdadm --examine /dev/sdc3 /dev/sdc3: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : e2df5dbc:aa77554e:d88c20b4:61a3fae5 Name : fal:1 Creation Time : Fri Nov 11 22:01:05 2011 Raid Level : -unknown- Raid Devices : 0 Avail Dev Size : 20978842 (10.00 GiB 10.74 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 8e5f3a7f:201f5afa:8cd5caee:3c9a8e96 Update Time : Mon Aug 13 14:01:24 2012 Checksum : 27eca03a - correct Events : 1 Device Role : spare Array State : ('A' == active, '.' == missing) grep e2df /etc/mdadm/mdadm.conf ARRAY /dev/md/1 metadata=1.2 UUID=e2df5dbc:aa77554e:d88c20b4:61a3fae5 name=fal:1 mdadm -A /dev/md1 --force --metadata=1.2 /dev/sdb3 /dev/sdc3 mdadm: /dev/md1 assembled from 0 drives and 2 spares - not enough to start the array. cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md1 : inactive sdb3[1](S) sdc3[0](S) 20978842 blocks super 1.2 tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
Kedves Lista! Koszonok minden segitseget, tanacsot. Sajnos semmilyen modszerrel nem tudtam a raid tomboket ujraeleszteni, ezert ujrainstallalom a rendszert. Ugy latom, hogy a fontos config file-okat a lementett imige-kbol strings-szel ki tudom szedni :-( Tanulsag: meglevo raid melle masik gepbol kiszedet raidban levo diszkeket ne tegyunk be. tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
On Tue, 2012-08-14 at 12:24 +0200, Csibra Gergo wrote: Tuesday, August 14, 2012, 11:45:51 AM, tusi wrote: Koszonok minden segitseget, tanacsot. Sajnos semmilyen modszerrel nem tudtam a raid tomboket ujraeleszteni, ezert ujrainstallalom a rendszert. Ugy latom, hogy a fontos config file-okat a lementett imige-kbol strings-szel ki tudom szedni :-( Egy raid1 féllábat fel kell tudnod mountolni raid1 nélkül is. Megváltoztatod a partíció típusát a filerendszernek megfelelőre és mennie kell. Ha ez sem megy, akkor a filerendszer is sérült, nem csak a raid. Igen, a filerendszer is serult. Atallitottam a particio tipusat, es azutan sem tudtam a filerendszert helyreallitani... tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
On Wed, 2012-08-15 at 11:14 +0200, Bán Miklós wrote: On Wed, 15 Aug 2012 09:07:09 +0200 Zs horz...@freemail.hu wrote: Mivel eddig senki nem vetette fel azt a szentségtörő gondolatot, hogy mi van akkor, ha az UUID megegyezett a két raid tömb esetén, én pont ezt fejtegettem pár levéllel feljebb és leírtam egy esetet, ahol ez pont ilyen jellegű hibát okozott. Érdekes lenne tudni, hogy ez volt-e esetleg, csak hogy valami használható tanulsága legyen az esetnek Miki Semmikeppen nem ez volt. Mint irtam, az eredetileg bent levo ket diszk fel volt particionalva sdb[a,b][1-6] reszre, es kulon-kulon volt raid1-ben osszerakva az azonos particiok: md0: sd[a,b]2, md1: sd[a,b]3 ... Ezeknek a raid-eknek per definito kulonbozo volt az UUID-je, leven korabban a gep mukodott. A betett diszkeken viszont csak egy particio volt, egy raid1, tehat ennek UUID-je semmikeppen nem egyezhetet a meglevo valamennyi UUID-vel (mivel azok kulonbozok voltak). Viszont az osszes raid-et hazavagta a muvelet... tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
On Wed, 2012-08-15 at 11:35 +0200, Pápai Balázs wrote: tusi írta: On Wed, 2012-08-15 at 11:14 +0200, Bán Miklós wrote: On Wed, 15 Aug 2012 09:07:09 +0200 Zs horz...@freemail.hu wrote: Mivel eddig senki nem vetette fel azt a szentségtörő gondolatot, hogy mi van akkor, ha az UUID megegyezett a két raid tömb esetén, én pont ezt fejtegettem pár levéllel feljebb és leírtam egy esetet, ahol ez pont ilyen jellegű hibát okozott. Érdekes lenne tudni, hogy ez volt-e esetleg, csak hogy valami használható tanulsága legyen az esetnek Miki Semmikeppen nem ez volt. Mint irtam, az eredetileg bent levo ket diszk fel volt particionalva sdb[a,b][1-6] reszre, es kulon-kulon volt raid1-ben osszerakva az azonos particiok: md0: sd[a,b]2, md1: sd[a,b]3 ... Ezeknek a raid-eknek per definito kulonbozo volt az UUID-je, leven korabban a gep mukodott. A betett diszkeken viszont csak egy particio volt, egy raid1, tehat ennek UUID-je semmikeppen nem egyezhetet a meglevo valamennyi UUID-vel (mivel azok kulonbozok voltak). Viszont az osszes raid-et hazavagta a muvelet... Legközelebb mielőtt ilyet csinálsz esetleg érdemes lenne megváltoztatni a vendéghdd-n a partíció típusát.. Ezt sajnos nem ertem. Mire kellett volna megvaltoztatnom? Az eredeti cel a vendeg diszkek mentese lett volna (ami persze meg most is megmaradt feladatnak...) tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
On Wed, 2012-08-15 at 23:21 +0200, Ferenc Wagner wrote: 1. A mountot nem érdekli a partíció típusa, csak az auto-assemblyt. 2. Az MD RAID partíció önmagában csak akkor mountolható, ha 0.9-es vagy 1.0-ás típusú a RAID metaadat. Egyébként offsetet kíván a dolog. 1.2-es volt. Errol az offset-rol tudnal tobbet mondani? Mit jelent, hogy kell egy ilyet felmountolni stb... Koszonom tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: raid mizeria
On Sat, 2012-08-18 at 12:47 +0200, Ferenc Wagner wrote: tehát, ha ez egy RAID-1 volt, ezzel próbálkozhatsz: # losetup -o $((2048*512)) /dev/loop0 /dev/sdb3 # e2fsck /dev/loop0 # mount /dev/loop0 /mnt Hihetetlen! Mukodik! Koszonom szepen! Itt van minden adat! (egy kis pontositas: /dev/sdb3 helyett a lementett image file neve kell). Koszonom, tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
spam aradat
Sziasztok! Greylist-tel szurom a spam-eket, de az elmult napokban olyan mennyisegu erkezik, hogy lassan a gep massal sem foglalkozik, csak visszautasit (lentebb a log reszlet). Milyen technika letezik meg, illetve hogyan tudnam valahogy azon gepek szamara dinamikusan elerhetetlenne tenni a gepet, ahonnet tul sok greylisted level erkezik? Van valakinek erre mukodo megoldasa, otlete? Koszonom, tusi --- Grand Totals messages 3586 received 3736 delivered 0 forwarded 96 deferred (372 deferrals) 6 bounced 268758 rejected (98%) 0 reject warnings 0 held 0 discarded (0%) 396019k bytes received 833m bytes delivered 822 senders 486 sending hosts/domains 300 recipients 70 recipient hosts/domains Per-Hour Traffic Summary time received delivered deferredbounced rejected -0100 90 90 4 0 10898 0100-0200 108108 2 0 8242 0200-0300 58 62 4 0 9302 0300-0400 38 38 4 0 6802 0400-0500 50 52 4 0 11342 0500-0600 66 66 4 4 4970 0600-0700 92 92 2 0 2552 0700-0800 56 62 4 0 9446 0800-0900 148160 4 0 3040 0900-1000 178184 4 0 8252 1000-1100 216222 6 0 6972 1100-1200 290326 2 0 6388 1200-1300 220220 6 0 15406 1300-1400 246262 4 0 10594 1400-1500 232234 4 0 12694 1500-1600 274132256 0 12278 1600-1700 276448 32 2 17746 1700-1800 182196 4 0 16302 1800-1900 164176 4 0 13844 1900-2000 160160 4 0 18464 2000-2100 154156 4 0 17426 2100-2200 108108 2 0 15088 2200-2300 104104 4 0 17794 2300-2400 76 78 4 0 12916 message reject detail - RCPT Recipient address rejected: Access denied (total: 21164) ... Recipient address rejected: Greylisted (total: 247594) ... Warnings smtpd (total: 71651) 416 201.254.172.172: hostname 201-254-172-172.speedy.com.ar verific... ... _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
Re: Nem megy a su
drwxr-xr-x 26 root root0 Jan 1 1970 . drwxr-xr-x 26 root root0 Jan 1 1970 .. ez az 1970-es datom is egy kicsit zavaro... tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux
no space left on device
Sziasztok, van egy gepem, amin rocks 6.1 fut, van rajta egy 24T raid10 tomben egy filerendszer. Ujabban azt talalta ki, hogy azt mondja, betelt a disk: --- ./e2fsck /dev/sdb1 e2fsck 1.43-WIP (20-Jun-2013) BigDisk: clean, 5721600/5721600 files, 695089557/5858918391 blocks mount -t ext4 /dev/sdb1 /bigdisk/ df -h Filesystem Size Used Avail Use% Mounted on .. /dev/sdb1 22T 2.6T 20T 12% /bigdisk .. touch /bigdisk/haho touch: cannot touch `/bigdisk/haho': No space left on device -- Ha ujrainditom a gepet, akkor utana megint mukodik egy ideig. Mi lehet a gond? Koszonom, Gabor _ linux lista - linux@mlf.linux.rulez.org http://mlf.linux.rulez.org/mailman/listinfo/linux
Re: no space left on device
On 04/15/2014 10:48 AM, Hegedüs Ervin wrote: Hello, On Tue, Apr 15, 2014 at 10:11:36AM +0200, tusi wrote: mount -t ext4 /dev/sdb1 /bigdisk/ df -h Filesystem Size Used Avail Use% Mounted on .. /dev/sdb1 22T 2.6T 20T 12% /bigdisk .. a df -i parancsnak mi a kimenete? a. Hoops... /dev/sdb1 5721600 57216000 100% /bigdisk Es akkor most mit kell tennem? Igy lett csinalva a filerendszer (ez alapjan a leiras alapjan: http://blog.ronnyegner-consulting.de/2011/08/18/ext4-and-the-16-tb-limit-now-solved/) mke2fs -O 64bit,has_journal,extents,huge_file,flex_bg,uninit_bg,dir_nlink,extra_isize -i 4194304 -m 1 -L BigDisk /dev/sdb1 aminek ez volt az eredmenye: Filesystem label=BigDisk OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) Stride=0 blocks, Stripe width=0 blocks 5721600 inodes, 5858918391 blocks 58589183 blocks (1.00%) reserved for the super user First data block=0 Maximum filesystem blocks=8006926336 178800 block groups 32768 blocks per group, 32768 fragments per group 32 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 2048, 23887872, 71663616, 78675968, 10240, 214990848, 51200, 550731776, 644972544, 1934917632, 256000, 3855122432, 5804752896 Allocating group tables: done Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done Koszonom, Gabor _ linux lista - linux@mlf.linux.rulez.org http://mlf.linux.rulez.org/mailman/listinfo/linux
Re: no space left on device
On 04/15/2014 10:53 AM, tusi wrote: On 04/15/2014 10:48 AM, Hegedüs Ervin wrote: Hello, On Tue, Apr 15, 2014 at 10:11:36AM +0200, tusi wrote: mount -t ext4 /dev/sdb1 /bigdisk/ df -h Filesystem Size Used Avail Use% Mounted on .. /dev/sdb1 22T 2.6T 20T 12% /bigdisk .. a df -i parancsnak mi a kimenete? a. Hoops... /dev/sdb1 5721600 57216000 100% /bigdisk Es akkor most mit kell tennem? Igy lett csinalva a filerendszer (ez alapjan a leiras alapjan: http://blog.ronnyegner-consulting.de/2011/08/18/ext4-and-the-16-tb-limit-now-solved/) mke2fs -O 64bit,has_journal,extents,huge_file,flex_bg,uninit_bg,dir_nlink,extra_isize -i 4194304 -m 1 -L BigDisk /dev/sdb1 ^^^ utana olvasva, a -i 4194304 miatt van a gond, ez tul nagy. Javitani, ha jol olvasom, csak egy ujabb mkfs.ext4-gyel lehet, tehat adatok lementese, mkfs, majd visszamasolas. Meg 1x koszonom a kezdeti iranymutatast. Gabor _ linux lista - linux@mlf.linux.rulez.org http://mlf.linux.rulez.org/mailman/listinfo/linux
apache dav_svn koltozesrol informalas
Sziasztok, OFF csak hogy noveljem a lista forgalmat /OFF van egy webszerverunk, ami kiszolgalja a subversion repositoryt. A repositoryt most atteszem egy masik gepre, es szeretnem egy atmeneti ideig errol a tenyrol a felhasznalokat ertesiteni. Tehat ha valaki nyom egy 'svn up'-ot vagy barmit, ami a regi webszerver cimet hasznalja, akkor kapjon egy valaszt, hogy bocs, elkoltoztunk. koszonom, tusi _ linux lista - linux@mlf.linux.rulez.org http://mlf.linux.rulez.org/mailman/listinfo/linux
Re: Jpeg képek dátum szerint könyvtárakba script-tel?
Vagy imagemagick, pl igy: https://stackoverflow.com/questions/26654709/extract-exif-data-as-text-using-imagemagick tusi On 10/22/20 8:14 AM, Gyurman Attila wrote: 2020. okt. 22. dátummal, 8:12 időpontban Csaba írta: Sziasztok, Milyen módon lehet írni olyan script-et, amely például jpeg képek létrehozási dátuma alapján csoportosítja a képeket könyvtárba? Nem a fájlrendszer szerinti létrehozási dáumra gondolok, hanem a képfájlból kiolvasható készítés dátumára. "év.hónap.nap" formátumban létrehozott könyvtárakba másolná az azonos dátummal készült fényképeket. Létezik ilyen megoldás? Sok okostelefonról csak úgy lehet képeket másolni, hogy ömlesztve, egy mappában van az összes és ha szét lenne válogatva könyvtáranként, könnyebben lehetne adott könyvtárat például kép készítésének eseménye szerint átnevezni. Szia! exiftool lesz a barátod. Pl. itt írnak rename-ről: https://exiftool.org/forum/index.php?topic=5859.0 Üdv, Attila _ linux lista - linux@mlf.linux.rulez.org http://mlf.linux.rulez.org/mailman/listinfo/linux _ linux lista - linux@mlf.linux.rulez.org http://mlf.linux.rulez.org/mailman/listinfo/linux