[Lug-bg] Optical route maps
Има ли ресурс от който да видя изградените оптични трасета навън от нашата мила република? Искам да изчисля дестинациите с най-ниско закъснение на статистически или предиктивен принцип. Ако някой се сеща за карта или нещо подобно да сподели сега или да мълчи завинаги :) ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
[Lug-bg] VPS/dedicated server избор
Ако искам да избера VPS или dedicated hosting provider, който е извън България, но искам да има минимален delay с български хостове, коя държава(за предпочитане извън съюза) или кой доставчик би бил моят избор? - ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
Re: [Lug-bg] VPS/dedicated server избор
Пенчев, не се прави на хитър :) На 1/12/2011 1:33 PM, Peter Pentchev написа: On Wed, Jan 12, 2011 at 01:19:07PM +0200, Daniel Ivanov wrote: Ако искам да избера VPS или dedicated hosting provider, който е извън България, но искам да има минимален delay с български хостове, коя държава(за предпочитане извън съюза) или кой доставчик би бил моят избор? Без да мога да дам мнение, все пак мисля, че за другите ще е по-лесно да отговорят, ако уточниш точно за кой съюз става дума - бившия СССР, ЕС или някой друг :) Поздрави, Петър ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg -- ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
Re: [Lug-bg] Амарок
Clementine рулира. Дори в extras има rain emulation и hypnotoad(hail to futurama). Ползвам го на една друга операционна система, но е очарователен. На 11/20/2010 8:29 PM, Дамян Иванов написа: -=| Yasen Pramatarov, Sat, Nov 20, 2010 at 06:59:01PM +0200 |=- На Sat, 20 Nov 2010 13:40:10 +0200 Дамян Иванов написа: Днес в списъка с нови пакети на Дебиан забелязах clementine. Всъщност не е нов пакет в самия Дебиан, а в debian-multimedia[0] http://debian-multimedia.org/ Напълно си прав. Съжалявам за объркването. (ако някой няма това хранилище, ще има да почака малко, докато влезе в Дебиан). Звучи като да има пречка, например от правно естество. Има ли такова нещо? ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
Re: [Lug-bg] Амарок
На мен също ми беше любимото парче софтуер, но нямам и бегла представа накъде е отишъл проекта с версия 4. Слушам много малко музика и я пускам под други операционни системи. Пък и сега с тия videosharing сайтове, mp3 изгуби значението си като контейнер. На 11/18/2010 11:01 PM, Ivo написа: Здравейте, Някой на скоро спомена нещо за случилото се с Амарок. Аз от скоро ползвам кде 4 и наистина ми направи впечатление тотално орязания интерфейс, преместени или липсващи функции. Аз ли не мога да ги открия тези неща, или наистина нещо се е случило с този проект? Ако сте изоставили Амарок, какво ползвате в момента? Поздрави Иво ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg -- Cryptotel Пиши тук Daniel Ivanov CTO 02/4903547 | ser...@cryptotel.net ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
[Lug-bg] UDP packet mangling
Опитвам се да изиграя следния сценарий: Хостове, зад NAT, които ползват udp да изпращат/приемат esp/ike. Всичко е наред с конфигурацията на vpn-ите, но устройствата са мобилни(през hsdpa). А постоянното пращане на DPD/keep-alive пакети изтощава много бързо батериите. Иска ми се да изпробвам reverse keep-alive. Ето какво имам предвид. 1.Клиент-а, който е зад НАТ отваря сокет към сървъра. Src port = 4500. Nat src port = random high. Dst port 4500. 2.Сървъра приема, аутентикира и установява тунел. Започва да праща обратно пакети на външното ип на router-a със src port = 4500 и predefined random high. 3. Ключът тук е в това, че пакетите са с фиксиран TTL, който е калкулиран така, че да спира пакета преди да стигне клиента.(пакета умира на gateway-a) 4. А пакетите са dummy. Приемаме, че рутера с НАТ-а е с фиксиран udp hole punch от 120 секунди. Ако се пращат пакети, които не стигат до клиента( = не хабят батерия), те дали ще държат дупката отворена? ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
Re: [Lug-bg] UDP packet mangling
Много по-прагматично решение съм измислил. Всички isakmp keep-alives излизат с дължина 29 bytes. Мачвам ги и ги пускам през ТТЛ mangle target-a на iptables и намалявам драстично keep-alive респонса. За интегритет ще оставя DPD negotiations. Мисля да тествам, като закача някакъв ipsec клиент на gprs модем и да виждам с какво ттл пакетите започват да не пристигат на последния хоп(client device), защото пакет дъмпинг-а на телефони още не е това, което ми се иска да е :) На 9/20/2010 6:41 PM, Vasil Kolev написа: В 17:35 +0300 на 20.09.2010 (пн), Daniel Ivanov написа: Приемаме, че рутера с НАТ-а е с фиксиран udp hole punch от 120 секунди. Ако се пращат пакети, които не стигат до клиента( = не хабят батерия), те дали ще държат дупката отворена? Много зависи от NAT-а, но ако е на последния hop преди устройството, най-вероятно не, понеже tcp стека поне под linux мисля, че ги режеше преди това. Ако има още един hop навътре след NAT-а, вероятно ще свърши работа. Разбира се, дължината на пътя се променя динамично, той internet-а не е особено статичен :) Пакетът, който може да ти свърши работа е hping2, може да направи в общи линии всякакъв пакет. ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
Re: [Lug-bg] Интерфейс подрежд ане
На дебиан дериватите има пакет, наречен ifrename, който ползва /etc/iftab за да опишеш признаци, по които да ти се именуват интерфейсите. Andrei Boyanov wrote: Здравейте, В /etc/modules.conf сложи нещо от сорта на: alias eth0 module1 alias eth1 module2 където module1 и module2 са драйверите съответно на първата и втората мрежова карта. Поздрави, Андрей Vassil Petkov Davidov написа: Здравей! виж /etc/udev/rules.d/z25_persistent-net.rules On Fri, 2007-08-03 at 00:53 +0300, Daniel Jelev wrote: Здравейте. Напоследък изпитвам затруднения около slackware 12, имам 2 еднакви лан карти Реалтек, едната е 10 другата е 10/100. Проблемът ми се състои в това че системата отчита 10ката като eth0, а 10/100 като eth1, аз обаче държа да ги разменя. Пробвах да сменя слотовете, нямаше ефект. Ще съм много благодарен ако някой ми помогне по този казус, благодаря предварително. -- Daniel Jelev Student at *PGTK* BTK, Sofia Web: www.даниел.com click.sgate.org ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
Re: [Lug-bg] Mind-boggling: dynamic multipoint vpn п од Линукс.
Трябва ни един капан за крокодили... Vasil Kolev wrote: В пн, 2007-07-30 в 21:55 +0300, Daniel Ivanov написа: Изцяло загубихте връзката с главната постановка. Когато градиш ethernet енкапсулации ( openvpn tap) е жизнено важно да разделиш втф. От тия всичките идеи определено да се допише криптиране на Etud-а (ethernet-over-udp) ми изглежда направо елементарно. Защо the fuck трябва да си играем с STP и подобни работи, като реално ни трябва ЕДИН елементарен ethernet сегмент, в който има реално погледнато ЕДИН switch и кило идиоти, накачени на тях, няма машина да поема пакети за друга и т.н.? Аман от мазохизми :) ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
Re: [Lug-bg] Тъжна вест за датата на сем инара
За мен нито една дата не е проблем, но все пак всеки, който зависи от работодатели/срещи/отсъствия да прецени. Хубаво е да е в нещо като почивни дни. Skelet wrote: Чух че 2 юни е обявен за работен ден (заменят го с 19 май, за да можело да мислим за евроизборите). Това ще ни създаде сериозни проблеми за срещата в Стара Загора, която планирахме за 2-3 юни. На 9-10 юни президентът на САЩ Буш и женичката му май ще гостуват на нашето президентче в София и вероятно за 5-6 дни живота в столицата ни ще бъде блокиран. Поради горните съображения, навити ли сте да пробвам да преместя датата за срещата за 9-10 юни. Изобщо, пратете по някое мнение около това тъжно стечение на обстоятелства ! Скелета ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
Re: [Lug-bg] lug-bg: SMT+SMP irq balancing
Постфактум конфигурацията е подкарана и стана като просто смених PCI картите с PCI-Express такива, тръгна едва ли не веднага :) Daniel Ivanov wrote: Имам небивал проблем с балансирането/разпределянето на прекъсванията между процесорите при SMP/SMT машина. Конфигурация - [EMAIL PROTECTED], 2xe1000 intel cards. HyperThreading пуснат по подразбиране от чипсета. 4 логически процесора. Искам interrupts от едната карта да отиват на първите 2 ядра, а от втората - на следващите 2. Въпреки, че изрично е документирана такава функционалност, рутирането на прекъсванията не се случва. echo 03 /proc/irq/177/smp_affinity echo 0c /proc/irq/185/smp_affinity Приема стойностите, битмаските са правилни, но продължава да пуска прекъсвания само на едно от 2-те ядра от така наречената група, което оставя 2 от ядрата натоварени , а други 2 на 100% idle. От кернел конфигурацията пусках и спирах 'Kernel irq balancing' , като тази опция изрично намалява производителноста. Опитах и с irqbalance, който пък е тривиален и не разбира от групиране. Всяка една идея би била от полза. ___ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg
lug-bg: SMT+SMP irq balancing
Имам небивал проблем с балансирането/разпределянето на прекъсванията между процесорите при SMP/SMT машина. Конфигурация - [EMAIL PROTECTED], 2xe1000 intel cards. HyperThreading пуснат по подразбиране от чипсета. 4 логически процесора. Искам interrupts от едната карта да отиват на първите 2 ядра, а от втората - на следващите 2. Въпреки, че изрично е документирана такава функционалност, рутирането на прекъсванията не се случва. echo 03 /proc/irq/177/smp_affinity echo 0c /proc/irq/185/smp_affinity Приема стойностите, битмаските са правилни, но продължава да пуска прекъсвания само на едно от 2-те ядра от така наречената група, което оставя 2 от ядрата натоварени , а други 2 на 100% idle. От кернел конфигурацията пусках и спирах 'Kernel irq balancing' , като тази опция изрично намалява производителноста. Опитах и с irqbalance, който пък е тривиален и не разбира от групиране. Всяка една идея би била от полза.
Re: lug-bg: Съвет за wireless карт а
Всяка една decent d-link карта, тъй като д-линк вече ползват само atheros , а madwifi драйвера е с отворен код :) Rosen Nedialkov wrote: Здравейте! Скоро започвам разработката на дипломната ми работа и за целта ще се нуждая от каква да е wireless PCI карта. Единственото нещо, което искам картата да има са драйвери с отворен код и да е сравнително нов модел. Търся съвет какво точно да купя, с какъв чипсет и ако е възможно от къде мога да я закупя. Някой от вас използа ли подобна карта на работната си машина? Гледах разни модели на Asus, но те използваха ndiswrapper. Прегледах и списъка на OpenBSD за такова желязо, но повечето карти оттам не се продават тук и са стари ( или поне аз не видях ). Ако някой има подобно старо желязо за продан нека ми пише :) Поздрави, Росен
Re: lug-bg: Логване на и зходящата поща
Е, mailsnarf е прекалено, dsniff библиотеката е много некадърно написана и може да счупи цялата машина при повечко трафик По-скоро опитай нещо като always_bcc при postfix, макар че и моя хинт е безполезен, тъй като sendmail изглежда няма такава опция :( Въпреки това съм сигурен , че ще стане със дефиниция на rewrite rules. Намери си sendmail administration guide и прочети там как се дефинират local rules. Jordan P. Petkov wrote: Dean Stoeff wrote: cut За Qmail и Postfix и аз знам как става, другия проблем е, че не мога да сменям архитектурата а също така и да прилагам пачове на самия sendmail Не съм го ползвал, но... mailsnarf ? $apt-cache show dsniff Package: dsniff Priority: extra cut Description: Various tools to sniff network traffic for cleartext insecurities This package contains several tools to listen to and create network traffic: . * arpspoof - Send out unrequested (and possibly forged) arp replies. * dnsspoof - forge replies to arbitrary DNS address / pointer queries on the Local Area Network. * dsniff - password sniffer for several protocols. * filesnarf - saves selected files sniffed from NFS traffic. * macof - flood the local network with random MAC addresses. * mailsnarf - sniffs mail on the LAN and stores it in mbox format. * msgsnarf - record selected messages from different Instant Messengers. * sshmitm - SSH monkey-in-the-middle. proxies and sniffs SSH traffic. * sshow - SSH traffic analyser * tcpkill - kills specified in-progress TCP connections. * tcpnice - slow down specified TCP connections via active traffic shaping. * urlsnarf - output selected URLs sniffed from HTTP traffic in CLF. * webmitm - HTTP / HTTPS monkey-in-the-middle. transparently proxies. * webspy - sends URLs sniffed from a client to your local browser. cut
Re: lug-bg: SuSE 10.1 network hangs
Колко точно трафик ти е нужен, за да се счупи? Щом ще ползваш глупави карти, опитай да изключиш tcp onload-а, както и да пуснеш kernel irq handling. Или просто си купи една е1000 карта :) Dimitar Georgiev Popov wrote: Здравейте, Машината е ASUS SK8N с nForce 3 150 със SuSE 10.1 и ядро 2.6.16.13-4. Имам мрежов контролер на 3Com: # lspci 01:06.0 Ethernet controller: 3Com Corporation 3c905C-TX/TX-M [Tornado] (rev 78) Преди на негово място имаше контролер с чип на RealTek. И с двата имаше един и същи проблем: системата забиваше при генериране на известно количество трафик. В syslog всеки път преди да зависне системата, има няколко стотин (може би) пъти следните съобщения: 07/14/2006 01:04:42 AM myhost kernel ACPI: PCI Interrupt :01:06.0[A] - Link [LNKD] - GSI 17 (level, high) - IRQ 193 ... 07/14/2006 01:04:42 AM myhost kernel ACPI: PCI Interrupt :01:06.0[A] - Link [LNKD] - GSI 17 (level, high) - IRQ 193 07/14/2006 01:04:42 AM myhost kernel Call Trace: IRQ 802096f7{acpi_pci_link_allocate_irq+169} 07/14/2006 01:04:42 AM myhost kernel Debug: sleeping function called from invalid context at include/asm/semaphore.h:105 07/14/2006 01:04:42 AM myhost kernel eth2: Host error, FIFO diagnostic register . ... 07/14/2006 01:04:42 AM myhost kernel eth2: Host error, FIFO diagnostic register 8000. 07/14/2006 01:04:42 AM myhost kernel eth2: PCI bus error, bus status 8020 ... 07/14/2006 01:04:42 AM myhost kernel eth2: PCI bus error, bus status 8020 07/14/2006 01:04:42 AM myhost kernel eth2: Too much work in interrupt, status e003. 07/14/2006 01:04:42 AM myhost kernel 801095ef{default_idle+0} 8010a918{ret_from_intr+0} EOI 07/14/2006 01:04:42 AM myhost kernel 8010967e{cpu_idle+61} 8040477c{start_kernel+456} 07/14/2006 01:04:42 AM myhost kernel 80145342{__do_IRQ+109} 8010c2a2{do_IRQ+59} 07/14/2006 01:04:42 AM myhost kernel 801d38cd{pci_enable_device+19} 8815a7eb{:3c59x:vortex_up+172} 07/14/2006 01:04:42 AM myhost kernel 80209e0a{acpi_pci_allocate_irq+0} 801d38ad{pci_enable_device_bars+39} 07/14/2006 01:04:42 AM myhost kernel 80209e2e{acpi_pci_allocate_irq+36} 80209f87{acpi_pci_irq_enable+167} 07/14/2006 01:04:42 AM myhost kernel 802aa292{thread_return+0} 80109619{default_idle+42} 07/14/2006 01:04:42 AM myhost kernel 80404259{_sinittext+601} 07/14/2006 01:04:42 AM myhost kernel 8815bc9b{:3c59x:vortex_error+666} 8815a0ac{:3c59x:mdio_sync+56} 07/14/2006 01:04:42 AM myhost kernel 8815c04e{:3c59x:boomerang_interrupt+733} 801452a4{handle_IRQ_event+41} 07/14/2006 01:04:42 AM myhost kernel in_atomic():1, irqs_disabled():0 Въпросът ми е как да идентифицирам проблема и как да го оправя. Ако има нужда от още информация, ще я предоставя. Благодаря много! Поздрави, Митко
Re: lug-bg: trafshow през web?
Дори решение като trafshow не е удачно за големи трафици(150мбит/с +). Така или иначе, за да минават и дърпат толкова потребители през тази машина, тя прави някаква класификация. Елегантното решение е да се ползват LOG/ULOG таргети за точно логване. При горепосочения трафик ,това става почти невъзможно. Най-практичното решение е да се ползват кернел статистиките, които да се парсват на заявка и имаш моментен снапшот. Друго за което се сещам е е да редиректнеш stdout към pipe и с пхп демон да го парсваш. Имай предвид, че ще имаш проблеми с парсинг на curses output. Peter Pentchev wrote: On Tue, Jun 13, 2006 at 03:20:07PM +0300, Stefan Stefanov wrote: Може ли някой да ми подскаже идея как да показвам екрана на trafshow на web страница? Например с php + apache. Също приемам и идеи за алтернатива на trafshow, но с уеб интерфейс. Благодаря предварително Пробвай с ntop - http://www.ntop.org/ Поздрави, Петър
lug-bg: Intel E1000 driver tunning
Има машина през която минава трафика на клиенти(1000+), шейпи се и евентуално НАТ-ва. Всичко ток и жица, обаче в един прекрасен момент packet interrupting се вдига непоносимо. Изяжда целия процесор. На около 28 пакета/секунда се уцеща забавяне в работата(network delays) и idle-а отива на ~5%. :02:09.0 Ethernet controller: Intel Corp. 82541GI/PI Gigabit Ethernet Controller :02:0c.0 Ethernet controller: Intel Corp. 82545GM Gigabit Ethernet Controller (rev 04) Това са двата важни interface-a, през които минава трафика. Досегашен investigation определи мрежовите карти като източник на небивалите прекъсвания. Опитах с и без NAPI на е1000 driver-a. В момента е без NAPI и с ITR=3200,3000. Някой има ли идеи как да се намали натоварването на процесора. Ориентировъчен трафик при 28 пакета - 190мбит/с. Машината е p4(northwood) @ 2.8Ghz с 2GB ram. Евентуални процедури оттук нататък са изместването на NAT-a от реално адресиране или NATting-а да се прави на друга машина, за да изключа connection tracking-a на тази. Пакетите минават по минимален път и попадат в HTB+esfq qdiscs.
Re: lug-bg: seminar 2006
Аз смятам да посетя любимия си град и тази година.(разбирайте стара загора). Дори и само за напиването. Миналата година имаше УИКИ, ами тази? Имам идея за лекция, само да отлежи малко във времето и ще пиша. На скелета ли? Spas B. Pavlov wrote: Здравейте, По традиция, всяка година през месец Май, в Стара Загора се провежда годишния Линукс семинар. За тази година се планира мероприятието да се проведе на 3 и 4 юни, или ако има пробем, да се изтегли седмица напред- 27 и 28 май. Старозагорската група започваме да действаме по организацията. Предстои да уточняваме лекциите, така че обявявам дискусия по темата. Помислете каой каква лекция би могъл/искал да изнесе/чуе? Очаквам предложения, коментари, въпроси. Спас Павлов
lug-bg: ebtables VLAN target
Тука си сет-вах един бридж към мрежата. Гледах какво предлага досега kernel-а , и виждам, че ebtables вече мач-ва vlan id(VID). Всичко това е чудесно, но се запитах : щом мач-ва , как ви се струва вариант-а да set-ва VID на 802.11Q untagged traffic. Това се прави на ниво драйвер от мрежовата карта, но какво ще стане ако почна да бълвам кернел спейс модифицирани пакети с различни VID-та? Имал съм си вземане/даване с netfilter фреймуърк-а и като ми остане време , смятам да поиграя малко. А дотогава - някой да се сеща за кернел спейс решение за сет-ване на произволно VID?
lug-bg: ICQ problems
Мислех си, че скапаните потребители се шегуват, но ICQ-to не желае да се върже по никакъв начин. Независимо дали го слагам със или бел firewall. Просто си плюе 0404 грешка и ме отебава качествено. Някои да хвърли един малък хинт? 2.6.13.4 + SNAT - това е най-общо казано
lug-bg: Рутинг одисея.
Здрасти на сички земеделци. По същество: клиентска мрежа - рутер - интернет (етх1 е вътрешен / етх3 външен итерфейс) Всичко ток и жици. Просто и работещо. Сега обаче трябва да си добавя squid-а във веригата. Тъй като ТРЯБВА да си запазя марките на пакети, защото са ми важни за traversal-а, не ползвам policy routing, а също и че мястото където решавам какъв трафик да отиде до squid-а е POSTROUTING веригата на mangle таблицата, което обезмисля слагането на марки(от опити го пиша). Както и да е. Слагам forced route с помощта на -j ROUTE (част от pom-ng) и пакетите, които искам отиват до прокси машината. Там има редирект, който праща сичко към локален сокет. Заявка минава, SYN отива, ACK се връща ,стига до рутер И НЕ НАПУСКА ИНТЕРФЕЙСА. Което е удивително. tcpdump показва, че минава нещо от сорта на : x.x.x.x : 80 - 192.168.x.x : spt на вътрешния интерфейс, но до клиентската машина така или иначе НЕ СТИГА. Когато пакета се върне директно към клиента(все пак са в една и съща физическа мрежа), то той пристига успешно.Това обаче е безмислено, тъй като трябва да се шейпи. Опитах следните варианти : client - eth1 - proxy(eth0 on router) - internet - proxy - router(eth1) client - eth1 - proxy(eth1 on router) - internet -proxy - router(eth1) Истината е че играейки си с iptables не виждам ако сложа правило от сорта на iptables -t mangle -I POSTROUTING -p tcp --dport 80 -s internet.host -j ACCEPT да се покачват броячите. ако сложа същото правило в PREROUTING обаче, пакети удрят правилото. Знам, че traversal-a е така : mangle PREROUTING nat PREROUTING input FORWARD mangle FORWARD mangle POSTROUTING nat POSTROUTING Това е прекрасно, но [EMAIL PROTECTED]:/home/httpd# iptables -t mangle -L PREROUTING Chain PREROUTING (policy ACCEPT) target prot opt source destination valid_macs all -- anywhere anywhere [EMAIL PROTECTED]:/home/httpd# iptables -t mangle -L valid_macs Chain valid_macs (1 references) target prot opt source destination DSCP all -- localnet/16 anywhere!set macs1 src DSCP set 0x0a DSCP all -- 212.72.216.0/24 anywhere!set macs3 src DSCP set 0x0a DSCP all -- 213.91.223.128/25anywhere!set macs2 src DSCP set 0x0a Нищо необикновено. Просто се слага DSCP стойност на пакети. Няма правило или policy , което да спре пакета от травърсал. Ето един tcpdump : tcpdump: listening on eth1, link-type EN10MB (Ethernet), capture size 96 bytes 18:19:53.670460 IP (tos 0x0, ttl 128, id 54945, offset 0, flags [DF], proto: TCP (6), length: 48) 192.168.10.2.3784 61.74.68.182.80: S, cksum 0x6ef4 (correct), 3511086128:3511086128(0) win 64240 mss 1460,nop,nop,sackOK 18:19:53.670518 IP (tos 0x0, ttl 64, id 0, offset 0, flags [DF], proto: TCP (6), length: 48) 61.74.68.182.80 192.168.10.2.3784: S, cksum 0x66c6 (correct), 2500745007:2500745007(0) ack 3511086129 win 5840 mss 1460,nop,nop,sackOK 18:19:55.052399 IP (tos 0x0, ttl 64, id 0, offset 0, flags [DF], proto: TCP (6), length: 48) 61.74.68.182.80 192.168.10.2.3780: S, cksum 0x8fa8 (correct), 2441684349:2441684349(0) ack 3499751735 win 5840 mss 1460,nop,nop,sackOK Вижда се, че пакетите би следвало да стигнат до машината, но те просто не стигат(потвърдено с ethereal). Дайте ми сламка, за която да се хвана.
Re: lug-bg: Рутинг одисе я.
На неразбралите честито, на мен също. Проблема се крие в rp_filter. maniax-а ме подсети. Благодаря му. Daniel Ivanov wrote: Здрасти на сички земеделци. По същество: клиентска мрежа - рутер - интернет (етх1 е вътрешен / етх3 външен итерфейс) Всичко ток и жици. Просто и работещо. Сега обаче трябва да си добавя squid-а във веригата. Тъй като ТРЯБВА да си запазя марките на пакети, защото са ми важни за traversal-а, не ползвам policy routing, а също и че мястото където решавам какъв трафик да отиде до squid-а е POSTROUTING веригата на mangle таблицата, което обезмисля слагането на марки(от опити го пиша). Както и да е. Слагам forced route с помощта на -j ROUTE (част от pom-ng) и пакетите, които искам отиват до прокси машината. Там има редирект, който праща сичко към локален сокет. Заявка минава, SYN отива, ACK се връща ,стига до рутер И НЕ НАПУСКА ИНТЕРФЕЙСА. Което е удивително. tcpdump показва, че минава нещо от сорта на : x.x.x.x : 80 - 192.168.x.x : spt на вътрешния интерфейс, но до клиентската машина така или иначе НЕ СТИГА. Когато пакета се върне директно към клиента(все пак са в една и съща физическа мрежа), то той пристига успешно.Това обаче е безмислено, тъй като трябва да се шейпи. Опитах следните варианти : client - eth1 - proxy(eth0 on router) - internet - proxy - router(eth1) client - eth1 - proxy(eth1 on router) - internet -proxy - router(eth1) Истината е че играейки си с iptables не виждам ако сложа правило от сорта на iptables -t mangle -I POSTROUTING -p tcp --dport 80 -s internet.host -j ACCEPT да се покачват броячите. ако сложа същото правило в PREROUTING обаче, пакети удрят правилото. Знам, че traversal-a е така : mangle PREROUTING nat PREROUTING input FORWARD mangle FORWARD mangle POSTROUTING nat POSTROUTING Това е прекрасно, но [EMAIL PROTECTED]:/home/httpd# iptables -t mangle -L PREROUTING Chain PREROUTING (policy ACCEPT) target prot opt source destination valid_macs all -- anywhere anywhere [EMAIL PROTECTED]:/home/httpd# iptables -t mangle -L valid_macs Chain valid_macs (1 references) target prot opt source destination DSCP all -- localnet/16 anywhere!set macs1 src DSCP set 0x0a DSCP all -- 212.72.216.0/24 anywhere!set macs3 src DSCP set 0x0a DSCP all -- 213.91.223.128/25anywhere!set macs2 src DSCP set 0x0a Нищо необикновено. Просто се слага DSCP стойност на пакети. Няма правило или policy , което да спре пакета от травърсал. Ето един tcpdump : tcpdump: listening on eth1, link-type EN10MB (Ethernet), capture size 96 bytes 18:19:53.670460 IP (tos 0x0, ttl 128, id 54945, offset 0, flags [DF], proto: TCP (6), length: 48) 192.168.10.2.3784 61.74.68.182.80: S, cksum 0x6ef4 (correct), 3511086128:3511086128(0) win 64240 mss 1460,nop,nop,sackOK 18:19:53.670518 IP (tos 0x0, ttl 64, id 0, offset 0, flags [DF], proto: TCP (6), length: 48) 61.74.68.182.80 192.168.10.2.3784: S, cksum 0x66c6 (correct), 2500745007:2500745007(0) ack 3511086129 win 5840 mss 1460,nop,nop,sackOK 18:19:55.052399 IP (tos 0x0, ttl 64, id 0, offset 0, flags [DF], proto: TCP (6), length: 48) 61.74.68.182.80 192.168.10.2.3780: S, cksum 0x8fa8 (correct), 2441684349:2441684349(0) ack 3499751735 win 5840 mss 1460,nop,nop,sackOK Вижда се, че пакетите би следвало да стигнат до машината, но те просто не стигат(потвърдено с ethereal). Дайте ми сламка, за която да се хвана.
lug-bg: Linux source routing
Тъй като смятам, че най лесно се онаглеждава с примери , ще приложа следната ipfw команда: ipfw add x fwd dest_ip ip from any to any 80 out xmit out_if . Идеята е такава : просто да подскочи пакета от първия хоп(default gw) към следващ такъв, като пакета остане непроменен.Тоест ако идва пакет от сорта на : 192.168.x.y - datiebamaikata.com, то след сблъсъка със router, той просто да подскочи до datiebamaikata2.com примерно, като сорс адреса остане 192.168.x.y, а не адреса на рутер. iptables има ли модул за това? Може би iproute да ползвам?
Re: lug-bg: ISP change
За какво говориш? Каква е целта на тази машина? Кой делегира домейн права. Само птр записи ли обслужваш? Bobur wrote: Здравейте! Извинявам се глупавият може би въпрос, но е нещо за което бих искал да се допитам преди да го направя. предстои ни смяна на ISP-то и исках да попитам (за да не забравя нещо когато дойде времето) какви са стъпките които трябва да предприема за да си работи всичко както преди и да остане незабелязано от юзерите. Gasteway-a е Linux box 2.6.9_17112004 Sat Dec 11 21:09:22 EET 2004 i686 unknown unknown GNU/Linux [EMAIL PROTECTED]:/etc$ cat /etc/slackware-version Slackware 10.0.0 На него има пуснат Sendmail + SPamAssasin + ClamAV, web server, ftp server и DNS. След като новите IP-ta в конкретните файлове какво трябва да искам от новият доставчик да промени при него? Предполагам да го накарам да въведе МХ запис за моят мейл сървър, да тегли зоната от моят ДНС? В моят ДНС като праймъри ли трябва да опиша ДНС на новият доставчик? - Всички говорят безплатно. Каквото изговориш до 6-ти януари, се презарежда по твоята vivatel сметка на 7-ми януари. http://www.vivatel.bg/
lug-bg: Apache + php restriction policies
Изпростях тотално, след като потребители оставаха за по 2 минути без хостинг(по моя вина), се зачудих - имам си за всички cgi-та suexec. За mod_php обаче нямам друг restriction освен openbasedir. Това е много неудобно, защото процесите правят файлове с owner www-data , който е неизползваем в shell (не се пише по него). Казвайте сега, какъв според вас е най-удобния начин за suexec на php. Сами знаете каква е вредата от рънване на php , като cgi, да не говориме, че при мен сложни скриптове не успях да изкарам от apache( ? echo 1 ? минава :), но phpinfo() връща 500). има www.suphp.org ,но и той разчита на php-cgi . Засега на морна глава ми се струва най-добро решение php+fastcgi+mod_suexec като съотношение бързина/сигурност.
Re: lug-bg: Странно пове дение на binutils
DotGlob е правилното поведение и съм свикнал да ми е стандартно. Това да ползвам find за да exec-вам команда в текуща директория е пресилено.Благодаря на Svilen Ivanov. Дамян Иванов wrote: Daniel Ivanov wrote: стандартните файлове. Ако отида в ~ и напиша chmod -R 0666 * , то това ще засегне файлове от вида abcd, def,fgh и подобни ,но няма да хване неща като .abc,.def,.ghi . Объркан съм. Ако направя chmod -R 0666 .*, това пък променя и mode-a на parent директорията (..), заедно със скритите файлове. Това не е стандартно поведение. Напротив. Това *е* стандартното поведение. Доста куцо. Къде мислите, че трябва да търся проблема? Между клавиатурата и стола. Налага се да прочетеш документацията. Погледни и отличните съвети, които другите ти дадоха. дам
lug-bg: Странно поведени е на binutils
Супер изродско. Някаква дебиан базирана дистрибуция си сглобих тука. И не мога да проумея следното. Каквито и файлови операции да правя върху файловете в дадена директория използвайки маска, маската лови само стандартните файлове. Ако отида в ~ и напиша chmod -R 0666 * , то това ще засегне файлове от вида abcd, def,fgh и подобни ,но няма да хване неща като .abc,.def,.ghi . Объркан съм. Ако направя chmod -R 0666 .*, това пък променя и mode-a на parent директорията (..), заедно със скритите файлове. Това не е стандартно поведение. Доста куцо. Къде мислите, че трябва да търся проблема?
Re: lug-bg: Apache2.0.54 + mod_vhost_ldap
Не помага, това не е съществото на въпроса ми. Petar Nedyalkov wrote: On Tuesday 04 October 2005 08:40, Daniel Ivanov wrote: Направо на въпроса, компилирам аз грозния апах ето така : ./configure --enable-ldap --with-ldap --enable-cgi --enable-cache --enable-ssl --with-ssl=/usr/include/openssl/ --enable-http --enable-suexec --enable-rewrite --enable-mods-shared=mod_cgid,mod_auth_ldap --with-mpm=prefork Компилира се без проблем. Инсталирам го. Слагам mod_vhost_ldap. Пускам го, не реве. В момента който пратя заявка към апах-а с домейн, който е в LDAP-а, получавам умиращи spawn-ове със Segementation fault. Това някак си не ми хареса и проследих проблема до mod_ldap.c. Той използва доста палав механизъм за кеширане. При спирането на този механизъм, с директивата : LDAPCacheEntries 0 , всичко си работи както трябва, намира си vhost-a и си обслужва заявката. Малко ми е в гъза обаче да работи без кеширане, щото това са безброй много заявки отгоре. Това истински ме изнервя. Някои имал ли е подобен проблем. Какво друго мога да използвам наместо prefork.c? Може да хвърлиш едно око на следните адреси: http://issues.apache.org/bugzilla/show_bug.cgi?id=24801 и http://issues.apache.org/bugzilla/show_bug.cgi?id=29207 Така като гледам са backport-нали patch преди няколко дни - т.е. може да ти е от полза. Лек ден.
lug-bg: Apache2.0.54 + mod_vhost_ldap
Направо на въпроса, компилирам аз грозния апах ето така : ./configure --enable-ldap --with-ldap --enable-cgi --enable-cache --enable-ssl --with-ssl=/usr/include/openssl/ --enable-http --enable-suexec --enable-rewrite --enable-mods-shared=mod_cgid,mod_auth_ldap --with-mpm=prefork Компилира се без проблем. Инсталирам го. Слагам mod_vhost_ldap. Пускам го, не реве. В момента който пратя заявка към апах-а с домейн, който е в LDAP-а, получавам умиращи spawn-ове със Segementation fault. Това някак си не ми хареса и проследих проблема до mod_ldap.c. Той използва доста палав механизъм за кеширане. При спирането на този механизъм, с директивата : LDAPCacheEntries 0 , всичко си работи както трябва, намира си vhost-a и си обслужва заявката. Малко ми е в гъза обаче да работи без кеширане, щото това са безброй много заявки отгоре. Това истински ме изнервя. Някои имал ли е подобен проблем. Какво друго мога да използвам наместо prefork.c?
lug-bg: Самба file locking.
Споделям файлове под линукс машина, която търкаля самба. От нея идват и home directories чрез pam_mount. Работи много добре, обаче не мога да накарам самба да направи един fcntl базиран lock! За приложения от сорта на DCOPserver и iceauth това е леко пагубно :) Има ли директива в конфига на самба-та която да осигурява такива опции? Пробва с fake oplocks=yes , strict locking=yes, posix locking=yes(видях го само на едно място и не знам дали работи със самба в.3). Но това не доведе до особен успех. Някакви предложения или да търся walkaround?
Re: lug-bg: connlimit za vsiako ip ot /24 s edin red
Възможно е , но няма да се получи желания резултат. Ще сложи лимит на цялата маска, а не на всяко ip по отделно. Ivailo Ivanov wrote: Zdraveite, Vazmogno li e s iptables da se napravi za vsiako ip ot mrega x.x.x.x/24 --connlimit-above 16 -j DROP . Ideiata e da se polzva edin red za mnogo ip-ta podobno na hashlimit __ Do You Yahoo!? Tired of spam? Yahoo! Mail has the best spam protection around http://mail.yahoo.com
lug-bg: SLAPD question
Ползвам slapd 2.2.26 под дебиан с БДБ бекенд. Всичко върви на пушка, но в процеса на разработка на фронтенд забелязах, че се появява следното нещо: когато използам сравнения от типа =, = грозния демон не връща никакви резултати, въпреки че изрично го права върху integer полета, който трябва да се мач-ват. Такова поле е примерно uidNumber от posixAccount objectclass-a, но при филтър uidNumber=1700, нито ldapsearch, нито JXPlorer, нито Net::LDAP, връщат резултати. Това ми се струва немислимо. В схемата изрично ми е описано, че uidNumber е integer поле.
Re: lug-bg: ssh can't open /dev/tty [SOLVED]
Slackware ползва udev? Сигурно се шегувате. Коя версия. Освен това, доколкото се досещам, ssh има склоността да хвърля далечните юзери на pts, а не на tty.Имах същия проблем и го реших с ремаунт на /dev/pts файловата система. Todor Pirov wrote: Оправих се. Проблема наистина беше в udev. btw в архива не успях да намеря нещо по темата Your search - ssh udev site:.linux-bulgaria.org - did not match any documents. On Monday 12 September 2005 22:37, MafiaInc wrote: Имах същия проблем преди време, вече не помня кой файл бутах, но съм сигурен, че е написано някъде в листата - потърси по-назад. Проблемът е в udev, нищо, че си пробвал и без! -- MafiaInc (c) 1983 - 2005 -- Original Message --- From: Todor Pirov [EMAIL PROTECTED] To: lug-bg@linux-bulgaria.org Sent: Mon, 12 Sep 2005 20:32:25 +0300 Subject: lug-bg: ssh can't open /dev/tty Привет, имам проблем със ssh на един slackware. При опит за връзване, към който и да е хост се получава това: [EMAIL PROTECTED]:~# ssh -vvv [EMAIL PROTECTED] ... debug1: read_passphrase: can't open /dev/tty: Is a directory Host key verification failed. [EMAIL PROTECTED]:~# Пробвах с -t, -T, $SSH_TTY, с KERNEL=tty[p-za-e][0-9a-f]*, NAME=tty/s%n, SYMLINK=%k в /etc/udev/rules.d/udev.rules, както и с KERNEL=tty[p-za-e][0-9a-f]*, NAME=pty/s%n, SYMLINK=%k пробвах и без udev въобще ... все тая някакви идеи как да накарам ссх-то да възприема /dev/tty наистина като директория? --- End of Original Message ---
Re: lug-bg: ssh can't open /dev/tty [SOLVED]
Ха, вярно са сложили udev в slackware, не съм ползвал 9. Сори за объркването. /dev/pts не важи при udev. Bye Todor Pirov wrote: Оправих се. Проблема наистина беше в udev. btw в архива не успях да намеря нещо по темата Your search - ssh udev site:.linux-bulgaria.org - did not match any documents. On Monday 12 September 2005 22:37, MafiaInc wrote: Имах същия проблем преди време, вече не помня кой файл бутах, но съм сигурен, че е написано някъде в листата - потърси по-назад. Проблемът е в udev, нищо, че си пробвал и без! -- MafiaInc (c) 1983 - 2005 -- Original Message --- From: Todor Pirov [EMAIL PROTECTED] To: lug-bg@linux-bulgaria.org Sent: Mon, 12 Sep 2005 20:32:25 +0300 Subject: lug-bg: ssh can't open /dev/tty Привет, имам проблем със ssh на един slackware. При опит за връзване, към който и да е хост се получава това: [EMAIL PROTECTED]:~# ssh -vvv [EMAIL PROTECTED] ... debug1: read_passphrase: can't open /dev/tty: Is a directory Host key verification failed. [EMAIL PROTECTED]:~# Пробвах с -t, -T, $SSH_TTY, с KERNEL=tty[p-za-e][0-9a-f]*, NAME=tty/s%n, SYMLINK=%k в /etc/udev/rules.d/udev.rules, както и с KERNEL=tty[p-za-e][0-9a-f]*, NAME=pty/s%n, SYMLINK=%k пробвах и без udev въобще ... все тая някакви идеи как да накарам ссх-то да възприема /dev/tty наистина като директория? --- End of Original Message ---
Re: lug-bg: Реализиранен а опашка от задачи
Ми прави се перл скрипт с прост локинг на файлове, който да работи в демонизиран режим, форк-ва ти задачката и като се return-не от форк-а, трие заданието, така само трябва да редиш файлове, като си си осигурил, че няма да получиш друг форк, ако стария не се е върнал. Просто си именувай output файловете адекватно :) да не изчислиш 100 задачи и получиш 1 оутпут :) Ivaylo Toshev wrote: Варианти колкото искаш. Ето един пример: Нека всеки който се логне да си сложи задачата в неговата home директория като за по лесно предположим че ще слага само една задача наведнъж и нека името на файла е zadacha.gjf. Т.е. Ще се получи ~/zadacha.gjf Това което трябва да направиш е един скрипт обикалящ всички home директории и изпълняващ последователно файловете zadacha.gjf като резултата на всяка една итерация ще бъде отново в директорията на потребителя с име примерно: output.log Т.е. ~/output.log След това скрипта трябва да трие файла zadacha.gjf от дирекотрията на потребителя. Съответно когато скрипта мине през всички директории нека примерно да създава един файл: /var/ready Това означава че съшия скрипт в началото си трябва да трие файла /var/ready Нека в cron през 5 минути да се стартира друг скрипт, който да следи дали файла /var/ready съществува и ако да - то да стартира скрипта за обхождане на директориите. Yasen Atanasov wrote: Georgi Chorbadzhiyski wrote: Ivaylo Toshev wrote: Съжалявам за спама , обаче от три дни нищо не получавам. Защото нищо не се пише ;) В такъв случай може ли да попитам нещо простичко? Имаме Линукс машина която се използва само за сметки. Програмата с която се смята се стартира по следния начин: #g98 iput.gjf output.log Как да направя така че всеки който се логне с SSH да може да си даде заданието, то да влезе в някаква опашка и когато съответната задачка приключи да се стртир автоматично следващата?
lug-bg: Линукс на слаби машини
Мамка му, спомням си когато пусках vanilla кернел с няколко демона и X на п2-233 с 64 МБ рам и си вървеше доста задоволително. Сега на 300-400 мегахерцови машини слагам някоя нова дебиан(-базирана) дистрибуция и се влачи безбожно много. Направо отчайващо. Ще ми се да разбера защо по дяволите е така, дали новите 2.6.х кернели са виновни, дали нова libc или по-сложни приложения. Защо по дяволите Damn Small Linux върви отлично на 300 mhz celeron, а ubuntu hoary с нищо стартирано се влачи, като копеле и то с IceWM като десктоп мениджър.
Re: lug-bg: squid
Абе вие луди ли сте? Човекът да си променя целия дизайн на мрежата за нещо толкова просто. Като е предложил Евгени Гечев - нека сложи ZPH пач, да маркира с DSMark и да exclude-va пакетите с определен марк. Това е. Evgeni Gechev wrote: Georgi Alexandrov wrote: Rosen Balchev wrote: Става въпрос за едно по-особенно нещо свързано с Кешът ... значи имам прокси трансперант и искам вече кешираният трафик да не минава през шеипър незнам обаче по каква система мога да го направя .. сетих се само за един адекватем начин - за всичките усери да измисля по още едно ип да го пиша за соурс на скуид-а и излизането навън на всички отделно ИП-та да се шеип-ва ... Но съгласете се дървено е ...очаквам предложения :) благодаря ви предварително. Здравей, дадоха ти разни предложения, но реших и аз да дам идея, засягаща по скоро дизайна на мрежата ти. Aко предположим, че твоя шейпър и squid са на различни машини, тогава онагледяваме със следната картинка: internet - shaper - squid box clients Т.е. обекти вече кеширани във squid box ще се достъпват директно от клиентите. Но това силно зависи от дизайна на мрежата и начина на изпълнение. Очаквам критики и коментари относно плюсовете/минусите на идеята и от другите потребители на листата :-) поздрави, Георги Александров Минус, който е напълно достатъчен - shaper-ът не вижда адресите на клиентите.
Re: lug-bg: Ðóòèðàíå , øåéïèíã è ìàðêèðàíå.
Еми излезе X2 на АМД и е добра покупка, изключвайки цената, защото още не е за народни 'ора. Като стане към 400$ може и да си закупя един. [EMAIL PROTECTED] wrote: ta kato stana wapros za havy-duty shaping, kakwo bihte mi preporychali kato machina (koeto move da se kupi w BG) za da move da izdyrvi poweche traffic.. W momenta sam s P4-3.2GHz no weche trqbwa da q smenqm s nesto po qko, ta se chudeh wie kakwo polzwate. - Ima li smisal da minawam na Xeon ? - what about dual-processor machines ? - http://linuxtoday.com/news_story.php3?ltsn=2004-12-08-004-32-OS-BZ-DT-0005 snip MS Office is popular in the same way as heart disease is the most popular way to die.
Re: lug-bg: ��
N = log(N) Vasil Kolev wrote: В нд, 2005-07-17 в 02:10 +0300, Daniel Ivanov написа: Едно писмо ме подсети да си помисля малко по въпроса. Почти всеки от нас може да съчини един рутер, който да раздава интернет, рутира , шейпва и класифицира. В ръцете на развойчика са tc и iptables. Всичко е прекрасно. Но когато трафика надхвърли 600-700 мбита виждате, че няма процесор, който да може да издържа системата ви.Поне засега. Класически способ е да се създават класове с някакъв qdisc и в тях трафика да се слага с fwmark. IPtables обаче има тъпото свойство просто да traverse-ва веригите си, което забавя адски много при ruleset от 1 правила. Това има просто решение, което бая хора ползват - ако имаш да маркираш 8 class C мрежи, просто правиш 8 отделни chain-а за всяко class C, и слагаш после по едно правило, което да води до тях, така смъкваш ~8 пъти броя traverse-вания. По принцип може да се сметне лесно на колко трябва да се разбие, за да е най-ефективно.
Re: lug-bg: Re: lug-bg: Страмни неща в логовете на апачи
Това не задължително е вирус или опит за атака, инструменти за одит на сигурността оставят подобни следи. Трейс-вайки ип-то обаче не стигнах до публичен такъв. Мисля, че nessus правеше такива проверки. Lazarov wrote: На Sunday, July 3, 2005, 11:24:22 PM Alexander написа: лога на апачито е пълен с такива ...Въпроса ми е тва някъв вирус/червей ли е или опит за атака ?-- 194.106.99.61 - - [27/Nov/2001:13:10:33 +0200] HEAD / HTTP\1.0 200 0 - - 194.106.99.61 - - [27/Nov/2001:13:10:43 +0200] HEAD /// HTTP/1.0 200 0 - - 194.106.99.61 - - [27/Nov/2001:13:10:43 +0200] HEAD ///server-info HTTP/1.0 404 0 - - 194.106.99.61 - - [27/Nov/2001:13:10:43 +0200] HEAD ///server-status [cut] Предполагам това е опит за атака,аз имам същите редове в лога всяка седмица по няколко пъти,проблема е че в моя случай са от локалната мрежа (студ. град 400 компютъра в лан) и няма как да определя от къде идват. При теб това е реално (вероятно) ип, така че е добре по възможност или директно да го отрежеш или да го наблюдаваш чрез защитната ти стена. Съмнявам се, че това е вирус.
Re: lug-bg: POSTGRES truncate all
: query,, ., . . #!/usr/bin/perl use DBI; my $db = $ARGV[0]; our $dbh = DBI-connect(dbi:Pg:dbname=$db;host=localhost;port=5432,postgres,,{'RaiseError' = 1}); my $table; my $del_query; my $statement = $dbh-prepare(SELECT tablename FROM pg_tables WHERE tablename NOT LIKE 'sql_%' AND tablename NOT LIKE 'pg_%';); $statement-execute; while(($table) = $statement-fetchrow_array){ $del_query .= TRUNCATE TABLE \$table\;; } my $del_statement = $dbh-prepare($del_query); $del_statement-execute; print $del_query; Yavor Doganov wrote: On Tue, Jun 14, 2005 at 06:56:59AM +0300, Daniel Ivanov wrote: . . , .
Re: lug-bg: LIBPCAP
? , - . LIBPCAP . Danail Petrov wrote: Daniel Ivanov wrote: ,, () , .promiscouous mode, . Peter Pentchev wrote: On Wed, Jun 15, 2005 at 07:11:20PM +0300, Daniel Ivanov wrote: iftop , . . - . : resolve- ( - resolve-), , resolve- , resolving ? , ? :) iftop- ? -B ?-- ? :) , iftop __
lug-bg: LIBPCAP
iftop , . . - . ,iftop , - - . trafshow . Realtek . , libpcap, . .
Re: lug-bg: LIBPCAP
,, () , .promiscouous mode, . Peter Pentchev wrote: On Wed, Jun 15, 2005 at 07:11:20PM +0300, Daniel Ivanov wrote: iftop , . . - . : resolve- ( - resolve-), , resolve- , resolving ? ,
Re: lug-bg: POSTGRES truncate all
. . Georgi Chorbadzhiyski wrote: Daniel Ivanov wrote: . , TRUNCATE . . #!/bin/sh PGHOST=db PGDATABASE=test PGUSER=user PGPASSWORD=pass export PGHOST PGDATABASE PGUSER PGPASSWORD PATH=/usr/bin:/usr/local/bin:/usr/local/pgsql/bin PSQL=`which psql` tables=`$PSQL -t $PGDATABASE -c SELECT DISTINCT c.oid::pg_catalog.regclass FROM pg_catalog.pg_index x JOIN pg_catalog.pg_class c ON c.oid = x.indrelid JOIN pg_catalog.pg_namespace n ON c.relnamespace = n.oid WHERE nspname NOT LIKE 'pg_%'` IFS=' ' for table in $tables; do $PSQL $PGDATABASE -c TRUNCATE $table done
Re: lug-bg: Един ping, source routing и два SNAT-а.
, - ip_conntrack . , dependencies - ipt_MASQUERADE, iptable_nat, ipt_state .2 - stateful firewall-a DROP, REJECT. cheat RST conntrack-a , :) , , conntrack . Rossen Antonov wrote: , google, . : eth0 - local net (192.168.0.x) eth1 - ISP1 eth2 - ISP2 eth1 eth2 SNAT: Chain POSTROUTING (policy ACCEPT 223K packets, 19M bytes) pkts bytes target prot opt in out source destination 188K 12M SNAT all -- anyeth1anywhere anywhereto:85.x.x.x 823 50110 SNAT all -- anyeth3anywhere anywhereto:10.0.0.51 IPS2.IPS1. ISP2.policy routing: ip rule add from 192.168.0.7 table viphost ip route add default via 10.0.0.1 table vipohost ip route flush cache , ? 192.168.0.7 eth2. , eth2 SNAT- ___ IP eth1___. . , . , . . , 192.168.0.7yahoo.com , .192.168.0.7 eth2 eth1. , , . , 10., . __ . , , , .
lug-bg: POSTGRES truncate all
. , TRUNCATE .