[freebsd] Re: [freebsd] 10.3 livecd для i386
Наблюдал глюки биосов (мать гигабайт, достаточно свежая, года 2-3) при наличии гпт разметки, клинит в момент когда уже пора бы загружаться. Разбираться не стали, биос не обновить и так был последний, оказалось проще выкинуть. 29 июня 2016 г., 15:48 пользователь Владимир Друзенко написал: > 29.06.2016 15:26, Denis Zaika пишет: > > Всем чмоки в этом чати! > > > > У меня есть старый ноутбук с x32 процессором Intel и старым BIOS. BIOS > > не умеет GPT, поэтому там стояла i386 FreeBSD 9.1 на ZFS (MBR + слайс > > BSD), несколько дней назад я пытался обновить ОС до 10.3 и таки > > обновил. А потом полез обновить zfs и zfsboot. Я успешно обновил > > загрузочные сектора MBR и BSD, но не смог обновить s1a часть zfsboot > > даже после kern.geom.debugflags = 0x10. > > > > i386 образы mfsbsd есть только для 10.0. Я загрузился в него и обновил > > zfsboot от 10.3. Позже я начал обновлять пакеты и через некоторое > > время ОС перестала загружаться, паникует сразу после попытки > > монтирования корневого каталога. > > > > Пул в 10.0 не импортируется. Я пытался собрать i386 mfsbsd для 10.3, > > но оно так и не взлетело, сначала из-за GPT по-умолчанию в образе, > > потом из-за нехватки модулей, потом паниковать стал после загрузки > > ядра. Раз 10 собирал, все неудачно. > > > > К сожалению, официальные образы 10.3 также только GPT и я не могу их > > загрузить. > > > > После извлечения диска из ноута и подключения к компу с 10.3 > > нарисовались проблемы с геометрией винта из-за несоответствия размера > > секторов. Так что так тоже не взлетает. > > > > Знает ли кто-нибудь адекватный способ собрать загрузочный образ i386 > > 10.3 с MBR для флешки? Может кто-то сам собирал mfsbsd и может помочь? > > А при чём тут поддержка BIOS-ом GPT? > Там же заглушка в любом случае с обычным MBR. > Такое прекрасно работает и на более старых компах. > Примерно так записать все загрузчики куда надо: > gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 /dev/ada0 > man gpart, самое начало секции Examples. > > У меня такое работает на маме ASUS P5GD2 Deluxe 2005-ого года выпуска. >
Re: [freebsd] 10.3 swap usage
а кстати на чем виртуалка и есть ли в системе что-то по управлению памятью от неё, memory ballooning итд 6 июня 2016 г., 11:58 пользователь Golub Mikhail написал: > 04.06.2016 2:51, Oleksandr V. Typlyns'kyi пишет: > >> >> У вас обоих памяти "вагон", а Михаила интересует виртуалка, которой >> раньше хватало 2Гб, а теперь лезет в swap даже с 3Гб. >> > > Да, именно это и интересует :) > И если бы это было на одном хосте - ладно. > А подобное наблюдается на всех, где обновил 10.2 до 10.3. > > "вагон" памяти сделать можно ... > Но подход должен быть разумным :) > > -- > Golub Mikhail >
Re: [freebsd] 10.3 swap usage
старый был с zfs? новый похоже точно с ним, может ограничить ей память? 25 мая 2016 г., 10:30 пользователь Golub Mikhail написал: > Доброго времени суток. > > Был виртуальный сервер под FreeBSD 8.3 x86 с 2 Гб ОЗУ. > Перевел его (чистая установка на новый виртуальный сервер) на 10.3 amd64. > Функционал тот же, только новая ОС и новые версии ПО. > > Напрягает - swap 27% Inuse. > На старом хватало 2 Гб. А сейчас сделал уже 3 - не хватает. > > CPU: 19.9% user, 0.0% nice, 9.1% system, 0.0% interrupt, 71.1% idle > Mem: 121M Active, 604M Inact, 2079M Wired, 18M Cache, 274M Buf, 145M Free > ARC: 1524M Total, 64M MFU, 1297M MRU, 144K Anon, 7289K Header, 156M Other > Swap: 1536M Total, 418M Used, 1118M Free, 27% Inuse > > # swapinfo > Device 512-blocks UsedAvail Capacity > /dev/da0p3 3145728 855120 229060827% > > Похожая (по не понятному использованию памяти) ситуация: > https://forums.freebsd.org/threads/56171/ > > sysctrl.conf: > kern.ipc.somaxconn=32768 > kern.maxfiles=256000 > kern.maxfilesperproc=230400 > net.inet.tcp.blackhole=2 > net.inet.udp.blackhole=1 > > hw.physmem: 3192414208 > > У вас FreeBSD 10.3 ведет себя нормально? > > P.S. Есть еще сервачок. > Была 10.2 - работал и память даже свободная была. > Обновил через freebsd-update до 10.3: > Swap: 2048M Total, 31M Used, 2017M Free, 1% Inuse > > > > -- > Golub Mikhail >
[freebsd] Re: [freebsd] Re: [freebsd] Перезапись gpart разделов и последующее их восстановление, как?
18 августа 2014 г., 6:03 пользователь Vladislav V. Prodan < ad...@support.od.ua> написал: > > > > 18 августа 2014 г., 4:31 пользователь Andrey V. Elsukov > написал: > > On 17.08.2014 04:06, Vladislav V. Prodan wrote: >> > Перегружаем VM1 >> > Логинимся в VM1 и видим: >> > >> > # gpart show >> > => 0 16777216 ada0 BSD (8.0G) >> > 016- free - (8.0K) >> > 16 83952 1 !0 (41M) >> > 83968 16693248- free - (8.0G) >> > >> > => 0 16777216 diskid/DISK-VBab59de7b-778e8846 BSD (8.0G) >> > 016 - free - (8.0K) >> > 16 839521 !0 (41M) >> > 83968 16693248 - free - (8.0G) >> > >> > Удаляем диск с MfsBSD >> > # gpart delete -i 1 ada0 >> > >> > И дальше уже не получается восстановить старые разделы >> > >> > # gpart add -b 34 -s 128 -t freebsd-boot -a 4k -l boot-ada0 ada0 >> > gpart: Invalid argument >> >> BSD схема не поддерживает метки. Вам нужно использовать не `gpart >> delete`, а `gpart destroy -F ada0`. После чего пересоздать таблицу >> разделов и нужные разделы. >> >> -- >> WBR, Andrey V. Elsukov >> >> > Так пропадут данные на 3-ем слайсе >2099200 14677983 3 freebsd-zfs (7.0G) > Их-то и не хочется терять :( > > Средствами zfs отзеркалить на другой раздел и после пересоздания вернуть на место.
Re: [freebsd] re0: watchdog timeout
18 сентября 2013 г., 16:30 пользователь Volodymyr Kostyrko < c.kw...@gmail.com> написал: > Для бюджетных компов есть целая куча бюджетных сетевух с нормальными > дровами. Canyon и ещё кто-то выпускали сетевухи на sis, ASUS недавно > выпускал сетувухи на ste. И те и те - пока без нареканий. Из чего постарше > где-то ещё vr стоял. > > > Можно еще марвел вспомнить, только непонятно, чем это лучше реалтека vr,ste и sis кроме всего прочего еще и fast ethernet так что если в новых ревизиях эта проблема действительно снова полезла, то надо уходить на em/igb и других вариантов просто нет
Re: [freebsd] re0: watchdog timeout
А какая система? re0: watchdog timeout лечили довольно давно и с тех пор не сталкивался, это какая-то новая ревизия реалтека или старая система? 2013/9/17 Anton Sayetsky > 2013/9/17 Vasiliy P. Melnik : > > Hi all. > > > > Я правильно понимаю, что проблема с дровами на сетевую карту? у меня > > штук 15 подобных машин с такой сетевухой - ни на одной нет такой > > проблемы. > > > > транк на циску re0 > > > > re0: watchdog timeout > > re0: link state changed to DOWN > > vlan33: link state changed to DOWN > > vlan22: link state changed to DOWN > > vlan46: link state changed to DOWN > > vlan45: link state changed to DOWN > > re0: link state changed to UP > > vlan33: link state changed to UP > > vlan22: link state changed to UP > > vlan46: link state changed to UP > > vlan45: link state changed to UP > > Limiting closed port RST response from 240 to 200 packets/sec > > Limiting closed port RST response from 227 to 200 packets/sec > > > > со стороны циски > > interface GigabitEthernet0/47 > > switchport trunk native vlan 7 > > switchport mode trunk > > > > 11:08:47: %LINEPROTO-5-UPDOWN: Line protocol on Interface > > GigabitEthernet0/47, changed state to down > > 11:08:48: %LINK-3-UPDOWN: Interface GigabitEthernet0/47, changed state > to down > > 11:08:50: %LINK-3-UPDOWN: Interface GigabitEthernet0/47, changed state > to up > > 11:08:52: %LINEPROTO-5-UPDOWN: Line protocol on Interface > > GigabitEthernet0/47, changed state to up > > 11:09:21: %SPANTREE-5-TOPOTRAP: Topology Change Trap for vlan 1 > VLAN на re? Забудьте об этом Г, поставьте em|igb. >
[freebsd] Re: [freebsd] mpd и задержка поднятия линка
Как связаны pppoe и gre? Если от клиентов в ту отчетность поднимается все-таки pptp и речь идет о pptp линке конфига, то проблема вероятно в днс имени того узла - на момент загрузки интернета еще нет и хост не резольвится, а мпд пробует резольвить только один раз насколько я помню. Или указывать ип адрес в качестве хоста или обеспечить днс на старте. 26 июля 2013 г., 20:41 пользователь Alexander Bolshakov написал: > Добрый день сообществу! > > Перерыл гугл, но ответа на вопрос так и не нашёл. :( > Есть у меня контора, ходит в интернет через mpd, для какой-то министерской > (?) отчетности пользователи поднимают pppoe канал на министерский хост, > подключаются к базе и принимают задания/отправляют отчёты. Время идёт, > конторка растёт (в плане количества сотрудников), задания от министерства > растут... Я не смог преодолеть когда-то ограничения NAT-а на более чем одну > GRE-сессию. Попытался поднять pppoe на том же mpd, всё, вроде, хорошо > получилось, но второй mpd-линк при перезапуске часто висит в пассивном > состоянии. В последнее время народ весьма активно работает в этой базе из > разных кабинетов. Каждый вновь подключающийся "срубает" предыдущего (если > кто был подключен). :( Недовольство растёт. > > Если подключаться к консоли mpd и руками поднимать второй линк - всё > проходит чудесно. Дело, я понимаю, в том, что при старте второго линка, > первый ещё не поднят/не сконфигурирован. А вот как указать mpd задержку на > несколько секунд перед поднятием второго линка - найти нигде не могу. Если > не трудно - ткните носом в нужное место в документации. Спасибо! >
[freebsd] Re: Re[4]: [freebsd] mpd (pppoe) + VMWare возможно?
22 июля 2013 г., 18:11 пользователь Alexander написал: > Hello Vitaly, > > Saturday, July 20, 2013, 11:12:30 AM, you wrote: > > VD> Фря подключенная в настроенный по дефолту vSphere standard switch > VD> прекрасно работала pppoe концентратором. > VD> Если на esxi ничего специально не резать проходят и виланы и пппое и > все прочее. > 1. Promiscuous mode включили - положительного результата нет. :( > > 2. Сервера пока включены в один сегмент. Для теста туда же включили > второй модем. Товарищ включается нубуком в свитч при сервере, смотрит > wireshark-ом пакеты в интерфейсе. Я на старом шлюзе через два свича по > команде tcpdump -npi bge0 ether host 00:0c:29:d6:7e:87 and port not ssh > вижу PPPoE: > 16:47:47.334121 PPPoE PADI [Host-Uniq 0x8040D3C8] [Service-Name] > 16:47:51.354961 PPPoE PADI [Host-Uniq 0x003AD3C8] [Service-Name] > 16:47:53.354004 PPPoE PADI [Host-Uniq 0x003AD3C8] [Service-Name] > 16:47:57.354316 PPPoE PADI [Host-Uniq 0x003AD3C8] [Service-Name] > > А в это же время товарищ, включенный в свитч рядом с новым сервером с > фильтром в wireshark-e: eth.addr matches 00:0c:29:d6:7e:87 не видит > ничего. :( Свитчи D-Link DES 1026G. Т.е., получается, PPPoe таки > работает и наружу просится, но вот свитч его заворачивает на "аплинка"? > Как его "повернуть" в нужное русло? > -- > Best regards, > Alexandermailto:albor...@gmail.com > > По дефолту promisc у vmware выключен, у меня работало без него. Между виртуалками пппое работает?
[freebsd] Re: Re[2]: [freebsd] mpd (pppoe) + VMWare возможно?
Фря подключенная в настроенный по дефолту vSphere standard switch прекрасно работала pppoe концентратором. Если на esxi ничего специально не резать проходят и виланы и пппое и все прочее. 20 июля 2013 г., 11:36 пользователь Alexander написал: > Hello Alexander, > > Saturday, July 20, 2013, 1:03:17 AM, you wrote: > > AB> 2013/7/20 Vladislav V. Prodan > > AB> Понизьте > AB> set link mtu 1300 > AB> set link mru 1300 > AB> То же самое: > AB> 00:55:14.893330 PPPoE PADI [Host-Uniq 0xC01505C5] [Service-Name] > AB> 00:55:16.892899 PPPoE PADI [Host-Uniq 0xC01505C5] [Service-Name] > AB> 00:55:20.893173 PPPoE PADI [Host-Uniq 0xC01505C5] [Service-Name] > AB> 00:55:24.913695 PPPoE PADI [Host-Uniq 0xC01305C5] [Service-Name] > AB> 00:55:26.913566 PPPoE PADI [Host-Uniq 0xC01305C5] [Service-Name] > AB> 00:55:30.913905 PPPoE PADI [Host-Uniq 0xC01305C5] [Service-Name] > AB> 00:55:34.934703 PPPoE PADI [Host-Uniq 0x8054DAC4] [Service-Name] > AB> 00:55:36.934258 PPPoE PADI [Host-Uniq 0x8054DAC4] [Service-Name] > AB> > На самой фре на интерфейсе (получается - виртуальном) исходящие pppoe > посылки вижу. А вот как бы узнать - физический интерфейс они покидают > или режутся? Судя по некоторым отзывам в тырнете, в основу гипервизора > (загрузчика) положен линух... tcpdump там есть? Работает? ifconfig-a в > шелле у вмвари, по словам товарища, нет. :( > -- > Best regards, > Alexandermailto:albor...@gmail.com > >
Re: [freebsd] mpd and down-script
есть ли в конфиге set iface route default на отключающемся линке? если есть лучше его убрать, а добавление дефолтов поместить в if_up и тогда ничего лишнего не должно удаляться 13 февраля 2013 г., 1:39 пользователь Yuriy B. Borysov < yokod...@yokodzun.kiev.ua> написал: > Hi! > > On Wed, Feb 06, 2013 at 09:24:47PM +0200, Yuriy B. Borysov writes: > > > А вот при вызове из mpd получаю: > > > system: command "/usr/local/etc/mpd5/gwch.sh ng3 inet 1.1.1.1/322.2.2.2 '-' > > '00:00:00:00:00:00'" returned 256 > > Как тут советовали добавил явное удаление дефолта, перед добавлением > нового. Ошибка 256 ушла. Но счастья все равно нет. Судя по отладке, > скрипт выполняется нормально: > > + > PATH=/sbin:/bin:/usr/sbin:/usr/bin:/usr/local/etc/mpd5:/usr/local/sbin:/usr/local/bin > + ifconfig ng1 > + grep inet > + awk '{print $2}' > + ng1_ip=101.109.24.66 > + ifconfig ng1 > + grep inet > + awk '{print $4}' > + ng1_gw=101.109.24.1 > + ifconfig ng2 > + grep inet > + awk '{print $2}' > + ng2_ip=110.77.14.75 > + ifconfig ng2 > + grep inet > + awk '{print $4}' > + ng2_gw=110.77.14.1 > + ping -c 5 -S 101.109.24.66 101.109.24.1 > + route del default > del net default > + route add default 101.109.24.1 > add net default: gateway 101.109.24.1 > > Но в итоге дефолта все равно нет. Такое ощущение, что кто-то (сам > mpd?) его опять удаляет. > > Кто это может быть? > > Спасибо! > > > -- > WBR, Yuriy B. Borysov > YOKO-UANIC | YOKO-RIPE >