[freebsd] Re: [freebsd] 10.3 livecd для i386

2016-06-30 Пенетрантность Vitaly Dodonov
Наблюдал глюки биосов (мать гигабайт, достаточно свежая, года 2-3) при
наличии гпт разметки, клинит в момент когда уже пора бы загружаться.
Разбираться не стали, биос не обновить и так был последний, оказалось проще
выкинуть.

29 июня 2016 г., 15:48 пользователь Владимир Друзенко 
написал:

> 29.06.2016 15:26, Denis Zaika пишет:
> > Всем чмоки в этом чати!
> >
> > У меня есть старый ноутбук с x32 процессором Intel и старым BIOS. BIOS
> > не умеет GPT, поэтому там стояла i386 FreeBSD 9.1 на ZFS (MBR + слайс
> > BSD), несколько дней назад я пытался обновить ОС до 10.3 и таки
> > обновил. А потом полез обновить zfs и zfsboot. Я успешно обновил
> > загрузочные сектора MBR и BSD, но не смог обновить s1a часть zfsboot
> > даже после kern.geom.debugflags = 0x10.
> >
> > i386 образы mfsbsd есть только для 10.0. Я загрузился в него и обновил
> > zfsboot от 10.3. Позже я начал обновлять пакеты и через некоторое
> > время ОС перестала загружаться, паникует сразу после попытки
> > монтирования корневого каталога.
> >
> > Пул в 10.0 не импортируется. Я пытался собрать i386 mfsbsd для 10.3,
> > но оно так и не взлетело, сначала из-за GPT по-умолчанию в образе,
> > потом из-за нехватки модулей, потом паниковать стал после загрузки
> > ядра. Раз 10 собирал, все неудачно.
> >
> > К сожалению, официальные образы 10.3 также только GPT и я не могу их
> > загрузить.
> >
> > После извлечения диска из ноута и подключения к компу с 10.3
> > нарисовались проблемы с геометрией винта из-за несоответствия размера
> > секторов. Так что так тоже не взлетает.
> >
> > Знает ли кто-нибудь адекватный способ собрать загрузочный образ i386
> > 10.3 с MBR для флешки? Может кто-то сам собирал mfsbsd и может помочь?
>
> А при чём тут поддержка BIOS-ом GPT?
> Там же заглушка в любом случае с обычным MBR.
> Такое прекрасно работает и на более старых компах.
> Примерно так записать все загрузчики куда надо:
> gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 /dev/ada0
> man gpart, самое начало секции Examples.
>
> У меня такое работает на маме ASUS P5GD2 Deluxe 2005-ого года выпуска.
>


Re: [freebsd] 10.3 swap usage

2016-06-06 Пенетрантность Vitaly Dodonov
а кстати на чем виртуалка и есть ли в системе что-то по управлению памятью
от неё, memory ballooning итд

6 июня 2016 г., 11:58 пользователь Golub Mikhail  написал:

> 04.06.2016 2:51, Oleksandr V. Typlyns'kyi пишет:
>
>>
>>   У вас обоих памяти "вагон", а Михаила интересует виртуалка, которой
>>   раньше хватало 2Гб, а теперь лезет в swap даже с 3Гб.
>>
>
> Да, именно это и интересует :)
> И если бы это было на одном хосте - ладно.
> А подобное наблюдается на всех, где обновил 10.2 до 10.3.
>
> "вагон" памяти сделать можно ...
> Но подход должен быть разумным :)
>
> --
> Golub Mikhail
>


Re: [freebsd] 10.3 swap usage

2016-05-25 Пенетрантность Vitaly Dodonov
старый был с zfs? новый похоже точно с ним, может ограничить ей память?

25 мая 2016 г., 10:30 пользователь Golub Mikhail  написал:

> Доброго времени суток.
>
> Был виртуальный сервер под FreeBSD 8.3 x86 с 2 Гб ОЗУ.
> Перевел его (чистая установка на новый виртуальный сервер) на 10.3 amd64.
> Функционал тот же, только новая ОС и новые версии ПО.
>
> Напрягает - swap 27% Inuse.
> На старом хватало 2 Гб. А сейчас сделал уже 3 - не хватает.
>
> CPU: 19.9% user,  0.0% nice,  9.1% system,  0.0% interrupt, 71.1% idle
> Mem: 121M Active, 604M Inact, 2079M Wired, 18M Cache, 274M Buf, 145M Free
> ARC: 1524M Total, 64M MFU, 1297M MRU, 144K Anon, 7289K Header, 156M Other
> Swap: 1536M Total, 418M Used, 1118M Free, 27% Inuse
>
> # swapinfo
> Device  512-blocks UsedAvail Capacity
> /dev/da0p3 3145728   855120  229060827%
>
> Похожая (по не понятному использованию памяти) ситуация:
> https://forums.freebsd.org/threads/56171/
>
> sysctrl.conf:
> kern.ipc.somaxconn=32768
> kern.maxfiles=256000
> kern.maxfilesperproc=230400
> net.inet.tcp.blackhole=2
> net.inet.udp.blackhole=1
>
> hw.physmem: 3192414208
>
> У вас FreeBSD 10.3 ведет себя нормально?
>
> P.S. Есть еще сервачок.
> Была 10.2 - работал и память даже свободная была.
> Обновил через freebsd-update до 10.3:
> Swap: 2048M Total, 31M Used, 2017M Free, 1% Inuse
>
>
>
> --
> Golub Mikhail
>


[freebsd] Re: [freebsd] Re: [freebsd] Перезапись gpart разделов и последующее их восстановление, как?

2014-08-17 Пенетрантность Vitaly Dodonov
18 августа 2014 г., 6:03 пользователь Vladislav V. Prodan <
ad...@support.od.ua> написал:

>
>
>
> 18 августа 2014 г., 4:31 пользователь Andrey V. Elsukov  > написал:
>
> On 17.08.2014 04:06, Vladislav V. Prodan wrote:
>> > Перегружаем VM1
>> > Логинимся  в VM1 и видим:
>> >
>> > # gpart show
>> > =>   0  16777216  ada0  BSD  (8.0G)
>> >  016- free -  (8.0K)
>> > 16 83952 1  !0  (41M)
>> >  83968  16693248- free -  (8.0G)
>> >
>> > =>   0  16777216  diskid/DISK-VBab59de7b-778e8846  BSD  (8.0G)
>> >  016   - free -  (8.0K)
>> > 16 839521  !0  (41M)
>> >  83968  16693248   - free -  (8.0G)
>> >
>> > Удаляем  диск с MfsBSD
>> > # gpart delete -i 1 ada0
>> >
>> > И дальше уже не получается восстановить старые разделы
>> >
>> > # gpart add -b 34 -s 128 -t freebsd-boot -a 4k -l boot-ada0 ada0
>> > gpart: Invalid argument
>>
>> BSD схема не поддерживает метки. Вам нужно использовать не `gpart
>> delete`, а `gpart destroy -F ada0`. После чего пересоздать таблицу
>> разделов и нужные разделы.
>>
>> --
>> WBR, Andrey V. Elsukov
>>
>>
> Так пропадут данные на 3-ем слайсе
>2099200  14677983 3  freebsd-zfs  (7.0G)
> Их-то и не хочется терять :(
>
>
Средствами zfs отзеркалить на другой раздел и после пересоздания вернуть на
место.


Re: [freebsd] re0: watchdog timeout

2013-09-18 Пенетрантность Vitaly Dodonov
18 сентября 2013 г., 16:30 пользователь Volodymyr Kostyrko <
c.kw...@gmail.com> написал:

> Для бюджетных компов есть целая куча бюджетных сетевух с нормальными
> дровами. Canyon и ещё кто-то выпускали сетевухи на sis, ASUS недавно
> выпускал сетувухи на ste. И те и те - пока без нареканий. Из чего постарше
> где-то ещё vr стоял.
>
>
> Можно еще марвел вспомнить, только непонятно, чем это лучше реалтека
vr,ste и sis кроме всего прочего еще и fast ethernet

так что если в новых ревизиях эта проблема действительно снова полезла, то
надо уходить на em/igb и других вариантов просто нет


Re: [freebsd] re0: watchdog timeout

2013-09-17 Пенетрантность Vitaly Dodonov
А какая система?
re0: watchdog timeout лечили довольно давно и с тех пор не сталкивался, это
какая-то новая ревизия реалтека или старая система?


2013/9/17 Anton Sayetsky 

> 2013/9/17 Vasiliy P. Melnik :
> > Hi all.
> >
> > Я правильно понимаю, что проблема с дровами на сетевую карту? у меня
> > штук 15 подобных машин с такой сетевухой - ни на одной нет такой
> > проблемы.
> >
> > транк на циску re0
> >
> > re0: watchdog timeout
> > re0: link state changed to DOWN
> > vlan33: link state changed to DOWN
> > vlan22: link state changed to DOWN
> > vlan46: link state changed to DOWN
> > vlan45: link state changed to DOWN
> > re0: link state changed to UP
> > vlan33: link state changed to UP
> > vlan22: link state changed to UP
> > vlan46: link state changed to UP
> > vlan45: link state changed to UP
> > Limiting closed port RST response from 240 to 200 packets/sec
> > Limiting closed port RST response from 227 to 200 packets/sec
> >
> > со стороны циски
> > interface GigabitEthernet0/47
> >  switchport trunk native vlan 7
> >  switchport mode trunk
> >
> > 11:08:47: %LINEPROTO-5-UPDOWN: Line protocol on Interface
> > GigabitEthernet0/47, changed state to down
> > 11:08:48: %LINK-3-UPDOWN: Interface GigabitEthernet0/47, changed state
> to down
> > 11:08:50: %LINK-3-UPDOWN: Interface GigabitEthernet0/47, changed state
> to up
> > 11:08:52: %LINEPROTO-5-UPDOWN: Line protocol on Interface
> > GigabitEthernet0/47, changed state to up
> > 11:09:21: %SPANTREE-5-TOPOTRAP: Topology Change Trap for vlan 1
> VLAN на re? Забудьте об этом Г, поставьте em|igb.
>


[freebsd] Re: [freebsd] mpd и задержка поднятия линка

2013-07-26 Пенетрантность Vitaly Dodonov
Как связаны pppoe и gre?
Если от клиентов в ту отчетность поднимается все-таки pptp и речь идет о
pptp линке конфига, то проблема вероятно в днс имени того узла - на момент
загрузки интернета еще нет и хост не резольвится, а мпд пробует резольвить
только один раз насколько я помню.
Или указывать ип адрес в качестве хоста или обеспечить днс на старте.


26 июля 2013 г., 20:41 пользователь Alexander Bolshakov
написал:

> Добрый день сообществу!
>
> Перерыл гугл, но ответа на вопрос так и не нашёл. :(
> Есть у меня контора, ходит в интернет через mpd, для какой-то министерской
> (?) отчетности пользователи поднимают pppoe канал на министерский хост,
> подключаются к базе и принимают задания/отправляют отчёты. Время идёт,
> конторка растёт (в плане количества сотрудников), задания от министерства
> растут... Я не смог преодолеть когда-то ограничения NAT-а на более чем одну
> GRE-сессию. Попытался поднять pppoe на том же mpd, всё, вроде, хорошо
> получилось, но второй mpd-линк при перезапуске часто висит в пассивном
> состоянии. В последнее время народ весьма активно работает в этой базе из
> разных кабинетов. Каждый вновь подключающийся "срубает" предыдущего (если
> кто был подключен). :( Недовольство растёт.
>
> Если подключаться к консоли mpd и руками поднимать второй линк - всё
> проходит чудесно. Дело, я понимаю, в том, что при старте второго линка,
> первый ещё не поднят/не сконфигурирован. А вот как указать mpd задержку на
> несколько секунд перед поднятием второго линка - найти нигде не могу. Если
> не трудно - ткните носом в нужное место в документации. Спасибо!
>


[freebsd] Re: Re[4]: [freebsd] mpd (pppoe) + VMWare возможно?

2013-07-22 Пенетрантность Vitaly Dodonov
22 июля 2013 г., 18:11 пользователь Alexander  написал:

> Hello Vitaly,
>
> Saturday, July 20, 2013, 11:12:30 AM, you wrote:
>
> VD> Фря подключенная в настроенный по дефолту vSphere standard switch
> VD> прекрасно работала pppoe концентратором.
> VD> Если на esxi ничего специально не резать проходят и виланы и пппое и
> все прочее.
> 1. Promiscuous mode включили - положительного результата нет. :(
>
> 2.  Сервера  пока  включены в один сегмент. Для теста туда же включили
> второй  модем. Товарищ включается нубуком в свитч при сервере, смотрит
> wireshark-ом пакеты в интерфейсе. Я на старом шлюзе через два свича по
> команде tcpdump -npi bge0 ether host 00:0c:29:d6:7e:87 and port not ssh
> вижу PPPoE:
> 16:47:47.334121 PPPoE PADI [Host-Uniq 0x8040D3C8] [Service-Name]
> 16:47:51.354961 PPPoE PADI [Host-Uniq 0x003AD3C8] [Service-Name]
> 16:47:53.354004 PPPoE PADI [Host-Uniq 0x003AD3C8] [Service-Name]
> 16:47:57.354316 PPPoE PADI [Host-Uniq 0x003AD3C8] [Service-Name]
>
> А  в это же время товарищ, включенный в свитч рядом с новым сервером с
> фильтром  в  wireshark-e:  eth.addr matches 00:0c:29:d6:7e:87 не видит
> ничего.  :(  Свитчи  D-Link  DES  1026G.  Т.е., получается, PPPoe таки
> работает и наружу просится, но вот свитч его заворачивает на "аплинка"?
> Как его "повернуть" в нужное русло?
> --
> Best regards,
>  Alexandermailto:albor...@gmail.com
>
>
По дефолту promisc у vmware выключен, у меня работало без него.

Между виртуалками пппое работает?


[freebsd] Re: Re[2]: [freebsd] mpd (pppoe) + VMWare возможно?

2013-07-20 Пенетрантность Vitaly Dodonov
Фря подключенная в настроенный по дефолту vSphere standard switch прекрасно
работала pppoe концентратором.
Если на esxi ничего специально не резать проходят и виланы и пппое и все
прочее.


20 июля 2013 г., 11:36 пользователь Alexander  написал:

> Hello Alexander,
>
> Saturday, July 20, 2013, 1:03:17 AM, you wrote:
>
> AB> 2013/7/20 Vladislav V. Prodan 
>
> AB> Понизьте
> AB>   set link mtu 1300
> AB>   set link mru 1300
> AB> То же самое:
> AB> 00:55:14.893330 PPPoE PADI [Host-Uniq 0xC01505C5] [Service-Name]
> AB> 00:55:16.892899 PPPoE PADI [Host-Uniq 0xC01505C5] [Service-Name]
> AB> 00:55:20.893173 PPPoE PADI [Host-Uniq 0xC01505C5] [Service-Name]
> AB> 00:55:24.913695 PPPoE PADI [Host-Uniq 0xC01305C5] [Service-Name]
> AB> 00:55:26.913566 PPPoE PADI [Host-Uniq 0xC01305C5] [Service-Name]
> AB> 00:55:30.913905 PPPoE PADI [Host-Uniq 0xC01305C5] [Service-Name]
> AB> 00:55:34.934703 PPPoE PADI [Host-Uniq 0x8054DAC4] [Service-Name]
> AB> 00:55:36.934258 PPPoE PADI [Host-Uniq 0x8054DAC4] [Service-Name]
> AB>
> На самой фре на интерфейсе (получается - виртуальном) исходящие pppoe
> посылки  вижу. А вот как бы узнать - физический интерфейс они покидают
> или режутся? Судя по некоторым отзывам в тырнете, в основу гипервизора
> (загрузчика) положен линух... tcpdump там есть? Работает? ifconfig-a в
> шелле у вмвари, по словам товарища, нет. :(
> --
> Best regards,
>  Alexandermailto:albor...@gmail.com
>
>


Re: [freebsd] mpd and down-script

2013-02-12 Пенетрантность Vitaly Dodonov
есть ли в конфиге   set iface route default на отключающемся линке?
если есть лучше его убрать, а добавление дефолтов поместить в if_up и тогда
ничего лишнего не должно удаляться


13 февраля 2013 г., 1:39 пользователь Yuriy B. Borysov <
yokod...@yokodzun.kiev.ua> написал:

>   Hi!
>
> On Wed, Feb 06, 2013 at 09:24:47PM +0200, Yuriy B. Borysov writes:
>
> > А вот при вызове из mpd получаю:
>
> > system: command "/usr/local/etc/mpd5/gwch.sh ng3 inet 1.1.1.1/322.2.2.2 '-' 
> > '00:00:00:00:00:00'" returned 256
>
> Как тут советовали добавил явное удаление дефолта, перед добавлением
> нового. Ошибка 256 ушла. Но счастья все равно нет. Судя по отладке,
> скрипт выполняется нормально:
>
> +
> PATH=/sbin:/bin:/usr/sbin:/usr/bin:/usr/local/etc/mpd5:/usr/local/sbin:/usr/local/bin
> + ifconfig ng1
> + grep inet
> + awk '{print $2}'
> + ng1_ip=101.109.24.66
> + ifconfig ng1
> + grep inet
> + awk '{print $4}'
> + ng1_gw=101.109.24.1
> + ifconfig ng2
> + grep inet
> + awk '{print $2}'
> + ng2_ip=110.77.14.75
> + ifconfig ng2
> + grep inet
> + awk '{print $4}'
> + ng2_gw=110.77.14.1
> + ping -c 5 -S 101.109.24.66 101.109.24.1
> + route del default
> del net default
> + route add default 101.109.24.1
> add net default: gateway 101.109.24.1
>
> Но в итоге дефолта все равно нет. Такое ощущение, что кто-то (сам
> mpd?) его опять удаляет.
>
> Кто это может быть?
>
> Спасибо!
>
>
> --
> WBR, Yuriy B. Borysov
> YOKO-UANIC | YOKO-RIPE
>