22.05.2019, sergio написал(а):
> A:/share /mnt/share nfs4 auto,nodev,bg,rw 0 0
[...]
> но если потом вдруг перезагрузиться, то повиснет навечно (пока не
> появится A):
>
> A start job is running for /mnt ( / no limit)
Некоторые рекомендуют сиё монтировать с добавлением x-systemd.automount,noauto
Если в /etc/fstab написать:
A:/share /mnt/share nfs4 auto,nodev,bg,rw 0 0
а потом сказать
mount /mnt/share
то при выключенном A оно ответит:
mount.nfs4: backgrounding "A:/share"
mount.nfs4: mount options: "rw,nodev,bg"
но если потом вдруг перезагрузиться, то повиснет навечно (пока не
появит
On 4/7/18, D. H. wrote:
> Не знаю в каком сейчас состоянии проект, но когда-то было такое как
> lustre. Весьма не плохо справлялась у довольно крупного европейского
> сотового оператора.
Вот боюсь, что для крупного оператора оно и не плохо, но на 2-х
серваках не поднимешь. Там нужны сервера для м
у я так и не понял задачи.
Мне интересно, кто как собирает высокодоступное хранилище, кроме
nfs+drbd+pacemaker и glusterfs. Я других вариантов не нашёл, может
плохо искал.
дней стабильной версии
> ситуация улучшилась, как минимум 1 ГБ освободить не проблема). Не
> смотря на кеширование метаданных на стороне клиента говорят, что он
> довольно медленный, но цифр мне не показывали.
>
> Пробовал настроить кластер на основе drdb + pacemaker + nfs, но с ним
&g
+ pacemaker + nfs, но с ним
хватает своих проблем: для drdb желательно иметь отдельный линк,
переключение на резервную ноду очень долгое (около минуты, с glusterfs
у меня максимум 10 сек), вывести одну ноду на обслуживание целая
проблема.
Смотрел на прочие варианты, типа Ceph, GFS, но для этой задачи они
Hello Sohin,
On Wed, 24 May 2017 12:09:48 +0300
Sohin Vyacheslav wrote:
> 24.05.2017 12:04, Alexander Gerasiov пишет:
> > DATA AND METADATA COHERENCE
>
> а ман по какой команде кстати? в man umount такого раздела нет...
nfs(5)
--
Best regards,
Alexander Gerasiov
Conta
24.05.2017 12:04, Alexander Gerasiov пишет:
> DATA AND METADATA COHERENCE
а ман по какой команде кстати? в man umount такого раздела нет...
--
BW,
Сохин Вячеслав
24.05.2017 12:04, Alexander Gerasiov пишет:
> Сейчас вот посмотрел ман, там целый раздел про это:
>
> DATA AND METADATA COHERENCE
спс, буду читать матчасть...
--
BW,
Сохин Вячеслав
Hello Sohin,
On Wed, 24 May 2017 11:48:57 +0300
Sohin Vyacheslav wrote:
> 24.05.2017 11:35, Alexander Gerasiov пишет:
> > обычно секунды, может десятки.
> > От чего зависит сейчас уже не вспомню, там еще разница между
> > версиями протокола есть в этой части.
>
> прошло уже минут 50 - каталог
24.05.2017 11:35, Alexander Gerasiov пишет:
> обычно секунды, может десятки.
> От чего зависит сейчас уже не вспомню, там еще разница между версиями
> протокола есть в этой части.
прошло уже минут 50 - каталог не появился...
--
BW,
Сохин Вячеслав
24.05.2017 11:26, Alexander Gerasiov пишет:
> Можно umount -f -l, но надо понимать, что процессам, которые открыли
> файлы на этом разделе, может стать плохо.
так ничего не произошло - остался подмонтирован раздел
$ sudo umount -f -l /mnt/storage/nfs
$ sudo mount /mnt/storage/nfs
mou
; пробовал без -l:
> $ sudo umount -f /mnt/storage/nfs
> umount.nfs4: /mnt/storage/nfs: device is busy
Ну так я не зря написал про -l
--
Best regards,
Alexander Gerasiov
Contacts:
e-mail: g...@cs.msu.su Homepage: http://gerasiov.net Skype: gerasiov
PGP fingerprint: 04B5 9D90 DF7C C2AB CD49 BAEA CA87 E9E8 2AAC 33F1
gt; файлы на этом разделе, может стать плохо.
пробовал без -l:
$ sudo umount -f /mnt/storage/nfs
umount.nfs4: /mnt/storage/nfs: device is busy
--
BW,
Сохин Вячеслав
Hello Sohin,
On Wed, 24 May 2017 11:00:42 +0300
Sohin Vyacheslav wrote:
> День добрый,
>
> а как можно правильно перемонтировать подключенный NFS раздел?
> там появилась еще 1 папка, которой в данный момент не видно...
Не проще ли дождаться, когда она появится? Там не такой уж бо
24.05.2017 11:00, Sohin Vyacheslav пишет:
>
> может как-то можно с опцией remount?
такая команда не проходит:
$ sudo mount -o remount,rw ip-address:/mnt/storage/nfs /mnt/storage/nfs
никаких варнингов, но и нужный каталог все-еще пустой((
--
BW,
Сохин Вячеслав
День добрый,
а как можно правильно перемонтировать подключенный NFS раздел?
там появилась еще 1 папка, которой в данный момент не видно...
umount предварительно не проходит, так как много разных процесов
используют расшаренный каталог:
$ sudo umount /mnt/storage/nfs
umount.nfs4: /mnt/storage
Добрый день
нет не подменяю
сама система грузиться без проблем т.к. у нее есть свой passwd shadow
и fstab
как только система подгрузилась, монтируется storage - который на
данный момент содержит debootstrap stable релиз debian (на момент
всей установки это был lenny)
так вот как только
Alexey Shalin writes:
> да в /storage/etc лежит passwd, shadow для chroot /storage
> оки словлю покажу
Насколько мне известно, расшаривать файлы /etc/fstab, /etc/passwd,
/etc/shadow по nfs - неправильно, потому что нужны они ещё до того, как
nfs-разделы начнут монтироваться.
Скажите в
да в /storage/etc лежит passwd, shadow для chroot /storage
оки словлю покажу
---
Старший Системный Администратор
Алексей Шалин
ОсОО "Хостер kg" - http://www.hoster.kg
ул. Ахунбаева 123 (здание БГТС)
h...@hoster.kg
--
To UNSUBSCRIBE, email to d
Alexey Shalin writes:
> делаю
> cat /etc/group | grep name_group (или cat /etc/group)
> выводиться
> name_group:x:3912:
> после чего апач стартует без проблем
Не думаю, что эти события связаны.
> кэш например nfs как вариант..
У Вас /etc монтируется через nfs?
>
при запуске апача он сам выдает почему не может стартануть и
показываеть он
apache2 bad group name name_group
делаю
cat /etc/group | grep name_group (или cat /etc/group)
выводиться
name_group:x:3912:
после чего апач стартует без проблем
кэш например nfs как вариант..
как словлю
Alexey Shalin writes:
> при действии cat /etc/group кэш обновляется и апач стартует без
> проблем
Я лично не знаю такого кэша. Вообще, нефиг придумывать объяснения из
воздуха. Лог апача показывайте.
pgpEtOLtm8t7X.pgp
Description: PGP signature
так если в выполнить в баше теже команды
cat /etc/group && /etc/init.d/apache2 start стартует без проблем
есть подозрение, что апач или система хранить в кэше файл со старыми
данными
при действии cat /etc/group кэш обновляется и апач стартует без
проблем
---
5 ноября 2013 г., 11:35 пользователь Alexey Shalin написал:
> так вот проблема вот в чем, иногда апач не старует и говорит, что
> apache2 bad group name
> #!/bin/bash
И что в вашем скрипте сугубо башевого?
> cat /etc/group > /dev/null
Как это могло бы помочь?
> /etc/init.d/apache2 start
Добрый утр
возникает след. проблемка ... =))
есть nfs шара, которая на ноды моунтится в диру /storage и уже в
/storage через chroot запукаются приложения
вот .. и там же на ноде монтируется через sshfs каталог /storage в
/var/lib/extrausers
192.168.15.71
rpc stats:
calls badcalls badclntbadauthxdrcall
0 0 0 0 0
Client rpc stats:
calls retransauthrefrsh
1936492327 7068 1936731584
Client nfs v4:
null read writecommit open open_conf
0 0
в основном блоги держат местные юзеры .. для них доступ открыт, а вот
для всех остальных закрыт
брут да есть... но это и помогло не особо сильно
load average: 8.03, 10.04, 7.95
плавает.. иногда доходит до 12 потом уходит вниз опять до 2-3.. потом
опять вверх и постоянно так маячит
=)
--
Alexey Shalin writes:
> была обнаружено офигенная арава коннектов к wp-login.php
Вот тут должно возникнуть подозрение на брут.
Посмотрели в логах веб-сервера, откуда стучатся?
> закрыл в фаерволе обращение к этому файлы(на роутере)
Это, конечно, взломщиков отрубило. Но не расстроится ли владел
может кому и поможет
не факт что именно в этом была причина
но после долго анализа ... пыток... было обнаружено офигенная арава
коннектов к wp-login.php
закрыл в фаерволе обращение к этому файлы(на роутере) и нагрузка на
NAS серваке с 7.50 упала сразу до 4.. сейчас падает до 1.5
=
---
могу предположить, что LA как-то связано с nfs процессами в статусе D
---
Старший Системный Администратор
Алексей Шалин
ОсОО "Хостер kg" - http://www.hoster.kg
ул. Ахунбаева 123 (здание БГТС)
h...@hoster.kg
--
To UNSUBSCRIBE, email
Вот сейчас LA > 21
atop
PRC | sys 60.04s | user 0.10s | #proc348 | #zombie0 | #exit 0 |
CPU | sys581% | user 1% | irq 26% | idle175% | wait 17% |
cpu | sys 73% | user 0% | irq 4% | idle 20% | cpu003 w 3% |
cpu | sys 73% | user 0% |
iostat
Total DISK READ: 323.37 K/s | Total DISK WRITE: 166.33 K/s
TID PRIO USER DISK READ DISK WRITE SWAPIN IO>COMMAND
30847 be/4 root7.43 K/s 360.53 K/s 0.00 % 57.73 % [nfsd]
30845 be/4 root0.00 B/s 341.95 K/s 0.00 % 49.46 % [nfsd]
30955 be/4 root 118.9
18.10.2013 14:48, Mikhail A Antonov пишет:
> 18.10.2013 14:31, Alexey Shalin пишет:
>> да есть рабочие процессы nfsd
>> данная папка /storage монтируется на 8 веб нод + 1 основная нода
>>
>> на веб нодах - апач для отдачи динамики
>> 1 основной - nginx для отдачи
18.10.2013 14:31, Alexey Shalin пишет:
> да есть рабочие процессы nfsd
> данная папка /storage монтируется на 8 веб нод + 1 основная нода
>
> на веб нодах - апач для отдачи динамики
> 1 основной - nginx для отдачи статики
Дисковая система на nfs-сервере действительно способна пере
я просто не то вырезал через grep :)
нужно было грепать по processor
cat /proc/cpuinfo | grep processor | wc -l
8
8 процессоров
---
Старший Системный Администратор
Алексей Шалин
ОсОО "Хостер kg" - http://www.hoster.kg
ул. Ахунбаева 123 (здан
да есть рабочие процессы nfsd
данная папка /storage монтируется на 8 веб нод + 1 основная нода
на веб нодах - апач для отдачи динамики
1 основной - nginx для отдачи статики
на просторах тырнета написано, что нужно 2 коннект от nfs client в
один кабель
т.е. грубо говоря
nfs client1
nfs
On 18/10/13 13:16, Alexey Shalin wrote:
> root@nas2-backup:~# cat /proc/cpuinfo | grep cpu | wc -l
> 32
А можно поинтересоваться, что означает эта цифра?
--
sergio.
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listma
On Fri, Oct 18, 2013 at 03:49:45PM +0600, Alexey Shalin wrote:
> LA - load average:
Знание расшифровки аббревиатуры ещё не означает, что понятен смысл
этой величины и/или алгоритм её вычисления. Похоже, непонятен.
> ввиду того, что на серваке только крутиться nfsd
> в top - он только и есть...
LA - load average:
ввиду того, что на серваке только крутиться nfsd
в top - он только и есть...
типа\
30842 root 20 0 000 S 16 0.0 1:01.17 nfsd
30896 root 20 0 000 S 13 0.0 1:30.96 nfsd
30955 root 20 0 000 R 13 0.0 0:39.93 nf
On Fri, Oct 18, 2013 at 03:16:02PM +0600, Alexey Shalin wrote:
> Вопрос.. почему растет нагрузка LA, что заметно на чтении и записи ..
> на серверах, которые монтируют /storage
>
> куда рыть.. куда копать.. куда тыкать .. я уже все перепробовал
Странно, казалось бы при росте нагрузки в первую о
free -g
total used free sharedbuffers cached
Mem:27 27 0 0 8 12
-/+ buffers/cache: 6 21
Swap: 24 0 24
если вы про это - то да в кэше 21Gb :)
--
Alexey Shalin ☫ → To debian-russian@lists.debian.org @ Fri, Oct 18, 2013 15:16
+0600
> Сведение о Сервер
> Intel(R) Xeon(TM) MP CPU 3.16GHz
> root@nas2-backup:~# cat /proc/cpuinfo | grep cpu | wc -l
> 32
>
> хотя топ показывает от 0 до 7
>
> free -g
> total used free
frame:0
TX packets:1041317321 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1
RX bytes:258867684559 (241.0 GiB) TX bytes:396569192650 (369.3 GiB)
на сервере запушен только nfs-kernel-server
uname -a
Linux nas2-backup 2.6.32-5-amd64 #1 SMP Sun Sep 23
Спасибо будем наблюдать!!!
---
Старший Системный Администратор
Алексей Шалин
ОсОО "Хостер kg" - http://www.hoster.kg
ул. Ахунбаева 123 (здание БГТС)
h...@hoster.kg
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subje
артным MTU не смогут принять большие
фреймы, будет чёрная дыра, т.e. тайм-ауты.
bonding тоже надо аккуратно делать, его надо со строны свича включать с LACP.
Иначе возможна расконфигурация и тоже - черная дыра.
>
> я пробовал hard вместо soft... не особо лучше было
soft маунт на NFS это п
остальных машинах 1500
# Load balancing and fault tolerance
bond-mode balance-rr
bond-miimon 100
bond-downdelay 200
bond-updelay 200
dns-nameservers 192.168.15.230
я пробовал hard вместо soft... не особо лучше было
а зачем nginx на nfs ? с нфс монтится chroot окружение
On Wed, Sep 25, 2013 at 08:53:22AM +0600, Alexey Shalin wrote:
> проблема такая
> Sep 25 02:30:52 ispcp kernel: [25965.872151] nfs: server 192.168.15.71 not
> responding, timed out
> 2013/09/24 18:56:17 [crit] 10657#0: *847376 open() "summer-camp-block.jpg"
> fail
Доброе всем утро!!
У меня возникла проблема с NFS (вернее она уже давно существует)
проблема такая
имеется 1 NFS сервер (DELL 6800 CPU Intel(R) Xeon(TM) MP CPU 3.16GHz x
8, Памяти 27 гигов)
к нему подключена полка с SCSI винтами U320 15k .. в RAID 5
смонтирован сюда этот диск
/dev/sdb1
On Wed, Aug 21, 2013 at 06:30:36PM +0600, Alexey Vazhnov wrote:
> Может, проблема в том, что тупит не сам NFS, а просто выставлены
> большие таймауты?
Таймаут, очевидно, дефолтный.
> P.S.: поправьте у себя подпись — должно быть два знака «-» и один
> пробел после них. У вас пробела
Может, проблема в том, что тупит не сам NFS, а просто выставлены большие
таймауты? Сервера нет, пакеты уходят в пустоту. Попробуйте поиграться с
параметром монтирования timeo.
P.S.: поправьте у себя подпись — должно быть два знака «-» и один пробел
после них. У вас пробела нет, поэтому
В общем никак. При любых комбинациях параметров нфс оно тупит при загрузке
и ставит машину раком при потере связи с сервером во время работы.
On Aug 20, 2013 7:04 PM, "Bogdan" wrote:
> Добрый день.
>
> Монтирую шату с опциями: defaults,vers=3,bg
>
> При недоступности сервера процесс загрузки клие
20.08.2013 22:04, Bogdan пишет:
> Добрый день.
>
> Монтирую шату с опциями: defaults,vers=3,bg
>
> При недоступности сервера процесс загрузки клиентского компьютера
> занимает очень много времени.
> Я ожидал, что "bg" решит эту проблему, видимо эта магия работает как-то
> иначе.
> Расскажите пожа
On Tue, Aug 20, 2013 at 07:04:12PM +0300, Bogdan wrote:
> При недоступности сервера процесс загрузки клиентского компьютера занимает
> очень много времени.
Больше минуты?
--
WBR, wRAR
signature.asc
Description: Digital signature
Добрый день.
Монтирую шату с опциями: defaults,vers=3,bg
При недоступности сервера процесс загрузки клиентского компьютера занимает
очень много времени.
Я ожидал, что "bg" решит эту проблему, видимо эта магия работает как-то
иначе.
Расскажите пожалуйста, как прописать шару в fstab, чтобы её недос
а что если поправить init-скрипт nfs-сервера, чтобы он запускался с другим
umask? start-stop-daemon штатно умеет (man на предмет опции -k|--umask).
если я правильно понял философию этого дела, umask - это свойство процесса, и
устанавливается он при запуске оного.
менять системный юмаск я бы не
uot; ">> /etc/sysctl.conf
echo "# This specifies a limit on the number of watches that can be
associated with each inotify instance.">> /etc/sysctl.conf
echo "fs.inotify.max_user_watches=100" >> /etc/sysctl.conf
Также стоит отметить, что файлы соз
Привет Владимир
On 03/14/2013 05:59 AM, Владимир Скубриев wrote:
У тебя решение с использованием inotify-wait ?
Я написал демон на c++. В принципе уже работает, но хочу красоту навести.
--
Сергей
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscr
On 03/13/2013 06:00 PM, Sergey Spiridonov wrote:
Привет Владимир
On 03/13/2013 01:15 PM, Владимир Скубриев wrote:
On 03/13/2013 03:46 PM, Sergey Spiridonov wrote:
Кстати ты на каком этапе по написанию "демона" ?
На этапе "компилируется и даже запускается" :)
Читает конфигурацию из файла, о
Привет Владимир
On 03/13/2013 01:15 PM, Владимир Скубриев wrote:
On 03/13/2013 03:46 PM, Sergey Spiridonov wrote:
Кстати ты на каком этапе по написанию "демона" ?
На этапе "компилируется и даже запускается" :)
Читает конфигурацию из файла, обходит заданные деревья, реагирует на
события.
"copy". У файловой системы другой API, в нём
есть другие операции. Некоторые поддерживаются через протокол nfs,
некоторые нет, но в любом случае сначала нужно выяснить, что именно
делает программа, которая копирует файл (а она может вести себя по-разному
в зависимости от параметров), и
On 03/13/2013 03:46 PM, Sergey Spiridonov wrote:
Привет Владимир
On 03/13/2013 12:20 PM, Владимир Скубриев wrote:
Очень не хочется городит велосипед. Я имею в виду, что пока вижу только
одно решение данной проблемы отдельным демоном следить за правами или
изменениями в файловой системе и фиксит
Привет Владимир
On 03/13/2013 12:20 PM, Владимир Скубриев wrote:
Очень не хочется городит велосипед. Я имею в виду, что пока вижу только
одно решение данной проблемы отдельным демоном следить за правами или
изменениями в файловой системе и фиксить автоматом права на появляющиеся
новый файлы.
К
Добрый день!
Есть сервер NFS и расшареный каталог.
В нем есть папка common которой установлены расширенные acl по умолчанию
setfacl -m d:g:__USERS__:rwx common/
и установлена маска по умолчанию:
setfacl -m d:m:rwx common/
Если зайти на сервер NFS локально и создать там файл и папку локально
На сервере четыре сетевых интерфейса? Можете примерно оценить
производительность массивов?
25 октября 2012 г., 10:21 пользователь evgeny_ver...@mail.ru <
evgeny_ver...@mail.ru> написал:
> Ну давай конкретизируем, так проще:
> 1. Есть 1 NFS-расшара на 500 Gb. Используется кругло
Ну давай конкретизируем, так проще:
1. Есть 1 NFS-расшара на 500 Gb. Используется круглосуточно.
2. Есть 300 постоянных подключений (проекты программистские и связь с
серверами работающими, соответственно файлов открыто уйма)
3. Сейчас используется 1 HP G7, рядом стоит второй такой же.
4. Сеть
25 октября 2012 г., 0:21 пользователь evgeny_ver...@mail.ru
написал:
> Рассказали мне тут знакомые любопытную историю. Столкнулись они с проблемой
> такого плана: если к NFS-ресурсу прицепляется сотня пользователей, то сервер
> выедает 100% ядра и на этом жалобно попискивая, умирает. К
evgeny_ver...@mail.ru <
evgeny_ver...@mail.ru> написал:
> Хорошо, тогда дурацкий вопрос: как кластеризовать NFS?
>
>
> 24.10.2012 22:49, Anatoly Molchanov пишет:
>
> Довольно давно я наблюдал подобную картину, проблема была в недостатке
> моих знаний и опыта. Много нагрузки
Хорошо, тогда дурацкий вопрос: как кластеризовать NFS?
24.10.2012 22:49, Anatoly Molchanov пишет:
Довольно давно я наблюдал подобную картину, проблема была в недостатке
моих знаний и опыта. Много нагрузки было от сетевой активности,
сетевая карта с собственным мозгом решила проблему. Сейчас
елей я бы
> сразу использовал кластер из двух (минимум) серверов.
Подтверждаю. По каким-то причинам, NFS чувствителен к железу. У меня был
случай (давно), когда сетевая карта вешала сервер _только_на_NFS_нагрузке.
Уже не помню, ядерный был сервер или нет.
--
To UNSUBSCRIBE, email to debian-
., 22:21 пользователь evgeny_ver...@mail.ru <
evgeny_ver...@mail.ru> написал:
> Доброго времени суток!
>
> Рассказали мне тут знакомые любопытную историю. Столкнулись они с
> проблемой такого плана: если к NFS-ресурсу прицепляется сотня
> пользователей, то сервер выедает 100% я
(495) 797-6020 #1686
+7 (916) 668-3436
email: abra...@armd.ru
В сообщении от 29 December 2011 08:59:28 автор Ivan Petrov написал:
> 29.12.2011 11:15, Andrey Bragin пишет:
> > Уажи свой ip.
> > И покажи cat /etc/exports
> >
> >> Вдогонку к предыдущему письму:
> >
29.12.2011 11:15, Andrey Bragin пишет:
Уажи свой ip.
И покажи cat /etc/exports
Вдогонку к предыдущему письму:
sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
mount.nfs: 192.168.0.1:/tmp/mnt/disk0_1 failed, reason given by server:
Permission denied
Почему сервер не
Если просишь помощи в рассылки.
То отвечай на заданные вопросы.
Их не просто так задают.
> 29.12.2011 11:13, Иван Лох пишет:
> > On Thu, Dec 29, 2011 at 11:08:27AM +0700, Ivan Petrov wrote:
> >> Вдогонку к предыдущему письму:
> >>
> >> sudo mount -t nfs 192.16
29.12.2011 11:13, Иван Лох пишет:
On Thu, Dec 29, 2011 at 11:08:27AM +0700, Ivan Petrov wrote:
Вдогонку к предыдущему письму:
sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
mount.nfs: 192.168.0.1:/tmp/mnt/disk0_1 failed, reason given by
server: Permission denied
Почему сервер
Уажи свой ip.
И покажи cat /etc/exports
> Вдогонку к предыдущему письму:
>
> sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
> mount.nfs: 192.168.0.1:/tmp/mnt/disk0_1 failed, reason given by server:
> Permission denied
>
>
> Почему сервер не пускает?
On Thu, Dec 29, 2011 at 11:08:27AM +0700, Ivan Petrov wrote:
> Вдогонку к предыдущему письму:
>
> sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
> mount.nfs: 192.168.0.1:/tmp/mnt/disk0_1 failed, reason given by
> server: Permission denied
>
> Почему сервер
Вдогонку к предыдущему письму:
sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
mount.nfs: 192.168.0.1:/tmp/mnt/disk0_1 failed, reason given by server:
Permission denied
Почему сервер не пускает?
--
With regards,
Ivan Petrov ip2010petrov wow-wow yandex...
--
To
s> А поставить самбу туда где nfs стоить нельзя?
неа, там "локалка" в общем это openvpn и два шлюза :)
--
... mpd is off
. ''`. Dmitry E. Oboukhov
: :’ : email: un...@debian.org jabber://un...@uvw.ru
`. `~’ GPGKey: 1024
30.11.2010 21:38, Иван Лох пишет:
> On Tue, Nov 30, 2010 at 08:46:23PM +0300, Dmitry E. Oboukhov wrote:
>> есть у нас сетевой сервак nfs на котором мы между друг дружкой шарим
>> музыку.
>>
>> появился вендузятник в сети, соответственно на одном из _клиентов_
>>
А поставить самбу туда где nfs стоить нельзя?
Можно ещё webdav попробовать.
--
sergio.
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4cf
>> есть у нас сетевой сервак nfs на котором мы между друг дружкой шарим
>> музыку.
>>
>> появился вендузятник в сети, соответственно на одном из _клиентов_
>> поставили samba и расшарили nfs-смонтированную директорию.
ИЛ> Для nfs есть клиенты
On Tue, Nov 30, 2010 at 08:46:23PM +0300, Dmitry E. Oboukhov wrote:
> есть у нас сетевой сервак nfs на котором мы между друг дружкой шарим
> музыку.
>
> появился вендузятник в сети, соответственно на одном из _клиентов_
> поставили samba и расшарили nfs-смонтированную директорию
>> проблема следующая, если самба расшаривает локальные ресурсы, то венда
>> их читает без проблем.
>>
>> если самба расшаривает то что смонтировано через nfs, то венда видит и
>> читает содержимое каталогов, но при любом обращении к контенту файла
>> (то есть
On Tue, 2010-11-30 at 20:46 +0300, Dmitry E. Oboukhov wrote:
> есть у нас сетевой сервак nfs на котором мы между друг дружкой шарим
> музыку.
>
> появился вендузятник в сети, соответственно на одном из _клиентов_
> поставили samba и расшарили nfs-смонтированную директорию.
>
есть у нас сетевой сервак nfs на котором мы между друг дружкой шарим
музыку.
появился вендузятник в сети, соответственно на одном из _клиентов_
поставили samba и расшарили nfs-смонтированную директорию.
то есть схема такая
nfs -> клиент -> самба -> локалка -> венда
проблема сле
05.09.2010 15:28, Andrei Lomov пишет:
> Dmitry Nezhevenko wrote:
>
>> On Sat, Sep 04, 2010 at 10:59:20PM +0600, Andrey Rahmatullin wrote:
>>> On Sat, Sep 04, 2010 at 11:55:18PM +0700, Andrei Lomov wrote:
> Отдельно хочется отметить удобство когда все машины пишут в лог имя
> localhost. :-/
Dmitry Nezhevenko wrote:
> On Sat, Sep 04, 2010 at 10:59:20PM +0600, Andrey Rahmatullin wrote:
>> On Sat, Sep 04, 2010 at 11:55:18PM +0700, Andrei Lomov wrote:
>> > > Отдельно хочется отметить удобство когда все машины пишут в лог имя
>> > > localhost. :-/
>> > У Вас не так?
>> У нас нормальный хо
On Sat, Sep 04, 2010 at 10:59:20PM +0600, Andrey Rahmatullin wrote:
> On Sat, Sep 04, 2010 at 11:55:18PM +0700, Andrei Lomov wrote:
> > > Отдельно хочется отметить удобство когда все машины пишут в лог имя
> > > localhost. :-/
> > У Вас не так?
> У нас нормальный хостнейм пишется.
>
Может у челов
On Sat, Sep 04, 2010 at 11:55:18PM +0700, Andrei Lomov wrote:
> > Отдельно хочется отметить удобство когда все машины пишут в лог имя
> > localhost. :-/
> У Вас не так?
У нас нормальный хостнейм пишется.
--
WBR, wRAR (ALT Linux Team)
Powered by the ALT Linux fortune(6):
Дупы, еще куда ни шло. А
On Thu, Sep 02, 2010 at 01:15:56PM +0700, Andrei Lomov wrote:
> Машина client монтирует ресурс:
> /etc/fstab:
> main:/mnt/pool /mnt/p...@main nfs
> user,soft,tcp,retrans=10,timeo=1,retry=1,bg,noauto,rsize=8192,wsize=8192 0
Должно быть: hard,bg,intr,tcp,ver=3 и user (если надо)
soft
at 01:15:56PM +0700, Andrei Lomov wrote:
> > > >> Не могу разобраться, почему не идет запись по nfs ...
> > > >> На двух машинах стоит lenny
> > > >
> > > > 1) rpcinfo -p
> > > > 2) nfswatch
> > >
> > > nfswatch -- может
On Thu, Sep 02, 2010 at 05:53:19PM +0400, Иван Лох wrote:
> On Thu, Sep 02, 2010 at 08:24:56PM +0700, Andrei Lomov wrote:
> > Иван Лох wrote:
> >
> > > On Thu, Sep 02, 2010 at 01:15:56PM +0700, Andrei Lomov wrote:
> > >> Не могу разобраться, почему не идет запи
On Thu, Sep 02, 2010 at 08:24:56PM +0700, Andrei Lomov wrote:
> Иван Лох wrote:
>
> > On Thu, Sep 02, 2010 at 01:15:56PM +0700, Andrei Lomov wrote:
> >> Не могу разобраться, почему не идет запись по nfs ...
> >> На двух машинах стоит lenny
> >
> > 1
Иван Лох wrote:
> On Thu, Sep 02, 2010 at 01:15:56PM +0700, Andrei Lomov wrote:
>> Не могу разобраться, почему не идет запись по nfs ...
>> На двух машинах стоит lenny
>
> 1) rpcinfo -p
> 2) nfswatch
nfswatch -- может, не так? на нахожу
> Ну и проверить, что одна ве
я, что источник проблемы - тут. А руки, по
> старой памяти, могут расти из отсутствия portmap. На клиенте, кажется,
> а не на сервере.
>
> Могут, впрочем, быть и другие несовместимости. На сервере стоит
> nfs-kernel-server?
Да.
Плохо понимаю ситуацию, на всякий случай вот rpcin
On Thu, Sep 02, 2010 at 01:15:56PM +0700, Andrei Lomov wrote:
> Не могу разобраться, почему не идет запись по nfs ...
> На двух машинах стоит lenny
1) rpcinfo -p
2) nfswatch
Ну и проверить, что одна версия протокола используется...
--
To UNSUBSCRIBE, email to debian-russia
ти, могут расти из отсутствия portmap. На клиенте, кажется,
а не на сервере.
Могут, впрочем, быть и другие несовместимости. На сервере стоит
nfs-kernel-server? Userspace реализации NFS у нас сейчас (по-разному)
неработоспособны.
--
Машины пока еще от копирования защищены хитрой немецкой технологие
Не могу разобраться, почему не идет запись по nfs ...
На двух машинах стоит lenny
Машина main отдает свою директорию /mnt/pool:
/etc/exports:
/mnt/pool client(rw,async) small(rw,async)
Вот так она загружается:
...
Sep 2 12:10:19 localhost kernel: [ 15.825702] NET
On Thu, Aug 05, 2010 at 06:02:59PM +0400, Roman V. Nikolaev wrote:
>
> Еще инфа: Если монтировать папки по sshfs то все нормально =), никаких
> сбоев не наблюдается.
>
> Сомнения: наверное дело не в NFS а в Wifi, но см. sshfs...
>
> Так можно как-нибудь сделать работу WiFi
Результаты 1 - 100 из 279 matches
Mail list logo