Ну заведите два веб-сервера так, чтобы полный контроль был у двух разных людей, причем чтобы был независимый контроль и чтобы одно другому не мешало _никаким_ боком. Верный выход в "дефолтной" схеме это два апача. Другой верный путь - виртуализация. А дальше, когда что-то надо как-то запустить, то и возникают проблемы. То, что вы спрашиваете в обычном обстановке и решается, есть мильон пользователей и есть sudo :) Также есть chroot. Разграничение файлов как было сказано решается через ACL и это unix-way.
ИМХО, до тех пор пока ядро не научится/даст возможность прикреплять процессы на определенные ядра/процессоры, то кроме виртуализации ничего и не остается. Да и еще бы неплохо "работать с памятью только из первой планки", а вот для него со второй планкой :) P.S. Без постановки задачи, ее не решить. 2009/10/29 Denis Feklushkin <[email protected]>: > Почему в своё время для безопасной работы на одной физической > машине linux пошёл по пути использования модифицированных ядер в режиме > пользовательского процесса (openvz и т.д.) а не по пути доведения до ума > безопасности пользовательской среды для одновременной работы > "нормальных" пользователей на одной машине? > > (То же можно сказать не только о linux) > > В *nix изначальная задумка ведь была такая? > -- With Best Regards, Vitaliy T.

