Por que, em vez de ter um kernel monolítico e grande.
O kernel não poderia ser mínimo e os módulos adicionados?

Como o amigo comentou em outra mensagem, antigamente era assim. Imagina
hoje em dia, com uma grande variedade de dispositivos diferentes, cada vez
que uma placa de rede queimasse e tivéssemos que trocá-la, teríamos que
carregar na mão o módulo para reconhecer a placa, isso tornaria o uso do
sistema difícil e trabalhoso. Hoje, você troca uma placa, liga o computador
e tá tudo funcionando, quase tudo ... rsrsrs.
Se vc já compilou alguma vez um kernel, deve ter percebido que ele te dá a
opção de "injetar" o driver diretamente no kernel ou compilar como módulo
para uso posterior, isso te dá uma flexibilidade enorme. "injetando"
diretamente no kernel ele será carregado na inicialização, como módulo você
terá que carregar na mão quando for usar.



Em qui., 7 de jan. de 2021 às 16:11, Paulo <[email protected]> escreveu:

> Olá Debinianas e Debinianos,
>
> Por que, em vez de ter um kernel monolítico e grande.
> O kernel não poderia ser mínimo e os módulos adicionados?
>
> Sem ter que compilar o kernel para cada novo módulo.
> Isso tornaria o kernel mais simples, rápido e menor.
>
> Não sei as dificuldades de fazer isso, nem as implicações.
>
> Aceito sugestões desde que sejam construtivas e até orientações que me
> expliquem o porque do kernel ser grande e termos que recompilar para um
> módulo (Ex: Sensor de Impressão Digital).
>
> Att,
>
> Paulo Correia
>
>

Responder a