On Sep 06, Fab <[EMAIL PROTECTED]> wrote: > Ora aparte le considerazioni legate allo spazio, i dischi da 60/80Gb > non sono particolarmente costosi, e di CPU (qui magari si riuscira' a > fare un lavoro di squadra) il problema non e' compilare uno alla volta > un pacchetto ma compilare tutto in blocco.
apt-build world Accodo anche un'altra mail del buon marmo apparsa nella ml del lugts: Cerco di rimediare al tentatore invito alla ricompilazione selvaggia di questi giorni con un paio di segnalazioni: -ccache: salva in una cache locale ad albero, con posizione, livelli gerarchici e statistiche controllabili via variabili d' ambiente, gli object risultato di una compilazione computandone anche un hash. Qualora vengano nuovamente richiesti (i.e. make && make clean && make) li fornisce direttamente, salvando moltissimo tempo e conducendo a un binario identico all' originale. -distcc: utilizza un modello di rete peer to peer per distribuire tramite round robin la compilazione dei preprocessed .i e .ii, contattando l' apposito demone distccd in esecuzione (da semplice utente) su tutte le macchine di una rete "fidata" (l' autenticazione e` assente per motivi di performance). Le macchine in questione non devono neppure avere le stesse librerie, o girare con linux innanzitutto: basta che abbiano compilatori compatibili a livello binario. ...e non sarebbe linux se non si potessero concatenare per un distributed, cached compiling del tutto trasparente. -- Linux Users Group Trieste http://trieste.linux.it

