Il giorno gio, 31/05/2007 alle 08.17 +0200, AletrilogY ha scritto: > L'argomento è molto interessante, sopratutto per me che volevo passare > ad una architettura a 64bit, ma la domanda mi sorge spontanea.... > perchè c'è stata questa corsa alla tecnologia 64bit se nemmeno la sua > stessa tecnologia( vedi cache ) riesce a sfruttarne in pieno le > capacità? perchè oramai le cpu nuove che escono sono a 64bit quando > non è neanche possibile sfruttarla, i driver sono pochi o nulli i > programi idem?
Io sono un po' controcorrente, e ti rispondo: per fortuna che il marketing questa volta ha fatto qualcosa di buono! :) Ha ragione Roberto quando dice che il passaggio a 16 e 32 bit e` stato molto vantaggioso, ma IMHO solo perche` l'architettura precedente era sottodimensionata di molto quando e` stato fatto il passaggio, mentre coi 32 bit si sarebbe potuto vivere bene ancora 1-2 anni da adesso, poi sarebbero iniziati i problemi. Sto parlando dell'utente comune. Sui server i 64 bit ci sono da molto tempo e sono necessari. Sul C64 (8 bit) la memoria era 64 Kb, e gia` ne servivano 16 per indirizzarla. Come vedi era gia` strozzato in partenza. Poi e` arrivato il tempo dei PC a 16 bit e dell'Amiga 1000/500/2000 (e Atari ST 512 e 1024 e altre macchine), che avevano processori a 16/24 bit (il 68000): 16 bit per i dati, 24 per l'indirizzamento. Nascevano con 512 Kb di RAM, ed il massimo che potevano indirizzare erano 16 Mb. Infatti sono corsi ai ripari usando il 68020 e i 386 per avere i 32 bit e indirizzare 4 Gb. Naturalmente sui 386 giravano ancora S.O. a 16 bit (DOS e Windows fino al 95), quindi i vantaggi dei 32 bit sono arrivati dopo. Infatti gli x86 (anche il P4) hanno diverse modalita` di funzionamento, e di default partono a 16 bit. E` il S.O. che switcha a 32 bit appena viene caricato. 4 Gb di memoria, sui desktop, non vengono ancora usati quasi da nessuno, ma iniziano, soprattutto tra i gamers, le macchine con 2 Gb. Se aggiungi la swap, arrivi tranquillamente a 4 Gb, quindi siamo al limite della tecnologia. Nel giro di 2 anni, la quantita` di memoria base su un PC sara` di almeno 2 Gb (Vista ne richiede gia` almeno 1), e molti ne useranno 4. Aggiunta la swap, vedi che si sfora. Per questo dico: per fortuna ci sono gia`, e sono diffusi i processori 64 bit, cosi` gli sviluppatori hanno la possibilita` di essere pronti quando saranno necessari. E se non lo saranno, sara` colpa loro. Il problema attuale, infatti, e` che la maggior parte delle applicazioni usano algoritmi studiati per funzionare bene su 32 bit, e i compilatori possono fare poco in questi casi (vedi l'esempio postato qui del lame, evidentemente a 32 bit, e dell'oggenc, quasi sicuramente a 64. Non mi meraviglierei se l'oggenc riuscisse a dare anche una qualita` migliore aumentando i bit con cui fa i calcoli). Se vai su applicazioni server, tipo i database o i programmi di calcolo molecolare, sono gia` studiati a 64 bit (e 128 in virgola mobile), quindi avrai prestazioni migliori. Insomma, e` questione di tempo, e probabilmente le applicazioni Linux saranno pronte per i 64 bit prima di quelle Windows, vista la storica immobilita` di quella piattaforma (i driver Epson credo siano ancora a 16 bit...), ma i vantaggi si vedranno principalmente sul calcolo pesante e che richiede precisione o grandi numeri. Bye. -- Alessandro Pellizzari -- Per REVOCARE l'iscrizione alla lista, inviare un email a [EMAIL PROTECTED] con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a [EMAIL PROTECTED] To UNSUBSCRIBE, email to [EMAIL PROTECTED] with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]

