> Certo che conoscendo il numero di decimali che usa Calc si potrebbe > aggiungere un elemento di credibilità tipo: > > "Ma per ottenere la massima precisione questo software utilizza sempre > 12 decimali . > Questo, in taluni casi, potrebbe generare delle piccole incongruenze > visuali..... "
Ci sei andato vicino. Calc (da quel che ho visto (mettendo, ad esempio, un "=1/3" in una cella ed aumentando il numero di decimali o di cifre significative visibili) e da quel che ho letto, anche se poco in verità perché non ho trovato molto...) utilizza 15 *cifre significative* (che NON vuol dire decimali, mi raccomando!). Posso ipotizzare (dai ricordi del non proprio fresco (alcuni anni... :-) ) corso di matematica all'università) che per fare i calcoli utilizzi la "precisione doppia", *ma questa è una mia personale speculazione*!!! Questo dubbio deriva da questa prova: cella | formula | risultato ------------------------------------------- A1 | =1/3 | 0,333333333333333 A2 | =A1*2 | 0,666666666666667 A3 | =A1+A1 | 0,666666666666667 Se lavorasse in precisione singola il risultato di entrambe le operazioni (celle A2 e A3) sarebbe dovuto essere 0,666666666666666 (notare il 6 finale invece del 7). Però non ho trovato nulla a riguardo. Ciao! Emanuele. --------------------------------------------------------------------- To unsubscribe, e-mail: [EMAIL PROTECTED] For additional commands, e-mail: [EMAIL PROTECTED]
