> Certo che conoscendo il numero di decimali che usa Calc si potrebbe
> aggiungere un elemento di credibilità tipo:
>
> "Ma per ottenere la massima precisione questo software utilizza sempre
> 12 decimali .
> Questo, in taluni casi, potrebbe generare delle piccole incongruenze
> visuali..... "

Ci sei andato vicino.
Calc (da quel che ho visto (mettendo, ad esempio, un "=1/3" in una cella
ed aumentando il numero di decimali o di cifre significative visibili) e
da quel che ho letto, anche se poco in verità perché non ho trovato
molto...) utilizza 15 *cifre significative* (che NON vuol dire decimali,
mi raccomando!).
Posso ipotizzare (dai ricordi del non proprio fresco (alcuni anni... :-)
) corso di matematica all'università) che per fare i calcoli utilizzi la
"precisione doppia", *ma questa è una mia personale speculazione*!!!
Questo dubbio deriva da questa prova:

cella   | formula   | risultato
-------------------------------------------
  A1    | =1/3      | 0,333333333333333
  A2    | =A1*2     | 0,666666666666667
  A3    | =A1+A1    | 0,666666666666667

Se lavorasse in precisione singola il risultato di entrambe le
operazioni (celle A2 e A3) sarebbe dovuto essere 0,666666666666666
(notare il 6 finale invece del 7).
Però non ho trovato nulla a riguardo.

Ciao!
Emanuele.

---------------------------------------------------------------------
To unsubscribe, e-mail: [EMAIL PROTECTED]
For additional commands, e-mail: [EMAIL PROTECTED]

Rispondere a