hallo,
Am 17.11.2015 um 09:47 schrieb RA Stehmann:
On 17.11.2015 07:42, Jörg Schmidt wrote:
Das Problem ist IMO, dass die Fehler schon in den grundlegenden
Programmiersprachen auftreten. Sie sind wohl für binäre Computer
fundamental. Man müsste also "Workarounds" mit allen "Risiken und
Nebenwirkungen" schreiben.
Genau das meinte ich. Ich hatte früher mal in Assembler reingeschaut und
auch mal was einfaches programmiert. Alles was wir heute haben basiert
ja darauf. Jede Zahl ist genau auf 0 oder 1 am Ende. Nur die Umwandlung...
Die damaligen Fehler wurden mitgenommen. Den Y2k Fehler hatte man ja
damals in den Griff bekommen, aber an der Dekodierung einer Dezimalzahl
kann man nichts mehr ändern, außer man beginnt ganz von vorne.
Genau sind ja auch andere Standards praktisch festgelegt. Praktisch alle
Schnittstellen, an denen Austausch stattfindet.
Das heißt, man muss auf Anwenderseite den Fehler abfangen. Gut, das war
mir bisher nicht wirklich klar.
Als ich heute morgen meinem Sohn den Fehler erklärte, wurde mir klar,
dass wir auch im Papierzahlenbereich einen ähnlichen Fehler haben. 1/3
+2/3 können wir rechnen. In Dezimal gibt es einen Fehler. 0,99999_ <>1
Das denken wir uns weg.
Horst
---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]