hallo,

Am 17.11.2015 um 09:47 schrieb RA Stehmann:
On 17.11.2015 07:42, Jörg Schmidt wrote:
Das Problem ist IMO, dass die Fehler schon in den grundlegenden
Programmiersprachen auftreten. Sie sind wohl für binäre Computer
fundamental. Man müsste also "Workarounds" mit allen "Risiken und
Nebenwirkungen" schreiben.
Genau das meinte ich. Ich hatte früher mal in Assembler reingeschaut und auch mal was einfaches programmiert. Alles was wir heute haben basiert ja darauf. Jede Zahl ist genau auf 0 oder 1 am Ende. Nur die Umwandlung... Die damaligen Fehler wurden mitgenommen. Den Y2k Fehler hatte man ja damals in den Griff bekommen, aber an der Dekodierung einer Dezimalzahl kann man nichts mehr ändern, außer man beginnt ganz von vorne. Genau sind ja auch andere Standards praktisch festgelegt. Praktisch alle Schnittstellen, an denen Austausch stattfindet. Das heißt, man muss auf Anwenderseite den Fehler abfangen. Gut, das war mir bisher nicht wirklich klar.

Als ich heute morgen meinem Sohn den Fehler erklärte, wurde mir klar, dass wir auch im Papierzahlenbereich einen ähnlichen Fehler haben. 1/3 +2/3 können wir rechnen. In Dezimal gibt es einen Fehler. 0,99999_ <>1 Das denken wir uns weg.

Horst



---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]

Antwort per Email an