Warum sind Computer eigentlich gleichzeitig so gut und doch so ungenau im Rechnen? Dem ein oder anderen Programmierer dürfte das Floating-Point Problem bekannt sein. So errechnet ein Programm bei 0.1 + 0.2 = 0.30000000000000004.
Ein kleiner Fehler, der jedoch tagtäglich im Alltag der Programmierer zum Problem wird. Denn 0.3 ist eben nicht = 0.30000000000000004.