Kategorien
code tech

0.1 + 0.2 = 0.3? Nicht mit mir!

Warum sind Computer eigentlich gleichzeitig so gut und doch so ungenau im Rechnen? Dem ein oder anderen Programmierer dürfte das Floating-Point Problem bekannt sein. So errechnet ein Programm bei 0.1 + 0.2 = 0.30000000000000004.

Ein kleiner Fehler, der jedoch tagtäglich im Alltag der Programmierer zum Problem wird. Denn 0.3 ist eben nicht = 0.30000000000000004.