Die Spezifikation sagt explizit:
Da haben sich Ingeneure im Standardisierungsgremium schon was bei gedacht. Round to nearest even reduziert, wie ich oben beschrieben habe, den Rundungsfehler. Wenn das Ziel also ist möglichst korrekt zu rechnen (was in den meisten Situationen vermutlich der Fall ist), ist es die richtige Wahl."Round to nearest, ties to even" is the default for binary floating point and the recommended default for decimal. "Round to nearest, ties to away" is only required for decimal implementations
Und das ist nunmal wie es auf der Hardware in der FPU verlötet ist. Programmiersprachen wie C oder JavaScript die ein eigenes Rundungsverhalten einbauen müssen das selbst implementieren, nicht nur auf Kosten der Genauigkeit sondern gleichzeitig auch mit geringerer Leistung.
Das Problem ist das in der Schule halt eine vereinfachte Form des Rundens beigebracht wird die einfach zu Merken für Kinder ist, aber leider falsch (bzw. falscher als gewollt) rechnet. Wenn man aber eine Maschine hat deren Ziel es ist so wenig falsch wie möglich zu rechnen, dann kann man da auch vernünftige Rundung einbauen.
Ich verstehe nicht was so schwer daran zu begreifen ist das man weniger Rechenfehler machen möchte. Wer rechnet gerne falsch?