Warum haben manche 80386-Prozessoren falsch gerechnet bei einer bestimmten Multiplikation?

2 Antworten

Ach Gott, antike Forensik! Das ist ja über 35 Jahre her. Aber ja, es gab bei den ersten Prozessoren ein Problem mit 32-Bit-Integer-Multiplikation. 16-Bit ging. War ein Fehler im Chipdesign selber und nicht in der Logik.

Fehler im Chipdesign sind halt doof, weil sie nicht behoben werden können.

Weil in einer Lookup-Tabelle falsche Werte hinterlegt waren.