Warum haben manche 80386-Prozessoren falsch gerechnet bei einer bestimmten Multiplikation?
2 Antworten
Ach Gott, antike Forensik! Das ist ja über 35 Jahre her. Aber ja, es gab bei den ersten Prozessoren ein Problem mit 32-Bit-Integer-Multiplikation. 16-Bit ging. War ein Fehler im Chipdesign selber und nicht in der Logik.
Fehler im Chipdesign sind halt doof, weil sie nicht behoben werden können.
Von gutefrage auf Grund seines Wissens auf einem Fachgebiet ausgezeichneter Nutzer
Informatik
Weil in einer Lookup-Tabelle falsche Werte hinterlegt waren.