Wie baut man einen Dezimal zu Binär Decoder (8-Bit, 2 stellig) in MC?
Ich bin gerade mit einem Freund dabei, einen 8 Bit Additions- und Subtraktions Rechner in Minecraft zu bauen.. Wir haben schonmal einen 4 Bit Additonsrechner gebaut, der allerdings eher "simpel" aufgebaut war. Nun wollen wir schließlich auch größere 2- und 3-stellige Zahlen berechnen und haben uns deswegen für einen Ziffernblock als Input entschieden (bei dem kleineren Rechner haben wir einfach 15 buttons genommen :D). Nun aber endlich zur Frage (da wir eher Redstone amateure sind): Wie kriegen wir, auch zwei-, bzw. dreistellige Zahlen binär in den "Prozessor"??
Danke für alle Antworten :^)
1 Antwort
Ich würde euch empfehlen den Input binär zu halten. Also einfach jeweils einen Button für 128,64,32,16,8,4,2 und 1. Der Benutzer muss seine Zahl halt im Kopf zerlegen. 130 wäre z.B. 128+2.
Das Umwandeln von Dezimal zu Binär ist relativ schwer. Den Dezimal-Input kann man leicht zu BCD umwandeln. (Falls du nicht weisst was das ist, einfach mal googlen.)
Um dann von BCD auf Binär umzuwandeln muss man die jeweilige Ziffer mal Zehn nehmen, und dann die nächste addieren.
Beispiel:
Die Zahl 59. Gespeichert als 5 und 9, jeweils in BCD:
0101 (5)
1001 (9)
—->
0101 (5) * 10 = 00110010 (50)
+ 1001 (9) = 00111011 (59)
Hier ist der kleinste Umwandler den ich finden konnte:
Ok, ich dachte mir schon, dass es ziemlich aufwendig wäre ^^.. Aber vielen Dank! (auch für die Erklärung: ich habe im Internet schon recherchiert und habe viele englischsprachige Foreneinträge gefunden, diese aber nicht richtig verstanden)