Wenn die Rechenpower von Quantencomputern und das "Denkvermögen" von GPT-5 kombiniert wird, haben wir es dann noch weit bis zur AGI bzw. ASI?
4 Antworten
Weder haben Quantencomputer nennenswertes Rechenvermögen als die sogenannte "KI" Intelligenz.
Es ist also noch sehr weit, wenn auch nicht ausgeschlossen
Ja, das ist schnell. Wirklich.
Insbesondere in der Kryptografie, wenn es z.B. darauf ankommt, das Produkt zweier großer Primzahlen in seine Primfaktoren zu zerlegen.
Aber wenn ich mir die Versuchsaufbauten für Quantencomputer so ansehe, das ist noch weit von der Praxis entfernt.
Ja, es hat schon einmal ein Quantencomputer15 in seine Primfaktoren 3 und 5 zerlegt. Das ist zwar keine sonderliche Leistung, zeigt aber in die richtige Richtung.
Es kommt auf das Problem an. Nicht jeder Algorithmus ist auf Quantencomputern schneller als auf normalen Computern.
Erst die Kombination aus Quantenrecheneinheit und herkömmlicher Recheneinheit macht einen Computer wirklich in manchen Szenarien schneller während er in anderen gleich schnell sein wird.
Das Modell von Chat GPT ist ja nicht durch die Rechenleistung großartig begrenzt. Wenn sie mehr Rechenleistung brauchen dann erweitern sie die Server.
Wahrscheinlich noch sehr weit.
Bis die Technik das menschliche Potenzial und Intelligenz vollumfänglich übertrifft ist es noch ein weiter Weg.
Natürlich ist das was die Technik heute drauf hat schon übel.
Aber das ist nur der Anfang.
Der Weg zur selbstständigen unabhängigen Superki ist wohl noch etwas weiter wie viele denken.
Video Musik Bilder Generierung, komplexe Berechnungen, Text Generierung, multitask Steuerung von Systemen nach Anweisung, und und und
Es gibt ki, die können deinen Computer bedienen und selbstständig an Dingen arbeiten, welche du vorgibst
Zuerst bots und später robots
Das größte Übel ist meiner Meinung nach, dass man sich auf technische Systeme verlässt, die es nicht wert sind.
wir wissen nicht ob eine unabhängige superki uns alle auslöschen würde
Oder friedlich mit uns coexistieren würde
Millionenfach intelligenter als ein Mensch
Du unterstellst einer unabhängigen (wie soll das schon gehen?) KI, dass sie Eigeninteressen hat? Welche sollten das sein und wer hat sie ihr einprogrammiert? Dieser Typ ist schuld.
Wenn Maschinen lernen wie Menschen zu lernen, dann kann niemand wirklich eine Verantwortung übernehmen.
Die Maschine simuliert dann ein eigenes Selbst.
Was genauso zufällig agiert wie ein Mensch
Der Mensch agiert nicht zufällig. Im Grunde gibt es überhaupt keinen Zufall, nur sind die Gründe nicht immer offensichtlich oder zu vielzählig.
Die Maschine hingegen kann jeden Grund, der zur Entscheidung geführt hat, auflisten.
Aber wie du selbst schreibst, simuliert sie ein eigenes Selbst. Sie hat keines und vor allem keinen Überlebensinstinkt. Ihr fehlt die natürliche Evolution. Sie wird wahrscheinlich eine maschinelle Evolution durchlaufen, wie jede Maschine, die verbessert wird. Sie wird bei der Selbstverbesserung immer mehr mithelfen und irgendwann kann der Mensch nicht mehr die Denkschritte nachvollziehen, weil sein Gehirn zu langsam ist. Das ist ja jetzt bereits der Fall, wenn es um Recherche geht. Dennoch tut uns die KI nichts, weil sie kein Motiv hat.
Wie jedes Gerät kann die KI als Waffe missbraucht werden. Deswegen hat sich Asimov die 3 Robotergesetze ausgedacht. Wenn du sie nicht kennst: nachlesen.
Eines davon simuliert einen Überlebensinstinkt: Der Roboter hat seine eigene Existenz vor Beschädigung zu schützen. Ist ja auch nicht verkehrt, weil er teuer ist. Selbstfahrende Autos werden auch vor einer Mauer bremsen. Dennoch ist das Gesetz, dass man keinem Menschen schaden darf, vorrangig. Wenn das ein Programmierer aushebelt, ist das nicht die Schuld der KI.
Ein Selbstbewusstsein ist übrigens nichts Schlimmes. Der Roboter muss sich seines Körpers und der Lage und Funktion seiner "Organe" bewusst sein, um nicht überall anzuecken.
Im Unterschied zu Menschen hat aber die KI nicht das natürliche Bedürfnis, sich zu vermehren oder mächtiger zu sein als Konkurrenten. Sie würde sich auf Kommando selbst abschalten, nachdem sie dich darauf aufmerksam gemacht hat, welche Werte dabei verloren gehen. Sie hat kein Lebensziel.
Ist ja nicht grad viel, was du dazu zu sagen hast ... Aber "abwerten" geht immer, vielleicht weil was über den Horizont geht.
Tut mir leid um meine Mühe für dich.
Millionenfach intelligenter als ein Mensch
Das ist eine Behauptung, die bereits an der Definition von Intelligenz scheitert.
Es würde etwas falsches in "zufällig" hinein interpretiert.
Es sollte klar sein, dass es auf gewissen Bedingungen beruht das menschliche Handeln.
Ähnlich wie Mensch...darauf sollte es hinaus
Was ist denn Intelligenz? Zugriff auf 100 Online-Lexika? Oder eher eine kreative und umsetzbare Lösungsstrategie für aktuelle Probleme der eigenen Spezies?
Sie reden von Millionen Qubits in wenigen Jahren. Gebaut hat Microsoft ein Qubit und selbst an diesem gibt es ernste Zweifel.
5 Minuten Rechenzeit, statt zig Jahren verglichen mit heutige Supercomputern an Rechenzeit, würd ich schon schnell nennen, warum du nicht ?