Warum gibt es noch keinen GPT-3 Sprachassistenten?
Hallo,
wir alle kennen ja die bekannten Sprachassistenten wie Google Assistant, Alexa und Siri. All diese Assistenten, kann man ja nicht wirklich als "künstliche Intelligenz" bezeichnen, da sie nur auf simplen Algorithmen basieren und sie lediglich bei spezifischen Dingen helfen können, wie z.B. einen Wecker stellen, die Nachrichten vorlesen oder die Smart Home Geräte steuern. Man merkt schnell, dass diese Assistenten oft ungenau/fehlerhaft sind und besonders bei komplexeren Fragen nicht weiterhelfen können.
All diese Probleme, sind bei dem Sprachverarbeitungsmodell GPT-3 nicht vorhanden. Es gibt viele Videos im Web, die das enorme Potential von GPT-3 zeigen:
Ich finde es fast unheimlich, wie intelligent und realistisch GPT-3 ist. Man kann es im Grunde die komplexesten philosophischen Fragen stellen und erhalt hochqualitative Antworten. Im Grunde könnte GPT-3 einem bei wirklich allem helfen.
Da frage ich mich, warum es noch kein wirkliches Produkt auf dem Massenmarkt gibt, mit dem man wie in dem obigen Video mit GPT-3 wie mit einem Sprachassistenten aber in Echtzeit interagieren kann. Weil die Technologien dafür sind ja vorhanden: Spracherkennung zur Eingabe, GPT-3 als den Assistenten und beispielsweise ein "MetaHuman" in der Unreal Engine 5 zur Echtzeitausgabe über einen Avatar.
Mit so einem Sprachassistenten, hätte man ja unendlich viele Anwendungsmöglichkeiten: von Beschäftigung/Betreuung der Kinder, Nachhilfe geben, bei komplexen Aufgaben und Entscheidungen in der Schule, Arbeit und Alltag helfen bis hin zu Konversationen über alle mögliche Themen führen.
Ich kann einfach nicht verstehen, warum es so etwas noch nicht gibt? Das würde doch bei weitem das hilfreichste Tool in der Menschheitsgeschichte sein. Letztendlich könnte damit jeder Mensch der Welt einen persönlichen Butler haben, der einem bei allen möglichen Themen, die über Sprache und Bild kommunizierbar sind helfen kann! Ist das nicht die logische Konsequenz dieses Fortschrittes?
Natürlich ist mir bewusst, dass GPT-3 sehr viel Rechenleistung braucht, jedoch könnte man das Produkt ja über Werbungen oder (was ich bevorzugen würde) durch monatliche Gebühren wie z.B. bei Netflix finanzieren.
Und wenn dann erstmal GPT-4 rauskommt, müssten wir uns um fast gar nichts mehr kümmern, weil GPT-4 dann wirklich alles für uns erledigen könnte..
4 Antworten
Das stimmt schon, aber dieser Mensch kennt schon diese Rechenleistung und die Algorithmen um sie zu kombinieren, um alles zu kontrollieren!.
Du überschätzt die Fähigkeiten von GPT-3. Habe mal die API getestet und auch wenn manchmal beeindruckende Ergebnisse rauskommen, kommt eben auch viel Müll und komplette falsche Aussagen.
YouTube Videos zu dem Thema sind häufig auch nicht so seriös da dort viele Sachen übertrieben dargestellt werden um mehr Aufmerksamkeit / Klicks zu bekommen.
Nein ist es nicht, wenn es teilweise komplett falsche Aussagen macht. Teste doch selber einfach mal die API dann weißt du wie unbrauchbar sie ist für diesen Zweck.
Habe ich schon öfters und war mega fasziniert!
Denke nicht dass du die API getestet hast, wenn du denkst dass man damit seine Hausaufgaben erledigen lassen kann. Außerdem braucht man eine Kreditkarte dafür die du als Schüler vermutet nicht hast.
Doch, z.B. auf dieser Seite habe ich schon oft damit herumexperimentiert: https://beta.openai.com/playground
Ich habe sogar eine App namens "Emerson", über die ich auch unterwegs mit GPT-3 kommunizieren kann: https://play.google.com/store/apps/details?id=ai.emerson
Kenne Emerson auch, aber das gibt ein eben häufig so ein Unsinn aus, dass es doch klar ist dass es nicht brauchbar ist für ein richtigen Sprachassistent.
Also für mich ist es tausend mal besser als Google, Alexa usw. Und über den Link auf dieser Seite, hatte ich noch bessere Ergebnisse als mit der App
Mein Kommentar dazu ist, dass Künstliche Bewusstsein könnte noch viel mehr als zu beantworten!.
Weil es auf 8 K80 GPUs läuft. Ist etwas teuer. Wenn man OpenAI bezahlt kann man das schon privat nutzen wie man will.
Weil die API viel zu teuer ist um sie in ein Massenprodukt zu integrieren. Für kleine Programme die Speech to Text verwenden und den Input an die API senden gibt es bestimmt schon Code auf Github
Aber wenn man eine monatliche Gebühr von z.B. 10€ oder so zahlen müsste?
Will aber keiner. Technik Enthusiasten vielleicht aber das wars.
Wenn es einem aber allen Dingen weiterhilft? Man müsste die AI nur fragen, ob sie die Hausaufgaben erledigt und schon ist es fertig
Nee, so gut ist die bei weitem nicht. Ich hatte beta zugriff und häufig war der output mäßig. Wenn es funktioniert hat dann war es wirklich beeindruckend, aber es schleichen sich eben regelmäßig richtige Fehler ein, wo der Output einfach erfunden ist oder das Format überhaupt nicht stimmt und der gleiche Satz vier mal wiederholt wird.
Es wird noch ein paar Generationen dauern bis das vollends austariert ist
Ich empfehle dir mal, das über diesen Link auszuprobieren, dann weißt du, was ich meine:
https://beta.openai.com/playground
Und ich empfehle, einen möglichst hohen Tokenwert zu benutzen.
Eben. Verstehe nicht warum der Fragesteller das nicht kapiert, wie soll man etwas als produktiven Sprachassistent verwenden, was komplett falsche Informationen als Fakten ausgibt?
Aber es ist millionenfach besser als Google, Alexa und co.