Könnte man eine sachlich neutrale KI entwickeln, die auch in der Lage ist Fehler im Mainstream aufzuspüren?
In diesem Video gibt die KI zu, dass sie darauf programmiert worden ist, bei bestimmten Themen parteiisch zu antworten.
https://www.youtube.com/watch?v=crhZ1U-pAVA
Was haltet ihr davon?
Na was ist der Unterschied zwischen einer >>>> echten <<<< KI und einem LLM ? ist das nicht unser Lieblingsverschwörungstheoreriker ?
Allgemeine KI ist für mehrere Formate, LLM ist besonders gut in Sprache.
Gibt es denn eine allgemeine KI ??https://de.wikipedia.org/wiki/Ken_Jebsen
Man nennt die `allgemeine KI´ auch `generative KI´, ja die gibt es, zumindest gemäß Bezeichnung.
5 Antworten
Wenn man das könnte, hätte man die erste echte KI geschaffen. Bis dahin wirds aber noch sehr lange dauern. Bisher gibt es keine KI, nur künstliche Inkompetenz.
Was haltet ihr davon?
Nicht viel.
Je allgemeiner die Ki gehalten ist desto höher ist die Fehlerquote.
Eine Ki die also grundsätzliche Fehler herausfindet die irgendwo irgendwann irgendwie existieren ist daher schwierig.
Eine Ki die Behauptungen auf Fakten checkt wäre da viel einfacher.
Nur wenn man sich auf Fakten beruft wäre das Mainstream.
Eine Ki die also grundsätzliche Fehler herausfindet die irgendwo irgendwann irgendwie existieren ist daher schwierig.
Wohl wahr.
Zudem stellt sich dann auch die Frage, wie entschieden werden soll (oder durch wen), was richtig oder falsch ist. Einer "KI" ist das erst einmal völlig egal - sie kann das ohne entsprechendes Training (sprich Vorgabe) gar nicht entscheiden.
Kis sind inzwischen ziemlich gut zusammenhänge zu erkennen.
So z.B. wenn Medikamente die bereits zugelassen sind auch gegen andere Probleme helfen die gar nicht angedacht waren.
Nur wenn man dem "Mainstram" wiedersprechen soll ist es eben nur ein kleiner Schritt zum absoluten Verschwörungswahn.
Wie man auf dieser Grundlage irgendwelche Realen Fehler finden soll ist mir schleierhaft. Den grade diese Faktenleugnung und der Verschwörungsglaube ist ja das was ständig als das "Mainstream durchschauen" gepriesen wird.
Die AGI ist momentan noch nicht erfunden. Die LLMs sind bisher der meist versprechende Ansatz. Und die sind momentan noch nicht in einem Stadium, dass sie themenübergreifend wirklich intelligent sein können.
Vermeidung von Bias ist ein Forschungsgebiet und ziemlich schwierig.
Und Deine loaded Questions sind schon sehr lustig. Ich halte von den Beispielen Deiner Fragen rein gar nichts.
Ich bin der Einzige hier, der Ahnung vom Klimawandel hat.
Und auf diese tolle Ahnung kommst Du ganz ohne Berechnung. Toll!
Man kann eine KI entwickeln, bzw. so parametrieren, dass sie Erkenntnisse aus der Wissenschaft höher gewichtet als Meinungen im Mainstream. Das bedeutet, jemand müsste der KI mitteilen, welche Quellen zu bevorzugen sind und welche Indizien für Seriösität sprechen.
Neutral im Sinne von "völlig von Eingangsparametern unabhängig" ist aktuell schwer möglich.
In diesem Video gibt die KI zu, dass sie darauf programmiert worden ist, bei bestimmten Themen parteiisch zu antworten...Was haltet ihr davon?
Nichts. Denn ein LLM weiß nicht was "programmieren" ist und auch nicht wie es selbst programmiert wurde. Es versucht lediglich aus seinen gespeicherten Informationen möglichst wohlklingende Sätze zu generieren. Du unterhältst dich also mit einem besonders qualifizierten datenbankbasierten Satzgenerator. Jede Folgerung die du aus selbstbezüglichen Inhalten erhältst ist ... Unfug.
Ich denke, es ist eher die Simulation von Intelligenz.