2 Antworten

So was ist nicht neu und gab es schon immer.

Dank Internet und Prüfungsmöglichkeiten fällt es heutzutage leichter auf.

Zukunftsprognosen haben schon immer so sicher, wie Bills Aussage, dass niemand mehr als 640 KByte Speicher benötigen würde - oder Aussagen aus der "Pre-Automobil-Aera", dass zukünftig Städte in Pferdemist ersticken würden. 😉

Aussagen wie z.B.

LLMs are also highly valuable in supporting software engineering tasks, particularly in the field of code generation.

halte ich für absolut fehl am Platz: einfach deswegen, da man nie weiß, wo LLM-basierte KI beginnt zu halluzinieren.

|

Durch LLMs erzeugter Code ist vor allem nützlich als Code-Fragment in Fachbüchern übers Programmieren, anderswo aber eher nicht.

|

Bei SAP allerdings sieht man das anders:

Angeblich schreibt deren KI-basierter Assistent "Joule" den Code "heute schon sehr gut". SAP-Chef Christian Klein sagt:

"Natürlich muss man immer noch Korrekturen vornehmen, aber der riesige Produktivitätsschub ist unübersehbar".

https://www.sap.com/germany/products/artificial-intelligence/ai-assistant.html


grtgrt 
Beitragsersteller
 18.07.2024, 21:10

Völlig falsch ist natürlich auch die Aussage, dass Führungskräfte schon die Hälfte ihrer Aufgaben einer KI "anvertrauen", wie folgender Pressebericht uns weiszumachen versucht: https://archive.is/NQ53T#selection-2141.0-2141.68

grtgrt 
Beitragsersteller
 18.07.2024, 14:54

https://www.computerwoche.de/a/wie-effektiv-codet-ki-wirklich,3698495

KI muss man begreifen als virtuellen Gesprächspartner, der – obgleich er über sehr viel mehr Wissen verfügt als wir – ebenso irren kann, wie wir selbst.

grtgrt 
Beitragsersteller
 19.07.2024, 16:34
@grtgrt

Generative KI wird gelegentlich sogar schlimmer irren als wir selbst, da sie ja keinerlei Plausibilitätsüberlegungen anstellen kann. Logische Überlegungen sind ihr fremd, ja sogar unmöglich.