Entwicklung KNN und KI?

1 Antwort

Hallo,

der "Durchbruch" ist vor allem der Entwicklung des "Deep Learnings" zu verdanken.

Beim Deep Learning handelt es sich um eine Methode des sogenannten Maschinellen Lernens. Einfach gesagt, werden künstliche Netze mit unzähligen "Zwischenschichten" in der Mitte der Eingabe- und Ausgabeschicht entwickelt, sodass eine sehr umfangreiche Struktur entsteht, wie im Gehirn.

Dadurch kann eine KI Entscheidungen präziser treffen und Bilder verstehen usw...

Eine anderer Grund ist auch die viel größere Menge an Daten, damals gab es im Vergleich zu heute quasi null Daten. Heutzutage gibt es Millionen Wikipedia Einträge, Dokumentationen zu den Unterschiedlichsten Dingen, wie Java Bibliotheken. Diese Daten sind fast alle frei zugänglich und so für die Entwickler geradezu mit Leichtigkeit einsetzbar.

Zu guter Letzt, was du auch vermutlich mit Rechenleistung meinst, ist die Technik heute auch viel weiter, für das Maschinelle Lernen braucht man extrem leistungsstarke Grafikkarten, genau diese hat Nvidia entwickelt und damals konnte man von so etwas nur träumen.

Ich hoffe, dass ich deine Frage ausführlich beantworten konnte, falls nicht kannst du mich gerne nochmal kontaktieren.

LG

Woher ich das weiß:Berufserfahrung – Hab viel Erfahrung rund um KI's und maschinelles Lernen
rockthekrokodil 
Fragesteller
 24.04.2023, 21:23
Ich hoffe, dass ich deine Frage ausführlich beantworten konnte, falls nicht kannst du mich gerne nochmal kontaktieren

:-)

Beim Deep Learning handelt es sich um eine Methode des sogenannten Maschinellen Lernens.

aha ... und diese Methoden waren bereits Teil der Forschung & Entwicklung in den 90ern ...

und nein, für maschinelles Lernen braucht man keine extrem leistungsstarke Grafikkarten, sondern diese bieten nur aufgrund ihrer Architektur der vielen Shaders die parallelen, unabhängig Prozessoren. soweit reicht auch mein Wissen ...

0
DerAllerEchte20  24.04.2023, 21:32
@rockthekrokodil

Anfang der 1940er gab es schon Deep Learning. Allerdings konnte man da noch nicht viel damit anfangen - gab schließlich keine Daten (und die Entwicklung war da auch eher in der Beta Phase). Von den Grafikkarten ganz zu schweigen.

Und doch, man braucht sehr gute Grafikkarten für maschinelles Lernen.

Nicht umsonst arbeiten die großen Entwickler mit der Nvidia A100.

Ausführlichen Bericht findest du hier: https://www.aime.info/blog/de/de-deep-learning-gpu-benchmarks-2021/#:~:text=Deep%2DLearning%2DLeistungsskalierung%20im%20Multi,mit%20einer%20NVIDIA%20A100%20vergleicht.

Schließlich möchte man sehr, sehr viele Daten möglichst komplex miteinander verbinden.

0
rockthekrokodil 
Fragesteller
 24.04.2023, 21:41
@DerAllerEchte20
Nicht umsonst arbeiten die großen Entwickler mit der Nvidia A100.
Ausführlichen Bericht findest du hier

kann ich die bei dir kaufen?

0
DerAllerEchte20  24.04.2023, 21:44
@rockthekrokodil

Schweineteures Teil, das willst du nicht. Ich selber arbeite auch mit mehreren "kleineren", 17k sind mit dann doch zu viel.

0
DerAllerEchte20  24.04.2023, 21:57
@rockthekrokodil

Lustig, warte gleich lache ich...

Ich versuche hier eine ernsthafte Konversation zu führen und du willst mich verkohlen?

Hab ich echt nicht nötig!

0
rockthekrokodil 
Fragesteller
 24.04.2023, 22:08
@DerAllerEchte20
Lustig, warte gleich lache ich...
Ich versuche hier eine ernsthafte Konversation zu führen und du willst mich verkohlen?
Hab ich echt nicht nötig!

Getroffene Hunde bellen ...

0