Entwicklung KNN und KI?
die ersten Entwicklungen zu neuronalen Netzen gab es bereits in den Jahren zwischen 1942 und 1955 (zB Walter Pitts und Warren Mc Culloch). In den 1990ern gabs an den Unis auch Forschungen, die gefühlt (?) im Sande verliefen, wie auch zu KI. Wieso? Was gab den Durchbruch ... von der "Rechenleistung" abgesehen?
PS: auf wikipedia braucht nicht verwiesen werden, https://de.wikipedia.org/wiki/Geschichte_der_k%C3%BCnstlichen_Intelligenz
1 Antwort
Hallo,
der "Durchbruch" ist vor allem der Entwicklung des "Deep Learnings" zu verdanken.
Beim Deep Learning handelt es sich um eine Methode des sogenannten Maschinellen Lernens. Einfach gesagt, werden künstliche Netze mit unzähligen "Zwischenschichten" in der Mitte der Eingabe- und Ausgabeschicht entwickelt, sodass eine sehr umfangreiche Struktur entsteht, wie im Gehirn.
Dadurch kann eine KI Entscheidungen präziser treffen und Bilder verstehen usw...
Eine anderer Grund ist auch die viel größere Menge an Daten, damals gab es im Vergleich zu heute quasi null Daten. Heutzutage gibt es Millionen Wikipedia Einträge, Dokumentationen zu den Unterschiedlichsten Dingen, wie Java Bibliotheken. Diese Daten sind fast alle frei zugänglich und so für die Entwickler geradezu mit Leichtigkeit einsetzbar.
Zu guter Letzt, was du auch vermutlich mit Rechenleistung meinst, ist die Technik heute auch viel weiter, für das Maschinelle Lernen braucht man extrem leistungsstarke Grafikkarten, genau diese hat Nvidia entwickelt und damals konnte man von so etwas nur träumen.
Ich hoffe, dass ich deine Frage ausführlich beantworten konnte, falls nicht kannst du mich gerne nochmal kontaktieren.
LG
Anfang der 1940er gab es schon Deep Learning. Allerdings konnte man da noch nicht viel damit anfangen - gab schließlich keine Daten (und die Entwicklung war da auch eher in der Beta Phase). Von den Grafikkarten ganz zu schweigen.
Und doch, man braucht sehr gute Grafikkarten für maschinelles Lernen.
Nicht umsonst arbeiten die großen Entwickler mit der Nvidia A100.
Ausführlichen Bericht findest du hier: https://www.aime.info/blog/de/de-deep-learning-gpu-benchmarks-2021/#:~:text=Deep%2DLearning%2DLeistungsskalierung%20im%20Multi,mit%20einer%20NVIDIA%20A100%20vergleicht.
Schließlich möchte man sehr, sehr viele Daten möglichst komplex miteinander verbinden.
Nicht umsonst arbeiten die großen Entwickler mit der Nvidia A100.
Ausführlichen Bericht findest du hier
kann ich die bei dir kaufen?
Schweineteures Teil, das willst du nicht. Ich selber arbeite auch mit mehreren "kleineren", 17k sind mit dann doch zu viel.
Lustig, warte gleich lache ich...
Ich versuche hier eine ernsthafte Konversation zu führen und du willst mich verkohlen?
Hab ich echt nicht nötig!
Lustig, warte gleich lache ich...
Ich versuche hier eine ernsthafte Konversation zu führen und du willst mich verkohlen?
Hab ich echt nicht nötig!
Getroffene Hunde bellen ...
:-)
aha ... und diese Methoden waren bereits Teil der Forschung & Entwicklung in den 90ern ...
und nein, für maschinelles Lernen braucht man keine extrem leistungsstarke Grafikkarten, sondern diese bieten nur aufgrund ihrer Architektur der vielen Shaders die parallelen, unabhängig Prozessoren. soweit reicht auch mein Wissen ...