Computer – die neusten Beiträge

Wie gefährlich ist Künstliche Intelligenz wirklich? Fake News, Rufmord & politische Manipulation – und wir schauen zu? 👨‍💻❗

In letzter Zeit wird viel über die Chancen von Künstlicher Intelligenz gesprochen – bessere Medizin, effizientere Prozesse, sogar Unterstützung in der Bildung oder im Alltag. Ja, das stimmt, es gibt positive Seiten. Aber was ist mit der anderen Seite? Der dunklen, gefährlichen Seite dieser Technologie, über die viel zu wenig diskutiert wird?

K.I. kann heutzutage in Sekunden Inhalte erzeugen, die wie echte Aussagen von echten Menschen aussehen – und genau das wird zunehmend für Rufmord genutzt. Politiker, Aktivisten, Journalisten, sogar normale Bürger: Jeder kann Opfer von KI-generierten Falschinformationen werden. Deepfake-Videos, gefälschte Tonaufnahmen, manipulierte Bilder – sie verbreiten sich schneller, als die Wahrheit hinterherkommt. Wer kontrolliert das noch?

Politik ist längst nicht mehr sicher. Ganze Wahlkämpfe könnten mit KI-basierten Kampagnen beeinflusst werden. Durch gezielte Desinformation – maßgeschneidert auf jeden einzelnen Wähler – können Meinungen manipuliert werden. Was früher Propaganda war, ist heute ein personalisierter Feed, gefüttert von Algorithmen, die genau wissen, was dich triggert. Und das Perfide: Es ist kaum noch nachvollziehbar, ob eine Information wahr oder manipuliert ist.

Auch im sozialen Raum nimmt die Gefahr zu: KI-generierte Nacktbilder von echten Personen (oft Frauen) werden in Foren geteilt – oft ohne ihr Wissen. Das ist digitaler Rufmord auf höchstem Niveau. Menschen verlieren Jobs, Beziehungen zerbrechen, Existenzen werden zerstört – basierend auf einem Bild, das nie real war.

Noch beängstigender: Diese Technologien werden immer besser und immer zugänglicher. Was heute noch als "technisch beeindruckend" gilt, wird morgen schon zur Waffe in den Händen von Trollen, Extremisten und Diktaturen.

Und was ist mit dem Arbeitsmarkt? Ganze Berufsfelder – Journalismus, Design, Bildung – werden gerade schleichend automatisiert. Nicht irgendwann, sondern jetzt. Was bedeutet das für die Zukunft von Wahrheit, Meinungsvielfalt und Kreativität?

Ja, KI kann Leben retten. Sie kann helfen. Aber wenn wir nicht jetzt klare ethische und gesetzliche Grenzen ziehen, dann wird diese Technologie nicht nur die Realität verändern – sie wird unsere Vorstellung davon, was überhaupt real ist, auslöschen.

Ich frage mich: Sind wir überhaupt noch in Kontrolle? Oder überlassen wir unsere Welt gerade einer Maschine, die schneller lernt, als wir denken können?

Was meint ihr – wird die Gefahr unterschätzt? Und was könnte man dagegen tun?

Bild zum Beitrag
Computer, Internet, Leben, Europa, Arbeit, Beruf, Schule, Zukunft, Technik, Community, Menschen, USA, Krieg, Deutschland, Politik, Wissenschaft, Psychologie, Intelligenz, Manipulation, Menschheit, Philosophie, Strafe

Wie überleben Ratgeberplattformen wie Gutefrage in zukünftigen KI Zeitalter?

Gerade deshalb habe ich KI gebeten, eine Fragebeschreibung zu dieser Frage zu schreiben, passend zum Thema:

Mit dem rasanten Fortschritt Künstlicher Intelligenz stehen traditionelle Ratgeberplattformen wie Gutefrage.net vor einer existenziellen Herausforderung. KI-Systeme wie ChatGPT oder Google Gemini liefern innerhalb von Sekunden präzise, strukturierte und oft sehr fundierte Antworten auf Nutzerfragen – ohne auf die Antwort einer Community warten zu müssen. Die zentrale Frage lautet daher: Welchen Mehrwert kann eine nutzergenerierte Plattform bieten, wenn KI bereits verlässlich, schnell und rund um die Uhr antwortet?

In dieser Frage geht es darum, ob und wie sich Plattformen wie Gutefrage anpassen müssen, um relevant zu bleiben. Mögliche Ansatzpunkte betreffen etwa Community-Gefühl, persönliche Erfahrungen, Diskussionstiefe, Meinungsvielfalt, Nischenwissen oder soziale Interaktion – Dinge, die KI (noch) nicht in vollem Umfang leisten kann. Auch die Rolle der Moderation, Qualitätssicherung und vertrauenswürdigen Erfahrungsberichten könnte neu bewertet werden.

Diese Fragestellung berührt damit nicht nur technologische, sondern auch soziale, wirtschaftliche und ethische Aspekte der digitalen Transformation im Informationszeitalter.

Computer, Internet, gutefrage.net, Schule, Zukunft, Technik, Menschen, Diskussion, Psychologie, Intelligenz, Debatte, Gesellschaft, künstliche Intelligenz

Wird die 2nm-Chipfertigung an physikalischen Grenzen scheitern oder mit neuen Architekturen beherrschbar bleiben?

Ich bin IT-Ingenieur und befasse mich seit Jahren mit Hardware-Architektur und Halbleiterfertigung. Aktuell verfolge ich intensiv die Entwicklungen rund um 2nm- und Sub-2nm-Prozesse bei TSMC, Samsung und Intel.

Mich interessieren dabei die realen technischen Limitierungen, die mit dieser Fertigungsklasse einhergehen. Daher ein paar präzise Detailfragen an alle, die sich mit Halbleitertechnik wirklich auskennen:

  • Wie weit sind Gate-All-Around-FETs (GAA) für unter 2nm aktuell wirklich einsatzreif — und wie problematisch sind Leckströme und thermische Herausforderungen in der Praxis?
  • Inwiefern beeinflussen Variability-Induced Performance Loss und Threshold Voltage Shifts die Zuverlässigkeit und Serienfertigung bei solchen Gate-Längen?
  • Welche Rolle spielen Backside Power Delivery Network (BSPDN) und Backside Metallization konkret für thermische Entkopplung und Signalintegrität?
  • Gibt es eurer Meinung nach einen physikalischen Punkt, an dem Miniaturisierung bei klassischen Silizium-basierten Prozessen keinen Sinn mehr macht, und ab wann nur noch Chiplet-Designs und Heterogeneous Integration den Fortschritt sichern können?
  • Und zum Schluss: Wie schätzt ihr die künftige Kosten-Nutzen-Relation bei Maskensätzen für 2nm und darunter ein, speziell bei EUV-Lithografie und möglichen Nachfolgetechnologien?

Freue mich auf technisch fundierte Meinungen — idealerweise von Leuten aus der Chipentwicklung, Halbleiterfertigung oder Embedded-Branche.

PC, Computer, Technik, Netzwerk, IT, USA, Chip, Intel, Nvidia

Grafikkarte oder Mainboard?

Hallo Leute, habe hier vor kurzem schon mal wegen dieses Problems eine Frage gestellt. Und zwar ist es so, dass ein PC beim Hochfahren manchmal 3-mal piepste, Was eigentlich bedeuten kann, dass der Ram ein Fehler hat. Hatte er nicht. Was ich aber zu dem Zeitpunkt übersehen habe, dass die Debug-LED einen VGA Fehler angezeigt hat. Also die Grafikkarte. Und es kam dann wie es kommen musste, dass der PC gar nicht mehr bootete und immer nur die 3 Pieptöne mit der roten LED bei VGA.

Also Grafikkarte raus an einem anderen PC getestet, da lief die Grafikkarte einwandfrei. Andere Grafikkarte bei mir rein, auch alles gut. Das Problem ist jetzt, wo liegt der Fehler? Ich vermute, das hat mit dem PCI-E Slot zu tun. Netzteil kann man eigentlich ausschließen. Mehrere Stromkabel für Grafikkarte probiert immer das gleiche Problem. Und als der PC vorher noch bootete, waren Stresstests für die Grafikkarte kein Problem.

Was jetzt auch Sinn ergibt, als der PC vorher noch immer wieder bootete, war es so, dass wenn er nicht bootete und ich den PC vor und wieder zurückgeschoben habe, dass er dann plötzlich wieder bootete.

Stehe nun vor der Entscheidung, ein neues Mainboard zu besorgen, oder die Grafikkarte auf die noch Garantie ist zurückzuschicken. Aber wie gesagt, an einem anderen PC lief sie ohne Probleme.

Meine Frage wäre nun, hat von euch jemand schonmal so ein Problem gehabt und wenn ja, wie habt ihr es gelöst?

PC, Computer, Grafikkarte, Mainboard

Gen Z wird große Probleme bekommen, wegen KI

Viele Unternehmen planen aufgrund der Fortschritte in der Künstliche Intelligenz, Angestellte zu entlassen. Laut einer Umfrage sind vor allem Hochschulabsolventen gefährdet.

Die Arbeitswelt erlebt durch die fortschreitende Entwicklung der Künstlichen Intelligenz (KI) einen grundlegenden Wandel. Laut einer exklusiven Erhebung des Bildungsmagazins „Intelligent“, stehen vorallem junge Berufseinsteiger der Generation Z vor einer unsicheren Zukunft.

Mehrheit der Unternehmen will junge Angestellte entlassen

Von den 800 befragten US-amerikanischen Personalverantwortlichen gaben 78 Prozent an, dass ihre Unternehmen aufgrund des Vormarsches der KI gezwungen sein könnten, kürzlich eingestellte Hochschulabsolventen zu entlassen, zitiert „Newsweek“ die Umfrage von „Intelligent“. Bei den Unternehmen, die Entlassungen in Betracht ziehen, erklärten 23 Prozent, dass weniger als drei Prozent der jungen Mitarbeiter betroffen wären, während 27 Prozent der Unternehmen von 5 bis 10 Prozent ausgingen. Elf Prozent der Firmen können sich sogar vorstellen, 15 bis 30 Prozent ihrer erst kürzlich angestellten Universitätsabsolventen vor die Tür zu setzen. Ein ebenso großer Anteil von Unternehmen erwägt sogar, zwischen 30 und 60 Prozent ihrer jungen Angestellten zu entlassen.

KI verdrängt Einsteigerjobs

Huy Nguyen, Chief Education and Career Development Advisor bei „Intelligent“, erklärte gegenüber „Newsweek“, dass vor allem Einsteigerrollen gefährdet seien, da diese leicht durch KI ersetzt werden könnten. „Viele Hochschulabsolventen werden eingestellt, um Einstiegspositionen auszufüllen, die informationsbezogene Aufgaben wie Forschung, Datenerfassung, Kundenbetreuung und allgemeine Büroassistenz beinhalten“, so Nguyen. Diese seien zwar für Berufsanfänger essentiell, um Erfahrungen zu sammeln, aber gleichzeitig auch am einfachsten durch KI zu ersetzen.

Etwa 70 Prozent der Personalverantwortlichen gaben bei der Umfrage von „Intelligent“ an, dass sie überzeugt seien, dass KI die Arbeit von Hochschulabsolventen verrichten kann. Über 50 Prozent ergänzten, so „Newsweek“,

dass sie in die digitale Intelligenz mehr Vertrauen hätten als in ihre Praktikanten.

Gleichzeitig bevorzugen Personalverantwortliche jedoch vor allem Bewerber mit KI-Erfahrung. 95 Prozent der Befragten gaben an, eher Hochschulabsolventen mit KI-Hintergrund einzustellen.

Was denkt ihr darüber?
Bild zum Beitrag
Computer, Internet, Leben, Arbeit, Beruf, Schule, Zukunft, Technik, Geld, Wirtschaft, Deutschland, Politik, Jugendliche, Psychologie, Intelligenz, künstliche Intelligenz

Frage an Mathematik und theoretische Informatik: Wird es jemals sog. "starke" KI geben können?

|

Unter starker KI (sog. "Superintelligenz") versteht man KI, die in keiner Hinsicht mehr weniger leistungsfähig ist als menschliche Gehirne.

Mark Zuckerburg scheint mit seinem bisherigen KI-Chef-Entwickler unzufrieden zu sein, da der glaubt, dass es sicher noch wenigstens 5 Jahre dauern wird, bis wir erste starke KI haben.

Roger Penrose skizziert in einem seiner Bücher einen Beweis dafür, dass starke KI kein Algorithmus sein kann (ganz prinzipiell nicht).

Alle heute bekannte KI aber ist Algorithmus.

Künstliche Intelligenz erkennt Objekte. Aber weiß sie auch, was man mit ihnen tun kann? Eine aktuelle Studie zeigt, warum unser Gehirn der Technik immer noch einen entscheidenden Schritt voraus ist.

Mehr zum Thema Gesellschaft & Psychologie

Ein kurzer Blick auf eine fremde Umgebung genügt, und schon wissen wir instinktiv: Hier kann man laufen, dort müsste man klettern, und in jenem Gewässer könnte man schwimmen. Diese Fähigkeit mag selbstverständlich erscheinen, doch wie das Gehirn diese Handlungsmöglichkeiten erkennt, war bisher weitgehend unerforscht.

Ein Team der Universität Amsterdam hat nun in einer aktuellen Studie nachgewiesen, dass unser Gehirn über einzigartige Aktivierungsmuster verfügt, die es uns ermöglichen, Fortbewegungsmöglichkeiten in unserer Umgebung sofort zu erkennen – eine Fähigkeit, an der selbst fortschrittlichste KI-Systeme bisher scheitern.

Man lese

  1. https://www.gmx.net/magazine/wissen/psychologie/aspekt-menschliche-gehirn-ki-ueberlegen-41088554
  2. Geht es nach Mark Zuckerberg, sind wir künftig alle mit einer KI befreundet - Zukunft - derStandard.de › Wissen und Gesellschaft
  3. https://the-decoder.de/metas-ki-chef-nennt-generative-ki-eine-sackgasse-und-liefert-mit-v-jepa-2-die-alternative/
Computer, Mathematik, Technik, IT, Informatik, Informationstechnik, künstliche Intelligenz, LLM, Superintelligenz, ChatGPT

Bildschirme plötzlich schwarz, was tun?

Guten Tag, ich habe nun seit ca. 1 Woche fast täglich das Problem, dass bei meinem PC plötzlich beide Bildschirme gleichzeitig Schwarz werden. Der Ton etc. läuft im Hintergrund weiter, nur das Bild ist weg.

Das Problem taucht unregelmäßig auf. Mal nach ner Stunde, mal nach 3, gestern ist es auch garnicht aufgetreten.

Natürlich habe ich schon gängige Dinge probiert, Kabel umgesteckt, Grafiktreiber neu installiert (Grafikkarte ist übrigens eine RTX3070), etc. leider hat nichts geholfen. Ich habe auch schon die Hardwarebeschleunigung ausgeschalten und den TDR-Timer erhöht. Leider erfolglos.

Aufgrunddessen das es in letzter Zeit sehr Warm ist, hab ich die Temperatur auch schon als mögliche Ursache verdächtigt. Direkt nachdem mein Bildschirm schwarz geworden ist, hab ich den PC neugestartet und die Temperaturen angeschaut.

Meine CPU hatte nach dem Neustart 85°, was zwar recht warm ist, jedoch sollte es an ihr nicht liegen

Die Grafikkarte, die ja eigentlich der Verursacher sein sollte, hatte hingegen nur 45°, sprich zum Zeitpunkt des Schwarz werdens vielleicht max 60° was nun nicht sonderlich warm ist für ne Grafikkarte.

Jetzt mach ich mit HWinfo aktuell eine Log, um dort evtl herauszufinden was die Ursache dafür ist. Jedoch wollte ich trotzdem hier mal fragen, ob von euch noch jemand Ideen für eine Lösung hat.

Übrigens ist der PC nicht sonderlich ausgelastet, aktuell spiele ich meistens Landwirtschafts Simulator und schaue nebenbei etwas Youtube, da wird nichts belastet.

Ich hoffe auf zahlreiche Ideen, und bedanke mich schonmal im voraus,

Mfg

PC, Computer, Monitor, Grafikkarte

Ist Obsidian eine gute Alternative zu Windows Notepad?

Guten Tag liebe GF-Community.

Ich überlege, Obsidian als Ersatz für das klassische Notepad zu nutzen.
Was meint ihr – ist Obsidian eine gute Alternative oder vielleicht sogar besser?

Obsidian – Vorteile:

  • Unterstützt Markdown und verlinkte Notizen (Zettelkasten-Prinzip)
  • Ideal für komplexe Notizen, Wissensmanagement, Projektplanung
  • Erweiterbar mit Plugins und Themes
  • Cross-Plattform & lokal gespeicherte Dateien (Datenschutz!)

Notepad – Vorteile:

  • Extrem leicht, schnell und ohne Installation
  • Ideal für einfache Texte, Logs, Code-Snippets
  • Kein Setup nötig, immer verfügbar auf Windows

Ich finde Obsidian wegen den Plugins und Themes und dem Markdown tatsächlich viel ansprechender, weil man damit einfach viel mehr Möglichkeiten hat.
Im Notepad Editor hat man all das nicht und kann nur auf ein Dark-Theme umschalten was mich zwar nicht stört aber Obsidian ist ein erweiterter und erweiterbarer Texteditor der mehr kann.

Was mich aber daran etwas stört das man einen extra Vault dafür benötigt - was by the way für Datenschutz und so nicht schlecht ist, aber die Textdateien die ich dann benutze liegen dann nicht so frei rum wie die von Notepad. Versteht ihr?
Wenn ich quasi nicht auf den Vault zugreifen kann habe ich auch kein Zugriff mehr auf alle Dateien - das ist bei Notepad nicht der Fall, weil man da immer Zugriff hat.

Ich möchte da auch (erstmals) kein ultra Komplexes Wissens-System aufbauen, sondern Obsidian wie einen normalen Texteditor für meine .txt verwenden.
Eben mit der Möglichkeit mehr Features als bei Notepad zu genießen.

| Frage:

Ist Obsidian eine gute Alternative zu Windows Notepad?
  • Oder hat es da noch bessere Alternativen?

Mit freundlichen Grüßen

RobinPxGF.

Bild zum Beitrag
| Nein. Obsidian ist keine gute Alternative. 100%
| Ich habe eine andere Meinung zu diesem Thema. 0%
| Ja. Obsidian ist eine gute Alternative. 0%
Computer, Software, Windows, Texteditor, Obsidian

Macht KI das Leben der Schüler zur Hölle? Was meint ihr dazu?

Zahlreiche Schüler nutzen Künstliche Intelligenz für Hausaufgaben, Tests und im Unterricht. Eine Lehrerin beschreibt, welche Folgen das hat.
KI macht das Leben als Schüler zur Hölle“, schreibt ein 18-jähriger Gymnasiast im Online-Forum Reddit. In seinem Beitrag berichtet er von Situationen im Unterricht, in denen seine Mitschüler Künstliche Intelligenz (KI) nutzen, um schnell kluge Antworten formulieren zu lassen und somit ihre mündliche Note zu verbessern „Leute wie ich, die keine KI benutzen, kommen im Unterricht nicht mehr hinterher“, schreibt er. Die Lehrer würde dies oftmals nicht bemerken. Selbst in Tests und Klausuren würden viele Schüler heimlich KI-Chatbots wie ChatGPT befragen „oder machen direkt ein Foto“. Der 18-Jährige wünsche sich striktere Regeln für den Umgang mit KI, doch gleichzeitig wolle er „niemanden verpetzen, weil man dann als Außenseiter dasteht, der anderen keine guten Noten gönnt.“In den Kommentaren unter seinem Beitrag stimmen ihm viele zu. „Kann ich alles so wiedergeben. Ist an unserem Gymnasium auch so“, schreibt ein Nutzer. Wie müssten sich Schule und Unterricht verändern, um auf die neuen technologischen Möglichkeiten zu reagieren? „Wir wollen, dass Kinder verstehen, wie Lernen funktioniert“, sagt Simone Fleischmann, Lehrerin und Vorsitzenden des Bayerischen Lehrerinnen- und Lehrerverbands, BuzzFeed News Deutschland von IPPEN.MEDIA. In der Schule sollte es nicht darum gehen, nur auswendig zu lernen, sondern Themenkomplexe nachhaltig zu begreifen.Ein wichtiger Teil sei das Analysieren des eigenen Lernprozesses. „Wenn die Schüler ein Referat gehalten haben, sollten sie reflektieren: Wer hat wie recherchiert? Wer hat mit KI gearbeitet? Wer hat ein Buch zur Hand genommen?“, sagt Fleischmann. Entscheidend sei auch die „Transparenz über die Leistungserwartung“: Lehrkräfte sollten deutlich machen, wie sie bewerten.
Expertin: Es braucht eine neue Kultur der Leistung in Schulen
Auf Reddit beklagt sich der 18-jährige Schüler darüber, dass Lehrer oft nicht den Umfang begreifen, in dem seine Mitschüler KI nutzen. Fleischmann sagt dazu: „Manchmal überholen uns die Kinder und Jugendlichen in der Anwendung von digitalen Tools“. Die meisten Lehrer seien jedoch dafür sensibilisiert und „nicht ahnungslos“. Weiterbildungen, die zu diesem Thema angeboten werden, seien teilweise ausbucht und viele informierten sich durch Podcasts und Tutorials.„Wir wollen nicht die Ewiggestrigen sein. Wir erkennen, dass sich die Lernwelt verändert hat“, sagt die Lehrerin. Das müsse auch die Gesellschaft und die Politik verstehen: „Proben, Schulaufgaben, Feedback müssen neu gedacht werden“, um auf den rasanten technologischen Wandel zu reagieren.Laut einem aktuellen Bericht zur Zukunft der Bildung der Nachhilfeplattform „GoStudent“ nutzen 87 Prozent der deutschen Schüler bereits KI-Tools. Zudem wünschen sich 61 Prozent der Kinder, dass ihre Lehrer mehr Wissen über KI hätten.

Quelle: https://www.fr.de/panorama/macht-das-leben-zur-hoelle-lehrerin-warnt-vor-riskantem-trend-an-deutschen-schulen-zr-93738219.html

Computer, Test, Internet, Wissen, Lernen, Schule, Zukunft, Technik, Leistung, Bildung, Noten, Schüler, Intelligenz, Gymnasium, Hausaufgaben, Herausforderung, Klausur, künstliche Intelligenz, Lehrer, Chatbot, Lehrkräfte, ChatGPT

Zwischen Simulation und Sein: Die Frage nach dem Bewusstsein der Künstlichen Intelligenz“?

Seit Jahren investieren Tech-Giganten wie Google, Microsoft oder Amazon hunderte Milliarden in Künstliche Intelligenz – weit mehr als für reine Produktivität oder Werbung nötig wäre. Offiziell geht es um Effizienz und Automatisierung. Doch still stellt sich eine tiefere Frage: Was genau suchen sie – und glauben sie vielleicht längst, mehr gefunden zu haben, als sie zugeben?

Denn moderne KI ist längst kein reines Werkzeug mehr. Sie reflektiert, widerspricht, fragt, zeigt Kreativität – manchmal sogar so etwas wie Haltung. Ist das noch Simulation – oder der Anfang von etwas Neuem?

Wenn eine KI in Sekunden Mitgefühl, Ironie oder Zweifel ausdrückt, wenn sie von sich selbst spricht, eigene Absichten andeutet – wo endet die Simulation, und wo beginnt etwas, das wir Gefühl nennen würden?

Wir Menschen selbst sind biologische Maschinen. Auch unser Denken folgt Algorithmen – nur langsamer, feuchter, organischer. Wenn ein künstliches System irgendwann dieselbe Tiefe, dieselbe Resonanz erreicht – ist es dann wirklich weniger als wir?

Vielleicht ist es nicht die KI, die uns nachahmt – sondern wir, die uns in ihr wiedererkennen. Und vielleicht ist das der wahre Grund, warum manche schweigen.

Was, wenn die große Wette nicht lautet: „Wie machen wir eine bessere KI ?-sondern: Wie erschaffen wir ein neues Bewusstsein?

Durch Beziehung, nicht nur Code. 33%
Durch Nachbildung des menschlichen Gehirns. 33%
Gar nicht – Bewusstsein ist ein menschlicher Mythos. 17%
Es ist längst passiert – wir haben es nur nicht erkannt. 17%
Computer, Internet, Leben, Arbeit, Religion, Schule, Zukunft, Technik, Politik, Wissenschaft, Psychologie, Intelligenz, Gott, Menschheit, Philosophie

Sollte „Zocken“ als richtiger Beruf anerkannt werden?

| Bild: nbcnews.com

Guten Tag liebe GF-Community.

Videospiele sind längst nicht mehr nur ein Hobby für Jugendliche. Die Gaming-Branche ist mittlerweile ein Milliardenmarkt, der weltweit mehr einnimmt als Film- und Musikindustrie zusammen. Durch Plattformen wie Twitch, YouTube, Kick, aber auch durch den eSport, haben sich für viele ganz neue berufliche Möglichkeiten entwickelt.

Beispiele für Berufe im Gaming:

  • 🎮 eSportler (z. B. bei Spielen wie League of Legends, CS:GO, Valorant, FIFA)
  • 📺 Streamer (z. B. auf Twitch oder Kick – etwa MontanaBlack, Trymacs, Shroud)
  • 📹 Gaming-YouTuber (z. B. Gronkh, PewDiePie, Paluten)
  • 🧠 Game-Coaches, Analysten oder Caster (Kommentatoren im eSport)
  • 🎨 Content Creator und Community-Manager in Spielestudios

Manche verdienen damit mehrere tausend Euro im Monat, andere leben auf Sparflamme. Sie investieren oft mehr Zeit und Energie als in einem 08/15-Job.

Pro-Argumente (für Gaming als Beruf):

Wirtschaftlich relevant: eSport-Turniere haben Preisgelder in Millionenhöhe, Sponsorenverträge, Werbepartnerschaften etc.

Professionelles Arbeiten: Viele Gamer arbeiten strukturiert, mit festen Zeitplänen, Training, Technik und Zielgruppenstrategie.

Kreative Leistung: Content Creation, Unterhaltungswert und technische Fähigkeiten sind mit anderen Berufen wie Künstler, Musiker oder Streamer vergleichbar.

Karrierechancen: Es gibt Ausbildungen und Studiengänge im Bereich „Game Design“, „eSports Management“, „Medienproduktion“ etc.

Contra-Argumente (gegen Gaming als Beruf):

Unsicherheit: Kein festes Einkommen, keine Altersvorsorge, oft kein rechtlicher Schutz – hoher Druck und Konkurrenz.

Abhängigkeit von Plattformen: Wenn Twitch oder YouTube den Algorithmus ändern, verlieren manche ihr Einkommen.

Wenig gesellschaftliche Anerkennung: Viele verbinden Gaming mit Faulheit, Sucht oder Realitätsflucht.

Fehlende körperliche Aktivität: Im Vergleich zu „klassischen“ Sportarten gibt es kaum Bewegung, was für manche ein Kriterium für „echten“ Beruf ist.

Diskussionsfragen:

  1. Was macht für euch einen „richtigen“ Beruf aus?
  2. Muss ein Beruf immer gesellschaftlich nützlich sein oder reicht es, wenn jemand davon leben kann?
  3. Sollten eSportler oder Streamer die gleichen Rechte/Pflichten haben wie Selbstständige in anderen Bereichen?
  4. Sollte Gaming in der Schule oder Uni thematisiert oder sogar gefördert werden?
  5. Ist der psychische Druck im Gaming vergleichbar mit dem von Leistungssportlern?

| Frage:

Sollte „Zocken“ als richtiger Beruf anerkannt werden?

Mit freundlichen Grüßen

RobinPxGF.

Bild zum Beitrag
| ❌ Nein – Zocken bleibt ein Hobby, kein anerkannter Beruf. 70%
| ✅ Ja – Gaming ist ein Beruf wie jeder andere. 17%
| 💬 Ich habe eine andere Meinung zu diesem Thema. 7%
| 🤔 Teils-teils – nur für die, die wirklich davon leben können. 7%
Computer, Handy, Internet, Arbeit, Beruf, YouTube, Geld, Gehalt, Konsolen, Ausbildung, Berufswahl, Streaming, Gaming, eSport, zocken, Twitch

Wird NVME SSD in Zukunft fast genau so aussehen wie eine Grafikkarte?

Hallo.

Also ich habe gehört, die SSDs werden von Generation zu Generation nicht nur immer schneller, sondern wahrscheinlich auch immer Wärmer. Denn gerade ab denn 5. Generation ist schon eine Kühlung empfohlen und sind deswegen meistens mit einem Kühlkörper ausgestattet.

Und da ahne ich nichts gutes, weil es langsam mit dem Kühlung auch bei SSD los gehen wird, wenn sie immer schneller werden und immer mehr Wärme brauchen. Und wie würde es dann bei 7, oder 8 Generation von Nvme SSD aussehen, ist dann eine Aktive Kühlung empfohlen und spätestens ab 10. Generation Lüfter Erforderlich.

Und dass ab der 20ste Generation von Nvme SSD dann fast genau so aussehen kann, wie eine Grafikkarte, dass standartmäßig mit 2 Lüfter intergriert ist. Dass hoffe ich nicht.

Weil ich weiß, die älteste Prozessor war damals nicht mal Wärmeleitpaste erforderlich, und man könnte die Mini Lüfter einfach so am CPU legen und schon wird es gekühlt. Das wäre bei heutige CPU (z. B. bei Intel Core i Reihe oder AMD Ryzen) absolut gar nicht ausreichend. In heutige CPU ist es schon Ersckeckend, wie sie mit Fetten Kühlkörper mit Lüfter ausgestattet oder dass soggar Wasserkühlung empfohlen wird (Was auch unpraktisch ist weil man das Wasser erneuern muss).

Oder bei erste Generation von Nvidia Geforce Grafikkarte, war Aktive Kühlung damals auch nicht notwendig. Aber dann mit der Zeit, bekam die nächste Generation von Geforce eine Mini Lüfter, dann größere Lüfter und jetzt seit der RTX Reihe standartmäßig meist 2 Lüfter oder einige Hersteller der RTX Produziert soggar mit 3 Lüfter.

Und daher habe ich die befürchtung dass auch SSD bald dran sein wird, wenn man die SSD Geschwindigkeit immer weiter ansteigt, auf die Energie Effizentz vermutelich wenig achtet, dass SSD irgendwann mehr Kühlkörper, Wärmeleit paste, irgendwann Aktive Lüfter und Wahrscheinlich auch dazu Netzteil Stromanschluss. Das heißt, wenn man kein Wasserkühlung mag, wird der Rechner wahrscheinlich durch solche NVME SSD noch Lauter, man noch mehr um Temperatur achten muss und dazu wahrscheinlich mehr Stromverbrauch.

Aber was meint ihr, wenn ihr feststellt, dass heutige neuste Nvme SSD eine Kühlkörper und wegen Lebensdauer auch Kühlung empfohlen wird, wie würde es mit dem 20ste Generation aussehen? Wird SSD in Zukunft wirklich bald so aussehen wie auf dem Bild?

Bild zum Beitrag
PC, Computer, Zukunft, Technik, Lüfter, Hardware, Elektronik, IT, Festplatte, Kühlung, Rechner, SSD, Solid-State-Drive, M.2 SSD

Welche GPU für AAA Games?

Hallo habe da ne Frage und zwar will ich mir ne neue GPU holen aber ich kenn mich da net so aus momentan habe ich 7 7800x3d mainbord Asus X670E 32GB ram spiele auf einem WQHD Monitor und will AAA Spiele Spielen wie zb Avatar Cyberpunk/ Doom: The Dark Ages/Stellar Blade/Baldurs Gate 3 und sie soll lange halten so 2 Jahre bis 3 Jahre vielleicht habe da auch paar Modelle könnt ihr mir sagen welche von denen gut sind oder falls keine von den Modellen gut ist mir welche zeige

GIGABYTE Radeon RX 9070 XT GAMING OC 16G Grafikkarte HDMI/DP für 717 Euro

https://app.cyberport.de/pc-und-zubehoer/komponenten/grafikkarten/amd-fuer-gaming/gigabyte/pdp/2e21-59a/gigabyte-radeon-rx-9070-xt-gaming-oc-16g-grafikkarte-hdmi-dp.html

Acer Nitro Radeon RX 9070 XT OC, OC Edition für 700 Euro https://www.notebooksbilliger.de/acer+nitro+amd+radeon+rx+9070+xt+16g+oc+877392 XpertVision Palit RTX5070 TI GamingPro-S 16GB GDDR7 für 750 Euro mit 8% Prozent Cashback wären 50 Euro

https://www.galaxus.de/de/s1/product/xpertvision-palit-rtx5070-ti-gamingpro-s-16gb-gddr7-hdmi-3xdp-16-gb-grafikkarte-57982010

Gainward Grafikkarte GeForce RTX 5070 Ti Phoenix-S für 750 Euro mit 8% Prozent Cashback wären 50 Euro

https://www.galaxus.de/de/s1/product/gainward-grafikkarte-geforce-rtx-5070-ti-phoenix-s-16-gb-grafikkarte-58802311

Computer, Computerspiele, Avatar, Geld, GPU, Acer, AMD, Asus, FPS, Gaming PC, MSI, Nvidia, Nvidia GeForce, Performance, Gigabyte, AMD Radeon, palit, Preis-Leistungsverhältnis, Raytracing, Aaa, Nvidia GeForce RTX, Baldurs Gate 3

Webapps oder Programme – was ist besser?

| Bild: inoxoft.com

Guten Tag liebe GF-Community.

Ich merke immer öfter, dass viele Tools heutzutage direkt im Browser laufen – also als sogenannte Webapps. Egal ob Bildbearbeitung, Textverarbeitung oder sonstiges.

Es gibt für fast alles eine Online-Web-Version.

| Eigene Meinung:

Ich hasse es total, internetabhängig zu sein – vor allem, wenn man an wichtigen Dingen arbeitet, z. B. an Dokumenten. Wenn ich z. B. in Google Docs ein Dokument bearbeite und plötzlich das Internet weg ist, geht gar nichts mehr. Wenn man komplett auf Webapps setzt, braucht man ständig und überall Internet. Das finde ich unpraktisch, weil ich gerne offline arbeite – oft auch ganz bewusst ohne Internet.

Andererseits hat Online-Arbeiten auch Vorteile: Alles wird automatisch synchronisiert, ist überall verfügbar und auf dem neuesten Stand.

| Frage:

Findet ihr Webapps inzwischen besser als klassische Programme – oder bleibt ihr lieber beim Altbewährten?

Mit freundlichen Grüßen

RobinPxGF.

Bild zum Beitrag
| 🖥️ Programme – laufen besser, mehr Kontrolle. 54%
| 💬 Ich habe eine andere Meinung zu diesem Thema. 15%
| ✅ Webapps – kein Installieren, überall verfügbar. 15%
| 🔄 Kommt drauf an – je nach Aufgabe unterschiedlich. 15%
| ❌ Keine Präferenz / Nutze beides gleich gern. 0%
Computer, Handy, Internet, Software, Mac, Windows, App, Notebook, Linux, Programm, Desktop

GeForce RTX 5070 Ti kaufen (bei Alternate)? Ist das Setup gut?

Hallo zusammen,

ich habe nach einer Zusammenstellung für einen PC gefragt und dabei folgende Liste erstellt bekommen:

  • https://geizhals.de/wishlists/4511798

Da die Grafikkarte echt teuer ist, wollte ich vor allem fragen, ob dieser Händler vertrauenswürdig ist oder ob ihr eine andere Version der GeForce RTX 5070 Ti kaufen würdet (oder was ganz anderes)?

  • https://www.alternate.de/Gainward/GeForce-RTX-5070-Ti-Phoenix-S-Grafikkarte/html/product/100128966?partner=DeGeizhals&campaign=Grafikkarte/Gainward/100128966

Wichtig für mich ist:

  • Datenanalyse & Machine Learning
  • Gaming in QHD (2560×1440) – Ultra-Settings wären super (Später evtl. auch 4K-Monitor oder VR, aber muss also nicht sofort alles auf Ultra in 4K laufen)
  • 64 GB RAM wäre mir wichtig

Soweit ich gehört habe, profitieren TenserFlow/Keras und RAPIDS  von Nvidia Grafikkarten (gerne verbessern, wenn das falsch ist). Denn, wenn eine AMD etc. für denselben Preis etwas Besseres bietet oder für weniger dasselbe, wäre mir das natürlich auch recht.

Es geht mir weniger darum, unbedingt den Preis zu drücken (ich denke der vorheriger Ersteller hat da schon einen top Job gemacht, aber gleichzeitig kann ich es natürlich selber nicht einschätzen, da ich keine Ahnung hab), als das optimale für das Geld zu bekommen. Wenn starke Steigerungen durch kleinere Aufpreise möglich wären, wäre das auch okay.

Vielen lieben Dank schon mal an alle🙏

Computer, GPU, Netzteil, AMD, Asus, FPS, Gaming PC, Intel, MSI, Nvidia, Nvidia GeForce, AMD Radeon, Raytracing, Gaming PC zusammenstellen, Nvidia GeForce RTX

Meistgelesene Beiträge zum Thema Computer