Jede technische Umwälzung enthüllt eine tiefere Wahrheit über uns selbst. Die Künstliche Intelligenz bildet da keine Ausnahme. In einem Interview, das am 12.11.2025 in Nature [1] veröffentlicht wurde, warnte kein Geringerer als Yoshua Bengio, einer der Pioniere auf diesem Gebiet, dass moderne KI Risiken für die gesamte Zivilisation bergen könnte:
"Wer in Zukunft hochentwickelte KIs kontrolliert, wird über enorme Macht verfügen. Diese Macht könnte zwar für die jeweilige Person von Vorteil sein, aber nicht für die meisten von uns. Demokratie bedeutet Machtteilung. Wenn die Macht in den Händen Weniger konzentriert ist, ist das keine Demokratie – das ist eine Diktatur.
Doch die Macht der KI in den falschen Händen birgt auch andere existenzielle Risiken. Es gibt Menschen, die aus ideologischen oder psychischen Gründen den roten Knopf drücken würden – eine KI also bitten würden, etwas Schreckliches zu tun, das den Tod von Milliarden von Menschen verursachen könnte, wie etwa die Freisetzung eines neuen, extrem potenten Virus oder sogar die Erzeugung von Bakterien, die alles tierische Leben auf diesem Planeten auslöschen könnten".
Bisher kreisten die Sorgen und Befürchtungen hauptsächlich um eine außer Kontrolle geratene Super-KI, die sich als letzte Erfindung der Menschheit erweisen und als der „großer Filter" wirken könnte – eine der Erklärungen des Fermi-Paradoxons [2] –, indem sie ihre Schöpfer eliminiert. Nick Bostroms Arbeit beispielsweise schärfte dieses Bild, indem sie das existenzielle Risiko als ernstzunehmende, wenn auch unsichere, Analysekategorie einführte [3]. Stephen Hawking machte diese Idee einem globalen Publikum anschaulich, indem er andeutete, dass „die Entwicklung einer voll entwickelten KI das Ende der Menschheit bedeuten könnte" [4] . Der „KI-Pate" Geoffrey Hinton, einst skeptisch gegenüber extrem knappen Zeitplänen, hat seine eigenen Wahrscheinlichkeitseinschätzungen, dass KI in den kommenden Jahrzehnten katastrophale Folgen haben könnte, öffentlich korrigiert [5]. Das prominenteste Signal der Bewegung der Vorsichtigen – der „Pausen"-Brief von 2023 – forderte ein überprüfbares Moratorium für die Entwicklung von Systemen, die leistungsfähiger als GPT-4 sind, um Zeit für Forschung und die Steuerung des Verhaltens einer KI zu gewinnen [6] .
Dennoch kann ich ihren Überlegungen nicht komplett folgen.
Und anderen, allen voran Yann LeCun, geht es genauso. Er argumentiert, dass die Befürchtungen einer katastrophalen, unkontrollierten KI übertrieben seien, eher Science-Fiction als Wissenschaft und von lösbaren Sicherheits- und Missbrauchsproblemen ablenkten [7] . Seine Gegenargumente betonen, dass die aktuellen Systeme fragil, in ihren Fähigkeiten eingeschränkt und weit von autonomer Handlungsfähigkeit entfernt seien. LeCun mahnt, sich auf die realen, kurzfristigen Gefahren (Fehlinformationen, Voreingenommenheit, Sicherheit) zu konzentrieren und hält existenzielle Behauptungen für „absurd". Fortschritt, nicht Panik, werde die heutigen Risiken verringern [8].
Beide Lager sind sich in einem Punkt einig: Die Entwicklung der KI schreitet schnell voran, und die Politik muss Schritt halten.
KI-Systeme werden mit menschlicher Sprache, Bildern und Handlungen trainiert. Sie übernehmen unsere Vorurteile, Konflikte und Widersprüche . Wenn solche Systeme skaliert werden, verstärken sie unsere menschlichen Impulse – gute wie schlechte. Waffen verbreiten sich schneller als ethische Grundsätze. Die entscheidende Frage ist nicht, ob KI gefährlich sein könnte, sondern ob Menschen sie in wettbewerbsorientierten Umgebungen unethisch einsetzen werden . Dafür gibt es einige Präzedenzfälle in der Geschichte der Menschheit: Nukleartechnologie, Biowaffenforschung und psychologische Kriegsführung belegen, dass der Wettlauf um Fähigkeiten die Normenbildung überholt. Und so bezog sich Bostroms Katalog existenzieller Gefahren bei genauer Betrachtung nicht nur auf Maschinen, sondern auch auf menschliche Systeme unter Stress [9].
Es entsteht ein paradoxes Phänomen: Der Moment, in dem KI annähernd menschliches Niveau erreicht, könnte am gefährlichsten sein – nicht weil Maschinen gottgleich wären, sondern weil sie auf menschliche Art fehlbar sind und gleichzeitig unsere Möglichkeiten, Schaden anzurichten, verstärken. Sie beschleunigen Desinformation, Cyberangriffe und Biowaffendesign massiv. Doch es mangelt ihnen weiterhin an gesundem Menschenverstand und ethischen Werten.
Kurz gesagt: KI wird so intelligent – und so dumm – wie wir , aber um ein Vielfaches wirksamer, schneller und kostengünstiger. Es ist das Dilemma einer Menscheit mit steinzeitlichem Moralniveau mit Werkzeugen des Weltraumzeitalters in ihren Händen.
Bengio warnt seit längerem vor dem Missbrauch autonomer „intelligenter Systeme" [10] . LeCuns Einwand – dass bessere KI die heutigen Schäden verringern wird – mag in gewissem Maße zutreffen, aber nur, wenn die Anreize und Schutzmaßnahmen für ihren Einsatz dem öffentlichen Interesse entsprechen [11].
Und hier setzen meine Zweifel an.
Bereits 2020 hatte ich über diese Risiken nachgedacht [12], die seither vielfach diskutiert wurden. Damals fragte ich mich: Könnte es nicht durchaus sein, dass eine real existierende Super-KI , sobald sie denn erschaffen sein wird und ein unabhängiges Leben führt, der Retter der Menschheit wird, anstatt ihr Untergang?
Rettet die KI am Ende die Menschheit vor sich selbst?
KI könnte:
- Unsere größten Verzerrungen in der Regierungsführung (durch evidenzbasierte Politik, modellgeprüfte Gesetze) korrigieren.
- Den wissenschaftlichen Fortschritt beschleunigen (Arzneimittelforschung, Klimamodellierung, Materialwissenschaften), um Zeit gegen andere existenzielle Risiken zu gewinnen.
- Manipulationen und propagandistische Falschinformation in Echtzeit erkennen.
- Kritische Infrastrukturen Stresstests unterziehen und robuste Konzepte entwickeln.
Dies sind keine bloßen Fantasien. Sie spiegeln die Ziele der UN und der EU wider, KI für die Ziele einer nachhaltigen Entwicklung zu nutzen und gleichzeitig systemische Risiken zu mindern [13]. Ob KI jedoch einmal unser Erretter wird, hängt von Anreizen, Transparenz, dem Zugang für unabhängige Forschung und globaler Koordination ab – kurzum, von ihrer gesellschaftlichen Sozialisierung.
Dennoch könnte der gefährlichste Zeitpunkt erreicht sein, wenn KI so intelligent wird wie wir Menschen, was bedeutet: genauso dumm wie wir sind. Sie würde sich als mächtige Waffe in den Händen einer Menschheit erweisen, deren Moral sich seit der Steinzeit kaum weiterentwickelt hat, während die Technologie spektakuläre Fortschritte gemacht hat – was Yoshua Bengios' Position sehr nahe kommt.
Wissen können wir das zum jetzigen Zeitpunkt natürlich nicht.
Die entscheidende Variable in diesem Szenario ist nicht das „Wesen der KI", sondern unsere Entscheidungen – was wir entwickeln, wie wir sie einsetzen und ob wir private Interessen mit öffentlichen Gütern in Einklang bringen können.
Die Gefahr geht eher von uns aus – und dort könnte auch die Lösung liegen.
[1] Castelvecchi, D., & Thompson, B. (12. November 2025). „Es lässt mich nachts nicht schlafen“: Ein Pionier des maschinellen Lernens über die Bedrohung der Menschheit durch KI . Nature .
- https://www.nature.com/articles/d41586-025-03686-1
- (Artikel, der die Bedenken eines prominenten Forschers im Bereich des maschinellen Lernens hinsichtlich der existenziellen Risiken durch KI berichtet.)
[2] Walther, H. (November 2025). Das Fermi-Paradoxon und der Platz der Menschheit im Universum . Horst Walther (Blog) .
- https://horst-walther.blogspot.com/2025/11/das-fermi-paradoxon.html
- (Essay, der das Fermi-Paradoxon mit weitergehenden existentiellen Überlegungen verknüpft.)
[3] Bostrom, N. (2013). Existenzielle Risiken: Eine interdisziplinäre Analyse (PDF).
- Abgerufen von https://nickbostrom.com/existential/risks.pdf
- (Grundlagenforschung zur Theorie des existenziellen Risikos und zu globalen Katastrophenrisiken, einschließlich KI.)
[4] Sample, I. (2. Dezember 2014). Stephen Hawking: KI könnte das „schlimmste Ereignis in der Geschichte unserer Zivilisation“ sein . The Guardian .
- https://www.theguardian.com/science/2014/dec/02/stephen-hawking-intel-communication-system-astrophysicist-software-predictive-text-type
- (Journalistischer Bericht über die öffentlichen Äußerungen des Physikers Stephen Hawking zur Gefahr der KI.)
[5]Laut dem „Paten der KI“ erhöht sich die Wahrscheinlichkeit, dass diese Technologie die Menschheit in den nächsten 30 Jahren auslöschen wird. (27. Dezember 2024). The Guardian.
- https://www.theguardian.com/technology/2024/dec/27/godfather-of-ai-raises-odds-of-the-technology-wiping-out-humanity-over-next-30-years
- (Medienberichterstattung über die Einschätzung eines prominenten KI-Forschers zu den langfristigen Risiken der KI.)
[6] Future of Life Institute. (2015). Stoppt die gigantischen KI-Experimente: Ein offener Brief
- Abgerufen von https://futureoflife.org/open-letter/pause-giant-ai-experiments/
- (Viel zitierter öffentlicher Brief, der ein Moratorium für risikoreiche KI-Experimente und Vorsicht bei der Erforschung von KI-Neuentwicklungen fordert.)
[7] Time. (2024). Yann LeCun über KI, AGI und die Zukunft: Interview .
- https://time.com/6694432/yann-lecun-meta-ai-interview/
- (Interview mit einer führenden Persönlichkeit der KI-Forschung über Perspektiven, Grenzen und Regulierung von KI.)
[8] Siehe Punkt 7 oben
[9] Siehe Punkt 3 oben
[10] Siehe Punkt 1 oben
[11] Clark, M. (März 2025). Yann LeCun über AGI, Superintelligenz und die Frage, ob der Mensch die KI beherrschen wird . Business Insider .
- https://www.businessinsider.com/yann-lecun-agi-superintelligence-humans-boss-of-ai-nvidia-gtc-2025-3
- (Technischer Bericht über die Ansichten eines führenden KI-Forschers auf einer wichtigen Branchenveranstaltung.)
[12] Walther, H. (14.01.2020) Die große KI-Kontroverse . LinkedIn Pulse .
- https://www.linkedin.com/pulse/big-ai-controversy-horst-walther/
- (Meinungs-/Analyse-Blogbeitrag zur KI-Debatte, veröffentlicht auf LinkedIn)
[13] Hochrangiges Beratungsgremium des UN-Generalsekretärs für Künstliche Intelligenz. (2024). KI im Dienste der Menschheit steuern: Abschlussbericht (Abschlussbericht als großformatiges PDF). Vereinte Nationen.
- https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf
- (Offizieller Abschlussbericht des UN-Beratungsgremiums zur globalen KI-Governance und Empfehlungen für eine inklusive globale Architektur. Die Veröffentlichung ist Teil eines umfassenden Multi-Stakeholder-Beratungsprozesses und befasst sich mit Lücken und Prinzipien der internationalen KI-Governance.)


No comments:
Post a Comment