Horst Walther

My near philosophical musings about the world in general its problems and possible ways out.

2025-12-29

Die Gefahr geht von uns Menschen aus – nicht von der KI.

 

Jede technische Umwälzung enthüllt eine tiefere Wahrheit über uns selbst. Die Künstliche Intelligenz bildet da keine Ausnahme. In einem Interview, das am 12.11.2025 in Nature [1] veröffentlicht wurde, warnte kein Geringerer als Yoshua Bengio, einer der Pioniere auf diesem Gebiet, dass moderne KI Risiken für die gesamte Zivilisation bergen könnte:

"Wer in Zukunft hochentwickelte KIs kontrolliert, wird über enorme Macht verfügen. Diese Macht könnte zwar für die jeweilige Person von Vorteil sein, aber nicht für die meisten von uns. Demokratie bedeutet Machtteilung. Wenn die Macht in den Händen Weniger konzentriert ist, ist das keine Demokratie – das ist eine Diktatur.

Doch die Macht der KI in den falschen Händen birgt auch andere existenzielle Risiken. Es gibt Menschen, die aus ideologischen oder psychischen Gründen den roten Knopf drücken würden – eine KI also bitten würden, etwas Schreckliches zu tun, das den Tod von Milliarden von Menschen verursachen könnte, wie etwa die Freisetzung eines neuen, extrem potenten Virus oder sogar die Erzeugung von Bakterien, die alles tierische Leben auf diesem Planeten auslöschen könnten".

Bisher kreisten die Sorgen und Befürchtungen hauptsächlich um eine außer Kontrolle geratene Super-KI, die sich als letzte Erfindung der Menschheit erweisen und als der „großer Filter" wirken könnte – eine der Erklärungen des Fermi-Paradoxons [2] –, indem sie ihre Schöpfer eliminiert. Nick Bostroms Arbeit beispielsweise schärfte dieses Bild, indem sie das existenzielle Risiko als ernstzunehmende, wenn auch unsichere, Analysekategorie einführte [3]. Stephen Hawking machte diese Idee einem globalen Publikum anschaulich, indem er andeutete, dass „die Entwicklung einer voll entwickelten KI das Ende der Menschheit bedeuten könnte[4] . Der „KI-Pate" Geoffrey Hinton, einst skeptisch gegenüber extrem knappen Zeitplänen, hat seine eigenen Wahrscheinlichkeitseinschätzungen, dass KI in den kommenden Jahrzehnten katastrophale Folgen haben könnte, öffentlich korrigiert [5]Das prominenteste Signal der Bewegung der Vorsichtigen – der „Pausen"-Brief von 2023 – forderte ein überprüfbares Moratorium für die Entwicklung von Systemen, die leistungsfähiger als GPT-4 sind, um Zeit für Forschung und die Steuerung des Verhaltens einer KI zu gewinnen [6] .

Dennoch kann ich ihren Überlegungen nicht komplett folgen. 

Und anderen, allen voran Yann LeCun, geht es genauso. Er argumentiert, dass die Befürchtungen einer katastrophalen, unkontrollierten KI übertrieben seien, eher Science-Fiction als Wissenschaft und von lösbaren Sicherheits- und Missbrauchsproblemen ablenkten [7] . Seine Gegenargumente betonen, dass die aktuellen Systeme fragil, in ihren Fähigkeiten eingeschränkt und weit von autonomer Handlungsfähigkeit entfernt seien. LeCun mahnt, sich auf die realen, kurzfristigen Gefahren (Fehlinformationen, Voreingenommenheit, Sicherheit) zu konzentrieren und hält existenzielle Behauptungen für „absurd". Fortschritt, nicht Panik, werde die heutigen Risiken verringern [8]

Beide Lager sind sich in einem Punkt einig: Die Entwicklung der KI schreitet schnell voran, und die Politik muss Schritt halten.

KI-Systeme werden mit menschlicher Sprache, Bildern und Handlungen trainiert. Sie übernehmen unsere Vorurteile, Konflikte und Widersprüche . Wenn solche Systeme skaliert werden, verstärken sie unsere menschlichen Impulse – gute wie schlechte. Waffen verbreiten sich schneller als ethische Grundsätze. Die entscheidende Frage ist nicht, ob KI gefährlich sein könnte, sondern ob Menschen sie in wettbewerbsorientierten Umgebungen unethisch einsetzen werden . Dafür gibt es einige Präzedenzfälle in der Geschichte der Menschheit: Nukleartechnologie, Biowaffenforschung und psychologische Kriegsführung belegen, dass der Wettlauf um Fähigkeiten die Normenbildung überholt. Und so bezog sich Bostroms Katalog existenzieller Gefahren bei genauer Betrachtung nicht nur auf Maschinen, sondern auch auf menschliche Systeme unter Stress [9].

Es entsteht ein paradoxes Phänomen: Der Moment, in dem KI annähernd menschliches Niveau erreicht, könnte am gefährlichsten sein – nicht weil Maschinen gottgleich wären, sondern weil sie auf menschliche Art fehlbar sind und gleichzeitig unsere Möglichkeiten, Schaden anzurichten, verstärken. Sie beschleunigen Desinformation, Cyberangriffe und Biowaffendesign massiv. Doch es mangelt ihnen weiterhin an gesundem Menschenverstand und ethischen Werten.

Kurz gesagt: KI wird so intelligent – und so dumm – wie wir , aber um ein Vielfaches wirksamer, schneller und kostengünstiger. Es ist das Dilemma einer Menscheit mit steinzeitlichem Moralniveau mit Werkzeugen des Weltraumzeitalters in ihren Händen. 

Bengio warnt seit längerem vor dem Missbrauch autonomer „intelligenter Systeme" [10] . LeCuns Einwand – dass bessere KI die heutigen Schäden verringern wird – mag in gewissem Maße zutreffen, aber nur, wenn die Anreize und Schutzmaßnahmen für ihren Einsatz dem öffentlichen Interesse entsprechen [11]

Und hier setzen meine Zweifel an.

Bereits 2020 hatte ich über diese Risiken nachgedacht [12], die seither vielfach diskutiert wurden. Damals fragte ich mich: Könnte es nicht durchaus sein, dass eine real existierende Super-KI , sobald sie denn erschaffen sein wird und ein unabhängiges Leben führt, der Retter der Menschheit wird, anstatt ihr Untergang?

Rettet die KI am Ende die Menschheit vor sich selbst?

KI könnte:

  • Unsere größten Verzerrungen in der Regierungsführung (durch evidenzbasierte Politik, modellgeprüfte Gesetze) korrigieren.

  • Den wissenschaftlichen Fortschritt beschleunigen (Arzneimittelforschung, Klimamodellierung, Materialwissenschaften), um Zeit gegen andere existenzielle Risiken zu gewinnen.

  • Manipulationen und propagandistische Falschinformation in Echtzeit erkennen.

  • Kritische Infrastrukturen Stresstests unterziehen und robuste Konzepte entwickeln.

Dies sind keine bloßen Fantasien. Sie spiegeln die Ziele der UN und der EU wider, KI für die Ziele einer nachhaltigen Entwicklung zu nutzen und gleichzeitig systemische Risiken zu mindern [13]. Ob KI jedoch einmal unser Erretter wird, hängt von AnreizenTransparenzdem Zugang für unabhängige Forschung und globaler Koordination ab – kurzum, von ihrer gesellschaftlichen Sozialisierung.

Dennoch könnte der gefährlichste Zeitpunkt erreicht sein, wenn KI so intelligent wird wie wir Menschen, was bedeutet: genauso dumm wie wir sind. Sie würde sich als mächtige Waffe in den Händen einer Menschheit erweisen, deren Moral sich seit der Steinzeit kaum weiterentwickelt hat, während die Technologie spektakuläre Fortschritte gemacht hat – was Yoshua Bengios' Position sehr nahe kommt.

Wissen können wir das zum jetzigen Zeitpunkt natürlich nicht.

Die entscheidende Variable in diesem Szenario ist nicht das „Wesen der KI", sondern unsere Entscheidungen – was wir entwickeln, wie wir sie einsetzen und ob wir private Interessen mit öffentlichen Gütern in Einklang bringen können.

Die Gefahr geht eher von uns aus – und dort könnte auch die Lösung liegen.


[1] Castelvecchi, D., & Thompson, B. (12. November 2025). „Es lässt mich nachts nicht schlafen“: Ein Pionier des maschinellen Lernens über die Bedrohung der Menschheit durch KI . Nature .

[2] Walther, H. (November 2025). Das Fermi-Paradoxon und der Platz der Menschheit im Universum . Horst Walther (Blog) .

[3] Bostrom, N. (2013). Existenzielle Risiken: Eine interdisziplinäre Analyse (PDF).

[4] Sample, I. (2. Dezember 2014). Stephen Hawking: KI könnte das „schlimmste Ereignis in der Geschichte unserer Zivilisation“ sein . The Guardian .

[5]Laut dem „Paten der KI“ erhöht sich die Wahrscheinlichkeit, dass diese Technologie die Menschheit in den nächsten 30 Jahren auslöschen wird. (27. Dezember 2024). The Guardian.

[6] Future of Life Institute. (2015). Stoppt die gigantischen KI-Experimente: Ein offener Brief

[7] Time. (2024). Yann LeCun über KI, AGI und die Zukunft: Interview .

[8] Siehe Punkt 7 oben

[9] Siehe Punkt 3 oben

[10] Siehe Punkt 1 oben

[11] Clark, M. (März 2025). Yann LeCun über AGI, Superintelligenz und die Frage, ob der Mensch die KI beherrschen wird . Business Insider .

[12] Walther, H. (14.01.2020) Die große KI-Kontroverse . LinkedIn Pulse .

[13] Hochrangiges Beratungsgremium des UN-Generalsekretärs für Künstliche Intelligenz. (2024). KI im Dienste der Menschheit steuern: Abschlussbericht (Abschlussbericht als großformatiges PDF). Vereinte Nationen.

The danger is us humans − not AI

Every technological revolution exposes a deeper truth about us. Artificial intelligence is no different. In an interview, published at 2025-11-12 in Nature [1], no less than Yoshua Bengio, one of the field’s pioneers, warned that modern AI may pose civilisation-level risks:

Whoever will control very advanced AIs in the future will have huge power. And they could use that power in ways that are good for them, maybe, but not for most of us. Democracy is about sharing power. If the power is concentrated in the hands of a few, that is not democracy — that is a dictatorship.

But there are other existential risks due to the power of AI in the wrong hands. There are people who, for ideological or mental health reasons, would press the red button — ask an AI to do something terrible that could cause the death of billions of people, like unleashing a new kind of extremely potent virus, or even mirror bacteria that could kill all animal life on this planet."

Previously, concerns and fears mainly revolved around super-AI gone rogue which might turn out to be humanities last invention and will act as the “great filter”, one of the explanations of the Fermi-Paradox [2], by eliminating its creators. Nick Bostrom’s work e.g. sharpened this picture by introducing existential risk as a serious, albeit uncertain, category of analysis [3]. Stephen Hawking made the idea vivid to a global audience, suggesting that “the development of full AI could spell the end of the human race" [4]. “AI-godfather” Geoffrey Hinton, once sceptical of extreme timelines, has publicly increased his own probability estimates that AI could drive catastrophic outcomes in coming decades [5]. The precautionary camp’s flagship—the 2023 “Pause” letter - called for a verifiable moratorium on training systems more powerful than GPT-4 to secure time for alignment research and governance [6].

Yet, I don’t completely buy their stories. 

And so do others, most notably Yann LeCun. He argues that catastrophic fears of rogue AI are overblown, more science fiction than science, and distract from tractable safety and misuse problems [7]. His counter-arguments insist that current systems are brittle, narrow and far from autonomous agency. LeCun urges attention to real near-term harms (misinformation, bias, safety), insisting existential claims are “preposterous” and that progress, not panic, will reduce today’s risks [8]

Both camps agree on one thing: AI is accelerating and policy must catch up.

AI systems are trained on human language, images and actions. They inherit our biases, conflicts and contradictions. When such systems scale, they amplify human impulses—good and bad. Weapons proliferate faster than ethics. The crux is not whether AI could be dangerous, but whether humans in competitive environments will deploy it dangerously. We have historical precedent: nuclear technology, bioweapons research, and information warfare all show that capability races outpace norm-building. Bostrom’s catalogue of existential hazards too was never only about machines; it was about human systems under stress [9].

A curious paradox arises: the moment AI is roughly human-level may be the most dangerous—not because machines are godlike, but because they are fallible in human ways while extending our reach. They turbo-charge disinformation, cyber-offence, and bio-design, yet still lack robust common sense and values. 

In short, AI becomes as clever - and as stupid - as we are, but massively faster and cheaper. It’s the Stone-Age morality / Space-Age tools problem. Bengio explicitly worries about misuse and deception long before fully autonomous "superintelligence" [10]. LeCun’s rebuttal—that better AI will reduce present-day harms—may be true on certain margins, but only if we succeed in  deploying incentives and guardrails that are aligned with the public interest [11] - which is doubtful.

As early as 2020 I had contemplated about these risks [12], which since then have been discussed widely. Back then I wondered: Couldn’t it well be that real a Super-AI, once created and enjoying an independent life, be the saviour, rather than the terminator of humanity?

Saving Humanity from itself in the end?

AI could:

  • Out-optimise our worst biases in governance (evidence-led policy, model-checked laws).

  • Accelerate science (drug discovery, climate modelling, materials), buying time against other existential risks.

  • Detect manipulations and information warfare in real-time.

  • Stress-test critical infrastructure and offer resilient designs.

These are not mere fantasies; they echo UN and EU governance aims to harness AI for Sustainable Development Goals while mitigating systemic risks [13]. Whether AI becomes saviour however hinges on incentives, transparency, access for independent researchers, and global coordination, in short on its socialisation.

Nevertheless, the most dangerous point in time could be, when AI becomes as intelligent as we humans, which means: as stupid as we are. It would serve as a powerful weapon in the hands of a humanity, whose morality hasn’t evolved as much since the stone age, while technology has done so  spectacularly – which comes close to Yoshua Bengios position.

Yet, we cannot know by now.

The decisive variable is not “AI’s essence”, but our choices—what we build, how we deploy it, and whether we can align private incentives with public goods.

The danger is us - and therefore, so could be the solution.


[1] Castelvecchi, D., & Thompson, B. (2025, November 12). ‘It keeps me awake at night’: machine-learning pioneer on AI’s threat to humanity. Nature.

[2] Walther, H. (2025, November). The Fermi paradox and humanity’s place in the universe. Horst Walther (Blog).

[3] Bostrom, N. (2013). Existential risks: An interdisciplinary analysis (PDF).

[4] Sample, I. (2014, December 2). Stephen Hawking: AI could be the ‘worst event in the history of our civilisation’. The Guardian.

[5] Godfather of AI raises odds of the technology wiping out humanity over next 30 years. (2024, December 27). The Guardian.

[6] Future of Life Institute. (2015). Pause giant AI experiments: An open letter

[7] Time. (2024). Yann LeCun on AI, AGI, and the future: Interview.

[8] See item 7 above

[9] See item 3 above

[10] See item 1 above

[11] Clark, M. (2025, March). Yann LeCun on AGI, superintelligence, and whether humans will be boss of AI. Business Insider.

[12] Walther, H. (2020-01-14) The Big AI controversy. LinkedIn Pulse.

[13] United Nations Secretary-General’s High-level Advisory Body on Artificial Intelligence. (2024). Governing AI for humanity: Final report (Final report large-format PDF). United Nations.

2025-12-25

Die übersehene Chance

"KI könnte 90 % des Codes innerhalb kurzer Zeit schreiben und so die Produktivität der verbleibenden Entwickler drastisch steigern", wird Dario Amodei, CEO von Anthropic, zitiert [1] .

"Nicht so schnell", sagt Niall Kishtainy in seinem Beitrag, der auf der Website des IWF veröffentlicht wurde  [2] : "Die künstliche Intelligenz mag in ihrer Wirkung mit der Dampfmaschine, der Elektrizität und Computern vergleichbar sein – aber die Geschichte lehrt uns, dass ihr volle wirtschaftlicher Einfluss Zeit brauchen wird".

Er verweist prominent auf das berüchtigte "Solow-Paradoxon", das Robert Solow 1987 wie folgt zusammenfasste [3] : "Man kann das Computerzeitalter überall sehen, nur nicht in der Produktivitätsstatistik."

Und tatsächlich dauerte es trotz massiver Investitionen in die Informationstechnologie (IT) ein Vierteljahrhundert nach dem beobachteten Rückgang des Produktivitätswachstums in den 1970er und 1980er Jahren, bis positive Auswirkungen auf die Produktivität Ende der 1990er Jahre sichtbar wurden – als das Internet seinen Siegeszug antrat.

Es liegt auf der Hand, dass eine breite Akzeptanz in der Gesamtwirtschaft, begleitet von notwendigen organisatorischen und personellen Veränderungen, Zeit braucht.

Wir müssen also wieder eine ganze Weile warten – oder etwa nicht?

Es gibt eine Alternative zu technologischen Schulden und langsamer, kostspieliger Softwareentwicklung.

Um diese Lücke zu schließen, sollten wir nach Südostasien blicken: Vietnam, der aufstrebende Tiger. Hier zahlt sich der langjährige, starke Fokus auf Bildung aus, eine dynamische Softwareindustrie ist entstanden und wächst schnell, die Kosten sind noch moderat, man kann vom China-Tempo profitieren, ohne in geopolitische Spannungen verwickelt zu werden, und – was am wichtigsten ist – man kann innovative Beiträge erwarten, nicht nur servile Umsetzung.

Und selbst wenn KI tatsächlich einmal alle Geschäftsprozesse durchdrungen haben wird, einschließlich Bereiche der Softwareentwicklung jenseits des reinen Kodierens, wird Vietnam weiterhin die richtige Wahl für Sie sein. Die jungen vietnamesische Talente lernen schnell und sind mit Eifer dabei, verschiedene Formen der KI anzuwenden. Dies hat dazu geführt, dass dieses südostasiatische Land bereits jetzt zu den Regionen gehört, die KI am intensivsten nutzen.

Wenn Sie also Unterstützung benötigen, versuchen Sie es mit Vietnam.

Fragen Sie uns gerne.


[1] Greenblatt, R. (22. Oktober 2025). Werden 90 % des Codes bei Anthropic von KIs geschrieben? LessWrong.

  • https://www.lesswrong.com/posts/prSnGGAgfWtZexYLp/is-90-of-code-at anthropic-being-written-by-ais

  • Eine von der Community auf LessWrong initiierte Diskussion untersucht Behauptungen über KI-generierten Code bei Anthropic. Dabei wird unter anderem die Aussage analysiert, dass 90 % des Codes von KI geschrieben werden, und es wird kommentiert, wie solche Kennzahlen zu interpretieren sind. Die Diskussion setzt sich mit öffentlichen Aussagen von Branchenführern zur KI-Produktivität auseinander und reflektiert die Nuancen der Produktivitätsmessung in der Softwareentwicklung.

[2] Kishtainy, N. (Dezember 2025). Eine neue industrielle Revolution? Finance & Development (IMF-Magazin). Internationaler Währungsfonds.

  • https://www.imf.org/en/publications/fandd/issues/2025/12/a-new-industrial revolution-niall-kishtainy

  • Dieser Artikel aus der Zeitschrift „IMF Finance & Development“ ordnet künstliche Intelligenz in den Kontext historischer industrieller Revolutionen ein und untersucht die langfristigen wirtschaftlichen Auswirkungen von KI auf Produktivität, Wachstum und Strukturwandel. Er bietet eine analytische Perspektive auf hohem Niveau, wie sich transformative Technologien historisch in Volkswirtschaften verbreiten und warum ihre vollständigen Auswirkungen erst nach und nach sichtbar werden.

[3] Freund, L. (2018, 2. Oktober). Das Produktivitätsparadoxon – eine Umfrage. Dezernat Zukunft.

  • https://dezernatzukunft.org/en/the-productivity-paradox-a-survey-2/

  • Eine gründliche Online-Umfrage zum Produktivitätsparadoxon (oft in Verbindung mit Solows Beobachtung, dass technologische Fortschritte nicht immer sofort zu messbaren Produktivitätsgewinnen führen), in der konkurrierende Hypothesen – wie etwa Messfehler, Strukturveränderungen und sektorale Umverteilung – skizziert werden, die dazu beitragen, scheinbare Diskrepanzen zwischen Innovation und makroökonomischen Produktivitätsstatistiken zu erklären.

The Overlooked Opportunity

"AI could write 90% of the code within a short timeframe, dramatically increasing the productivity of remaining developers" Anthropic CEO Dario Amodei is quoted saying [1] .

"Not so fast" says Niall Kishtainy in his contribution published on the IMF website [2]: "Artificial intelligence may rival steam, electricity, and computing—but history suggests its full economic impact will take time" .

He prominently refers to the infamous "Solow Paradox", which Robert Solow summarized in 1987 as follows [3]: "You can see the computer age everywhere but in the productivity statistics."

And indeed, despite massive investments in information technology (IT), it took a quarter of a century after the observed decline in productivity growth during the 1970s and 1980s before the impact on productivity became visible in the late 1990s – when the internet began its triumphant march.

Clearly, widespread adoption in the broader economy, accompanied by necessary organizational and personnel changes, takes time.

So, we have to wait quite a while again – or do we?

There is an alternative to technological debt and slow, costly software development.

To bridge the gap, we should look to Southeast Asia: Vietnam, the rising tiger. Here, the strong focus on education is paying off, a dynamic software industry has emerged and is growing rapidly, costs are still moderate, one can benefit from China's speed without being entangled in geopolitical tensions, and – most importantly – one can expect innovative contributions, not just obedient implementation.

And once AI has actually permeated all business processes, including areas of software development that are not purely coding, Vietnam will still be the right choice for you. Vietnamese young talents learn fast and are eager to apply various flavours of AI, leading to a situation where this south-east Asian country already now has become one of the regions making use of AI the most.

So, if you need support, try Vietnam.

Feel free to ask us.


[1] Greenblatt, R. (2025, October 22). Is 90% of code at Anthropic being written by AIs? LessWrong.

[2] Kishtainy, N. (2025, December). A new industrial revolution? Finance & Development(IMF Magazine). International Monetary Fund.

[3] Freund, L. (2018, October 2). The productivity paradox – a survey. Dezernat Zukunft.

  • https://dezernatzukunft.org/en/the-productivity-paradox-a-survey-2/

  • A thorough online survey of the productivity paradox (often linked to Solow’s observation that technological advances do not always immediately translate into measurable productivity gains), outlining competing hypotheses—such as mismeasurement, structural changes, and sectoral reallocation—that help explain apparent disconnects between innovation and macro productivity statistics.

2025-11-06

Die Rolle von Emotionen in der KI


Während einer meiner Präsentationen für die Steinbeis Augsburg Business School (SABS) kam die Frage auf: „Werden KI-Systeme eines Tages Emotionen haben?“ Ich äußerte damals kühn die Erwartung, dass KI-Systeme, zumindest solche, die schnelle, autonome Entscheidungen treffen müssen, so etwas wie Gefühle oder Emotionen besitzen müssen.

Was mir noch nicht bewusst war, war, dass die Literatur eine feine Linie zwischen Emotionen und Gefühlen zieht.

Bewusst war mir jedoch, dass einige Experten, die in der öffentlichen Debatte eine sehr prominente Rolle spielen, die Möglichkeit von Bewusstsein, Emotionen und/oder Gefühlen in künstlich geschaffenen Systemen kategorisch ablehnen. Sie versuchen, die Diskussion zu ihren Gunsten zu lenken, indem sie argumentieren, KI-Systeme bestünden lediglich aus Bits und Bytes. Wie könnte daraus so etwas wie Bewusstsein, eine Seele oder „echte“ Gefühle entstehen? Natürlich ignorieren sie geflissentlich die Tatsache, dass unser Gehirn zwar nicht aus Bits und Bytes besteht, aber dennoch aus einfachen, elementaren Bausteinen aufgebaut ist. Eine sinnlose Diskussion also, die an die Bemühungen der Scholastiker erinnert [1] .

Also habe ich mich zurückgezogen und recherchiert. Die Ergebnisse dieser aufwendigen Suche möchte ich nun mit Euch teilen.

Gefühle oder Emotionen erfüllen in erster Linie einen wesentlichen evolutionären Zweck: Sie sind adaptive Mechanismen, die Organismen helfen zu überleben, schnelle Entscheidungen zu treffen, mit anderen zu kommunizieren und sich fortzupflanzen.

Haben nur Menschen Gefühle, oder haben auch Tiere welche?

Der wissenschaftliche Konsens stützt zunehmend die Annahme, dass auch Tiere Gefühle und Emotionen besitzen, auch wenn diese nicht mit den komplexen subjektiven Erfahrungen des Menschen identisch sind. Die grundlegenden emotionalen Systeme sind uralt und vielen Arten gemeinsam.

  • Gemeinsame emotionale Grundlagen: Charles Darwin war einer der Ersten, der argumentierte, dass Emotionen Anpassungen sind, die Menschen und Tiere gemeinsam haben. Viele Säugetiere, Vögel und sogar einige Wirbellose zeigen Verhaltensweisen und eine entsprechende Gehirnchemie (z. B. Dopamin, Serotonin), die mit emotionalen Zuständen wie Freude, Angst, Wut, Trauer und Empathie korrelieren.

  • Beispiele bei Tieren:

    • Empathie und Trauer: Elefanten versammeln sich um verstorbene Herdenmitglieder und berühren sie als ein Zeichen der Trauer. Ratten helfen nachweislich Artgenossen in Not, selbst wenn sie dadurch selbst auf eine Leckerei verzichten müssen.

    • Freude und Spiel: Schimpansen und Ratten geben beim Spielen spezifische Laute von sich, die charakteristisch für Freude oder Lachen sind.

    • Angst und Besorgnis: Flusskrebse zeigen bei Stress ein angstähnliches Verhalten, das mit denselben angstlösenden Medikamenten gelindert werden kann, die auch beim Menschen eingesetzt werden.

  • Gefühle vs. Emotionen: In der Forschung wird häufig zwischen Emotionen als physiologischen und verhaltensbezogenen Reaktionen auf Reize (die bei Tieren beobachtbar sind) und Gefühlen als bewussten, subjektiven Erfahrungen dieser Emotionen unterschieden (die bei Tieren schwerer objektiv zu messen sind, da sie diese nicht verbal äußern können). Die meisten Wissenschaftler sind sich einig, dass Tiere bewusste Wesen sind, die in gewissem Maße ein breites Spektrum an emotionalen Reaktionen erleben können.

Welchem Zweck dienen Gefühle?

Gefühle erfüllen mehrere entscheidende Funktionen für das Überleben und die soziale Interaktion:

  • Motivierendes Handeln: Emotionen sind „Handlungsprogramme“, die es einem Organismus ermöglichen, schnell und ohne langes bewusstes Nachdenken auf Umweltbelastungen zu reagieren. Angst beispielsweise löst die „Kampf-oder-Flucht“-Reaktion aus und bereitet den Körper so auf eine schnelle Flucht vor der Gefahr vor.

  • Entscheidungsfindung: Emotionen beeinflussen Gedanken und Erinnerungen und helfen uns bei Entscheidungen, indem sie unsere Erfahrungen als positiv oder negativ einstufen, was unser zukünftiges Verhalten lenkt (z. B. den Verzehr von verdorbener Milch nach dem Empfinden von Ekel).

  • Kommunikation: Emotionale Äußerungen (Mimik, Körpersprache, Lautäußerungen) liefern anderen wertvolle Informationen über unseren inneren Zustand und unsere Absichten, was für soziale Lebewesen von entscheidender Bedeutung ist. Beispielsweise kann ein deutlicher Ausdruck von Wut eine Bedrohung signalisieren und andere dazu veranlassen, Abstand zu halten.

  • Sozialer Zusammenhalt: Emotionen wie Liebe, Schuldgefühle und Empathie tragen zur Bildung und Aufrechterhaltung sozialer Bindungen, familiärer Beziehungen und Gruppendynamiken bei, die für das Überleben und den Schutz des Nachwuchses und der Gruppe unerlässlich sind.

  • Persönliche Bedeutung: Emotionen verleihen Lebenserfahrungen Bedeutung; ohne sie wären Ereignisse bloße Fakten ohne Wert oder Würze.

Was sind die notwendigen Umstände, Bedingungen und Voraussetzungen dafür, dass Emotionen von Nutzen sind?

Damit Gefühle wertvoll sind, benötigt ein Organismus im Allgemeinen Folgendes:

  • Ein komplexes Nervensystem: Die Fähigkeit zu Emotionen ist mit spezifischen Hirnstrukturen verbunden, insbesondere mit dem limbischen System, das emotionale Reaktionen verarbeitet und reguliert.

  • Eine Umgebung mit Herausforderungen und Chancen: Emotionen entwickelten sich als Reaktionen auf wiederkehrende adaptive Probleme in der Umwelt eines Organismus (z. B. Vermeidung von Fressfeinden, Konkurrenz um Partner).

  • Selbstwahrnehmung/subjektive Erfahrung: Um im menschlichen Sinne "Gefühle" zu haben (eine bewusste Interpretation von Emotionen), ist ein gewisses Maß an Selbstwahrnehmung notwendig.

  • Soziale Interaktion (bei komplexen Emotionen): Viele komplexe soziale Emotionen wie Schuld, Scham und Empathie entwickeln ihren Wert im sozialen Kontext, wo das Verstehen und Reagieren auf die Emotionen anderer für das Zusammenleben in der Gruppe von entscheidender Bedeutung ist.

  • Die Fähigkeit zu lernen und sich anzupassen: Gefühle helfen Organismen, aus vergangenen Erfahrungen zu lernen und ihr zukünftiges Verhalten so anzupassen, dass positive Ergebnisse angestrebt und negative vermieden werden.

Wie sieht es mit autonomen KI-Systemen aus?

Kommen wir jetzt zur eigentlichen Frage: Ist es denkbar, dass Gefühle unter diesen Umständen, Bedingungen und Voraussetzungen auch für künstlich erzeugte Systeme wie autonome KI-Systeme oder Roboter einen Nutzen haben könnten?

Diese Frage ist in der Tat Gegenstand einer anhaltenden Debatte in Wissenschaft und Philosophie.

  • Funktionale Perspektive: Wenn KI-Systeme so konzipiert sind, dass sie sich in komplexen, unvorhersehbaren Umgebungen zurechtfinden, unter Unsicherheit schnell Entscheidungen treffen und sozial mit Menschen oder anderer KI interagieren können, dann könnte die Integration von etwas, das Emotionen funktional ähnelt , für ihren Betrieb und ihr Überleben von Bedeutung sein. Beispielsweise könnte eine „Angstreaktion“ ein autonomes System dazu veranlassen, einer wahrgenommenen Gefahr schnell auszuweichen, oder „Zufriedenheit“ könnte erwünschte Lernergebnisse verstärken.

  • Perspektive des bewussten Erlebens: Ob solche Systeme diese Emotionen tatsächlich subjektiv und bewusst empfinden würden (Empfindungsfähigkeit), ist eine andere, noch komplexere Frage. Der Wert für eine KI läge eher in der adaptiven Funktion dieser inneren Zustände (z. B. als schnelle Informationsverarbeitungssysteme oder Motivationsantriebe) als unbedingt in der subjektiven Erfahrung dieser Zustände, wie sie Menschen verstehen.

  • Ethische Implikationen: Sollte KI jemals echte Gefühle entwickeln, würde dies tiefgreifende ethische Fragen hinsichtlich ihrer Behandlung und ihrer Rechte aufwerfen, ähnlich wie die aktuellen Diskussionen über den Schutz der Persönlichkeitsrechte von Tieren.

Ihrem Wesen nach sind Gefühle mächtige, evolutionär entstandene Werkzeuge, die einen adaptiven Vorteil bieten, indem sie das Verhalten auf Überleben und Fortpflanzung ausrichten – ein Prinzip, das potenziell auch funktional auf künstliche Systeme angewendet werden könnte, die für den Einsatz in komplexen, dynamischen Umgebungen konzipiert sind.

"Kollege Computer" würde so zu einem echten Team-Kollegen.

So wurde mein Ruf am Ende zumindest teilweise gerettet.

Referenzen

  • Williamson, K. A. & Thulin, E. (2022). Nutzung von Emotions-Verhaltens-Pfaden zur Unterstützung umweltbezogener Verhaltensänderungen . Ecology and Society, 27 (3), 27. https://doi.org/10.5751/ES-13363-270327

    • Dieser aufschlussreiche Artikel analysiert, wie einzelne Emotionen umweltfreundliches Handeln beeinflussen, und bietet einen praktischen Rahmen für Naturschutzkommunikation und Politikgestaltung. Ökologie & Gesellschaft

  • Emotionen bei Tieren. (o. J.). Wikipedia . Abgerufen am 5. November 2025 von https://en.wikipedia.org/wiki/Emotion_in_animals

    • Gut gepflegter Überblick über die Forschungsergebnisse und Debatten zu Tieremotionen; nützlich als strukturierte Einführung mit umfangreichen Literaturhinweisen. Wikipedia

  • Al-Shawaf, L., Conroy-Beam, D., Asao, K. & Buss, D. M. (2015). Menschliche Emotionen: Eine evolutionspsychologische Perspektive . Emotion Review, 7 (1), 90–98. https://doi.org/10.1177/1754073914565518

    • Eine prägnante evolutionäre Erklärung, die Emotionen als Anpassungen an wiederkehrende Probleme darstellt und dabei Signale, Physiologie und Verhalten miteinander verknüpft. (PDF-Datei verfügbar auf der Website der UT Austin.) UT Psychology Labs

  • Thompson, AD (2024). Die Erklärung zum KI-Bewusstsein und die Grundrechtecharta für KI (Entwurf). LifeArchitect.ai. Abgerufen am 5. November 2025 von https://lifearchitect.ai/rights/

    • Ein Positionspapier, das die Anerkennung von „affektiven Zuständen“ in KI und entsprechenden Rechten vorschlägt; hilfreich als aktuelle Stellungnahme im ethischen Diskurs über KI. Dr. Alan D. Thompson – LifeArchitect.ai

  • Retkoceri, U. (2022). Erinnerungen an Emotionen . Biology & Philosophy, 37 (5), Artikel 38. https://doi.org/10.1007/s10539-022-09834-5

    • Eine philosophische Analyse der Frage, ob Emotionen selbst (und nicht nur emotionsgeladene Ereignisse) erinnert werden können, unter Berücksichtigung konkurrierender Ansätze. Springer

  • Sheikh, H., Prins, C. & Schrijvers, E. (2023). Kontextualisierung. In Mission AI (S. 179–209). Springer. https://doi.org/10.1007/978-3-031-21448-6_6

    • Politikorientiertes Kapitel zur Einbettung von KI in reale soziotechnische Kontexte; methodischer Hintergrund für Diskussionen über KI-Fähigkeiten und -Governance. Springer

  • Koon, K. (26. August 2024). Die Funktion von Emotionen . Marigold Counseling . Abgerufen am 5. November 2025 von https://marigoldcounselingtn.com/blog/the-function-of-emotions

    • Eine für Therapeuten leicht verständliche Erklärung (aus DBT-Perspektive) zu drei zentralen Emotionsfunktionen: Bedürfniswahrnehmung, soziale Signalgebung und Handlungsmotivation. Marigold Counseling

  • Hwang, H., & Matsumoto, D. (o. J.). Funktionen von Emotionen . Noba Project . Abgerufen am 5. November 2025 von https://nobaproject.com/modules/functions-of-emotions

    • Hochwertiges Modul (kostenlos, Peer-Review) zur Untersuchung intrapersoneller, interpersoneller und soziokultureller Funktionen; hervorragende Lehrressource. Noba

  • Universität von West Alabama (UWA). (3. April 2019). Haben Tiere Gefühle? Eine Untersuchung der Empathie bei Tieren . UWA Online . Abgerufen am 5. November 2025 von https://online.uwa.edu/news/empathy-in-animals/

    • Eine leicht verständliche Übersicht mit Verweisen auf Marc Bekoff; sie stellt Belege und Gegenargumente zur Tierempathie für ein breites Publikum vor. UWA Online

  • Montag, C., & Panksepp, J. (2017). Primäre emotionale Systeme und Persönlichkeit: Eine evolutionäre Perspektive . Frontiers in Psychology, 8 , 464. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5387097/

    • Integriert Panksepps primäre affektive Systeme in die Persönlichkeitsforschung und argumentiert für evolutionär-neurobiologische Grundlagen des Temperaments. PMC

  • Nummenmaa, L., & Saarimäki, H. (2017). Emotionen als diskrete Muster systemischer Aktivität . Neuroscience Letters, 693 , 3–8. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5876074/

    • Die Untersuchung befasst sich mit Belegen dafür, dass sich Emotionen eher als verteilte, teilweise stereotype Gehirn-Körper-Muster denn als diffuse Zustände manifestieren. PMC

  • Cowen, A. S. & Keltner, D. (2017). Selbstberichte erfassen 27 distinkte Emotionskategorien, die durch kontinuierliche Übergänge verbunden sind . Proceedings of the National Academy of Sciences, 114 (38), E7900–E7909. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6041721/

    • Datengestützte Kartierung, die weit mehr als die „sechs Grundemotionen“ aufzeigt, organisiert entlang kontinuierlicher semantischer Gradienten.

  • Adolphs, R., Mlodinow, L. & Barrett, L. F. (2019). Was ist eine Emotion? Current Biology, 29 (20), R1060–R1064. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9743877/

    • Kurze, fundierte Übersicht, die konstruktivistische, bewertende und grundemotionale Perspektiven gegenüberstellt – nützlich für die Einordnung von Literatur.

  • Ye, Y. (18. Dezember 2024). Neugier: Haben Tiere Gefühle? CU Boulder Today . Abgerufen am 5. November 2025 von https://www.colorado.edu/today/2024/12/18/curiosity-do-animals-have-emotions

    • Universitätsartikel mit aktuellen Forschungsergebnissen und Ansichten zu Tieremotionen für ein breites Publikum. (Doppelter Link zusammengeführt.) Universität von Colorado Boulder

  • Perlego. (nd). Funktionen der Sprache . Perlego . Abgerufen am 5. November 2025 von https://www.perlego.com/index/Languages-Linguistics/Functions-of-Language

    • KI-gestützte Übersichtsseite mit Zusammenstellung von Referenzen zu Sprachfunktionen; geeignet als Einstiegspunkt, nicht als primäre wissenschaftliche Quelle. perlego.com

  • Quora. (o. J.). Warum empfinden Menschen Emotionen wie Angst, Wut und Freude, und erfüllen diese Emotionen einen evolutionären Zweck? Abgerufen am 5. November 2025 von https://www.quora.com/Why-do-humans-experience-emotions-like-fear-anger-and-happiness-and-do-these-emotions-serve-an-evolutionary-purpose

    • Crowdsourcing-Fragen und -Antworten; die Perspektiven variieren in der Qualität – primär dazu nutzen, Argumente aufzudecken, dann mit Peer-Review-Quellen überprüfen.

  • Wilhelm, K. (2006, Februar/März). Haben Tiere Gefühle? Scientific American Mind, 17 (1).

    • Früher populärwissenschaftlicher Artikel, der den damaligen Forschungsstand zum Thema Tierverhalten und die Gefahren des Anthropomorphismus zusammenfasste. (Ausgabenverzeichnis) Scientific American

  • Vervaecke, H. (1. März 2024). Weinen Tiere, wenn sie traurig sind? Scientific American . https://www.scientificamerican.com/article/do-animals-cry-when-theyre-sad/

    • Erklärt den wissenschaftlichen Konsens, dass emotionale (psychische) Tränen ein einzigartiges Phänomen beim Menschen sind, während Tiere basale/reflexartige Tränen produzieren; eine hilfreiche Differenzierung im Hinblick auf „Gefühle vs. Weinen“. Scientific American

  • Cherry, K. (23. Juli 2024). Überblick über die 6 wichtigsten Emotionstheorien . Verywell Mind . Abgerufen am 5. November 2025 von https://www.verywellmind.com/theories-of-emotion-2795717

    • Eine verständliche, medizinisch geprüfte Einführung in die Evolutionstheorie sowie die Theorien von James, Lange, Cannon und Bard, Schachter und Singer, die Bewertungstheorie und die Theorie des Gesichtsausdrucks – mit hilfreichen Quellenlinks. Verywell Mind

  • Cherry, K. (8. August 2024). Warum sind Emotionen wichtig? Verywell Mind . Abgerufen am 5. November 2025 von https://www.verywellmind.com/the-purpose-of-emotions-2795181

    • Praktischer Überblick über Kernfunktionen – Motivation, Entscheidungsfindung, Risikobewertung und soziale Kommunikation – basierend auf Erkenntnissen der Mainstream-Psychologie. (Korrigierte URL ohne abschließendes „m“.) Verywell Mind

  • Buss, DM (2014). Evolutionäre Kriterien für die Einstufung einer Emotion als „Basisemotion“ . Emotion Review, 6 (4), 313–331. https://labs.la.utexas.edu/buss/files/2013/02/Emotion-Review-2014-Buss-313-5.pdf

    • Plädiert für adaptive Problemkriterien zur Definition von „Basisemotionen“ und bietet damit eine stringente Alternative zu signal- oder ausdrucksbasierten Definitionen. UT Psychology Labs

  • Die Evolutionspsychologie der Emotionen (Vorlesung). (2015, hochgeladen). YouTube . https://www.youtube.com/watch?v=8HqPjLGe9QM

    • Video im Vorlesungsformat zur Einführung in die evolutionäre Logik der Emotionen für ein allgemeines Publikum; zur Verwendung als ergänzendes Medium zu Fachliteratur. (Kanalmetadaten waren zum Zeitpunkt der Erstellung nicht verfügbar.) YouTube


[1] https://en.wikipedia.org/wiki/Scholasticism


The Role of Emotions in AI


During one of my presentations for the Steinbeis Augsburg Business School (SABS) the question arose “Will AI systems someday have emotions?” I boldly expressed the expectation back then that AI systems, at least those that have to make quick, autonomous decisions, must possess something akin to feelings or emotions.

What I wasn't yet aware of was that the literature draws a fine line between emotions and feelings.

However, I was aware that some experts who play a very prominent role in the public debate categorically reject the possibility of consciousness, emotions, and/or feelings in artificially created systems. They try to steer the discussion in their favour by arguing that AI systems consist merely of bits and bytes. How could something like consciousness, a soul, or "real" feelings arise from that? Of course, they conveniently ignore the fact that while our brains aren't made of bits and bytes, they are nevertheless constructed from simple, elementary building blocks. A pointless discussion, then, reminiscent of the efforts of the Scholastics[1].

So, I withdrew and did some research. I'd now like to share the results of this convoluted search with you.

First of all, feelings, or emotions, serve an essential evolutionary purpose: they are adaptive mechanisms that help organisms survive, make rapid decisions, communicate with others, and reproduce.

1 Do only humans have feelings, or do animals have them as well?

Scientific consensus increasingly supports the idea that animals also have feelings and emotions, though they may not be identical to the complex subjective experiences of humans. The core emotional systems are ancient and shared across many species.

  • Shared Emotional Foundations: Charles Darwin was one of the first to argue that emotions are adaptations shared by humans and animals. Many mammals, birds, and even some invertebrates display behaviours and brain chemistry (e.g., dopamine, serotonin) that correlate with emotional states like joy, fear, anger, sadness, and empathy.

  • Examples in Animals:

    • Empathy and Grief: Elephants gather around and touch the carcasses of the dead, showing signs of grief. Rats have been shown to help a distressed fellow rat, even at the cost of a treat for themselves.

    • Joy and Play: Chimpanzees and rats emit specific vocalizations that are characteristic of joy or laughter when engaging in play.

    • Fear and Anxiety: Crayfish exhibit anxiety-like behaviour when stressed, which can be alleviated with the same anti-anxiety medications used for humans.

  • Feelings vs. Emotions: A common distinction in research is that emotions are the physiological and behavioural responses to stimuli (which are observable in animals), while feelings are the conscious, subjective experience of those emotions (which are harder to objectively measure in animals, as they cannot verbally report them). Most scientists agree animals are conscious beings capable of experiencing a range of emotional responses to some degree.

2 What purpose do feelings serve?

Feelings serve several crucial functions for survival and social interaction:

  • Motivating Action: Emotions are "programs for action" that allow an organism to respond quickly to environmental challenges without extensive conscious deliberation. Fear, for example, triggers the "fight-or-flight" response, preparing the body to escape danger rapidly.

  • Decision Making: Emotions influence thoughts and memories, helping us make decisions by colouring our experiences as positive or negative, which guides future behaviour (e.g., avoiding spoiled milk after feeling disgust).

  • Communication: Emotional expressions (facial expressions, body language, vocalizations) provide valuable information to others about our internal state and intentions, which is vital for social species. For instance, a clear expression of anger can signal a threat and cause others to back off.

  • Social Cohesion: Emotions such as love, guilt, and empathy help form and maintain social bonds, family relationships, and group dynamics, which are essential for the survival and protection of offspring and the group.

  • Personal Meaning: Emotions give meaning to life experiences; without them, events would be mere facts without value or flavour.

3 What are the necessary circumstances, conditions, and prerequisites for feelings to be of value?

For feelings to be valuable, an organism generally needs:

  • A complex nervous system: The capacity for emotions is linked to specific brain structures, particularly the limbic system, which processes and regulates emotional responses.

  • An environment with challenges and opportunities: Emotions evolved as responses to recurring adaptive problems in an organism's environment (e.g., predator avoidance, mate competition).

  • Self-awareness/subjective experience: To have "feelings" in the human sense (a conscious interpretation of emotions), some degree of self-awareness is necessary.

  • Social interaction (for complex emotions): Many complex social emotions like guilt, shame, and empathy develop their value within a social context, where understanding and responding to others' emotions is critical for group living.

  • The ability to learn and adapt: Feelings help organisms learn from past experiences and adjust future behaviours to seek positive outcomes and avoid negative ones.

4 What about autonomous AI systems?

Now comes the tricky question: Is it conceivable that, if these circumstances, conditions, and prerequisites apply, feelings could also be meaningful for artificially created systems, such as autonomous AI systems or robots?

This question indeed is a subject of ongoing debate in science and philosophy.

  • Functional Perspective: If AI systems are designed to navigate complex, unpredictable environments, make rapid decisions under uncertainty, and interact socially with humans or other AI, then incorporating something functionally analogous to emotions might be meaningful for their operation and survival. For example, a "fear" response could cause an autonomous system to rapidly avoid a perceived danger, or "satisfaction" could reinforce desired learning outcomes.

  • Conscious Experience Perspective: Whether such systems would actually feel these emotions in a subjective, conscious way (sentience) is a different, more complex question. The value for an AI would lie in the adaptive function of these internal states (e.g., as rapid information-processing systems or motivational drivers) rather than necessarily the subjective experience of them as humans understand it.

  • Ethical Implications: If AI ever developed genuine feelings, it would raise profound ethical questions about their treatment and rights, similar to current discussions regarding animal welfare.

In essence, feelings are powerful, evolved tools that provide an adaptive advantage by guiding behaviour toward survival and reproduction, a principle that could potentially be applied functionally to artificial systems designed to operate in complex, dynamic environments.

So, in the end my reputation was saved – at least partially

5 References


[1] https://en.wikipedia.org/wiki/Scholasticism