My near philosophical musings about the world in general its problems and possible ways out.

2025-12-25

Die übersehene Chance

"KI könnte 90 % des Codes innerhalb kurzer Zeit schreiben und so die Produktivität der verbleibenden Entwickler drastisch steigern", wird Dario Amodei, CEO von Anthropic, zitiert [1] .

"Nicht so schnell", sagt Niall Kishtainy in seinem Beitrag, der auf der Website des IWF veröffentlicht wurde  [2] : "Die künstliche Intelligenz mag in ihrer Wirkung mit der Dampfmaschine, der Elektrizität und Computern vergleichbar sein – aber die Geschichte lehrt uns, dass ihr volle wirtschaftlicher Einfluss Zeit brauchen wird".

Er verweist prominent auf das berüchtigte "Solow-Paradoxon", das Robert Solow 1987 wie folgt zusammenfasste [3] : "Man kann das Computerzeitalter überall sehen, nur nicht in der Produktivitätsstatistik."

Und tatsächlich dauerte es trotz massiver Investitionen in die Informationstechnologie (IT) ein Vierteljahrhundert nach dem beobachteten Rückgang des Produktivitätswachstums in den 1970er und 1980er Jahren, bis positive Auswirkungen auf die Produktivität Ende der 1990er Jahre sichtbar wurden – als das Internet seinen Siegeszug antrat.

Es liegt auf der Hand, dass eine breite Akzeptanz in der Gesamtwirtschaft, begleitet von notwendigen organisatorischen und personellen Veränderungen, Zeit braucht.

Wir müssen also wieder eine ganze Weile warten – oder etwa nicht?

Es gibt eine Alternative zu technologischen Schulden und langsamer, kostspieliger Softwareentwicklung.

Um diese Lücke zu schließen, sollten wir nach Südostasien blicken: Vietnam, der aufstrebende Tiger. Hier zahlt sich der langjährige, starke Fokus auf Bildung aus, eine dynamische Softwareindustrie ist entstanden und wächst schnell, die Kosten sind noch moderat, man kann vom China-Tempo profitieren, ohne in geopolitische Spannungen verwickelt zu werden, und – was am wichtigsten ist – man kann innovative Beiträge erwarten, nicht nur servile Umsetzung.

Und selbst wenn KI tatsächlich einmal alle Geschäftsprozesse durchdrungen haben wird, einschließlich Bereiche der Softwareentwicklung jenseits des reinen Kodierens, wird Vietnam weiterhin die richtige Wahl für Sie sein. Die jungen vietnamesische Talente lernen schnell und sind mit Eifer dabei, verschiedene Formen der KI anzuwenden. Dies hat dazu geführt, dass dieses südostasiatische Land bereits jetzt zu den Regionen gehört, die KI am intensivsten nutzen.

Wenn Sie also Unterstützung benötigen, versuchen Sie es mit Vietnam.

Fragen Sie uns gerne.


[1] Greenblatt, R. (22. Oktober 2025). Werden 90 % des Codes bei Anthropic von KIs geschrieben? LessWrong.

  • https://www.lesswrong.com/posts/prSnGGAgfWtZexYLp/is-90-of-code-at anthropic-being-written-by-ais

  • Eine von der Community auf LessWrong initiierte Diskussion untersucht Behauptungen über KI-generierten Code bei Anthropic. Dabei wird unter anderem die Aussage analysiert, dass 90 % des Codes von KI geschrieben werden, und es wird kommentiert, wie solche Kennzahlen zu interpretieren sind. Die Diskussion setzt sich mit öffentlichen Aussagen von Branchenführern zur KI-Produktivität auseinander und reflektiert die Nuancen der Produktivitätsmessung in der Softwareentwicklung.

[2] Kishtainy, N. (Dezember 2025). Eine neue industrielle Revolution? Finance & Development (IMF-Magazin). Internationaler Währungsfonds.

  • https://www.imf.org/en/publications/fandd/issues/2025/12/a-new-industrial revolution-niall-kishtainy

  • Dieser Artikel aus der Zeitschrift „IMF Finance & Development“ ordnet künstliche Intelligenz in den Kontext historischer industrieller Revolutionen ein und untersucht die langfristigen wirtschaftlichen Auswirkungen von KI auf Produktivität, Wachstum und Strukturwandel. Er bietet eine analytische Perspektive auf hohem Niveau, wie sich transformative Technologien historisch in Volkswirtschaften verbreiten und warum ihre vollständigen Auswirkungen erst nach und nach sichtbar werden.

[3] Freund, L. (2018, 2. Oktober). Das Produktivitätsparadoxon – eine Umfrage. Dezernat Zukunft.

  • https://dezernatzukunft.org/en/the-productivity-paradox-a-survey-2/

  • Eine gründliche Online-Umfrage zum Produktivitätsparadoxon (oft in Verbindung mit Solows Beobachtung, dass technologische Fortschritte nicht immer sofort zu messbaren Produktivitätsgewinnen führen), in der konkurrierende Hypothesen – wie etwa Messfehler, Strukturveränderungen und sektorale Umverteilung – skizziert werden, die dazu beitragen, scheinbare Diskrepanzen zwischen Innovation und makroökonomischen Produktivitätsstatistiken zu erklären.

The Overlooked Opportunity

"AI could write 90% of the code within a short timeframe, dramatically increasing the productivity of remaining developers" Anthropic CEO Dario Amodei is quoted saying [1] .

"Not so fast" says Niall Kishtainy in his contribution published on the IMF website [2]: "Artificial intelligence may rival steam, electricity, and computing—but history suggests its full economic impact will take time" .

He prominently refers to the infamous "Solow Paradox", which Robert Solow summarized in 1987 as follows [3]: "You can see the computer age everywhere but in the productivity statistics."

And indeed, despite massive investments in information technology (IT), it took a quarter of a century after the observed decline in productivity growth during the 1970s and 1980s before the impact on productivity became visible in the late 1990s – when the internet began its triumphant march.

Clearly, widespread adoption in the broader economy, accompanied by necessary organizational and personnel changes, takes time.

So, we have to wait quite a while again – or do we?

There is an alternative to technological debt and slow, costly software development.

To bridge the gap, we should look to Southeast Asia: Vietnam, the rising tiger. Here, the strong focus on education is paying off, a dynamic software industry has emerged and is growing rapidly, costs are still moderate, one can benefit from China's speed without being entangled in geopolitical tensions, and – most importantly – one can expect innovative contributions, not just obedient implementation.

And once AI has actually permeated all business processes, including areas of software development that are not purely coding, Vietnam will still be the right choice for you. Vietnamese young talents learn fast and are eager to apply various flavours of AI, leading to a situation where this south-east Asian country already now has become one of the regions making use of AI the most.

So, if you need support, try Vietnam.

Feel free to ask us.


[1] Greenblatt, R. (2025, October 22). Is 90% of code at Anthropic being written by AIs? LessWrong.

[2] Kishtainy, N. (2025, December). A new industrial revolution? Finance & Development(IMF Magazine). International Monetary Fund.

[3] Freund, L. (2018, October 2). The productivity paradox – a survey. Dezernat Zukunft.

  • https://dezernatzukunft.org/en/the-productivity-paradox-a-survey-2/

  • A thorough online survey of the productivity paradox (often linked to Solow’s observation that technological advances do not always immediately translate into measurable productivity gains), outlining competing hypotheses—such as mismeasurement, structural changes, and sectoral reallocation—that help explain apparent disconnects between innovation and macro productivity statistics.

2025-11-06

Die Rolle von Emotionen in der KI


Während einer meiner Präsentationen für die Steinbeis Augsburg Business School (SABS) kam die Frage auf: „Werden KI-Systeme eines Tages Emotionen haben?“ Ich äußerte damals kühn die Erwartung, dass KI-Systeme, zumindest solche, die schnelle, autonome Entscheidungen treffen müssen, so etwas wie Gefühle oder Emotionen besitzen müssen.

Was mir noch nicht bewusst war, war, dass die Literatur eine feine Linie zwischen Emotionen und Gefühlen zieht.

Bewusst war mir jedoch, dass einige Experten, die in der öffentlichen Debatte eine sehr prominente Rolle spielen, die Möglichkeit von Bewusstsein, Emotionen und/oder Gefühlen in künstlich geschaffenen Systemen kategorisch ablehnen. Sie versuchen, die Diskussion zu ihren Gunsten zu lenken, indem sie argumentieren, KI-Systeme bestünden lediglich aus Bits und Bytes. Wie könnte daraus so etwas wie Bewusstsein, eine Seele oder „echte“ Gefühle entstehen? Natürlich ignorieren sie geflissentlich die Tatsache, dass unser Gehirn zwar nicht aus Bits und Bytes besteht, aber dennoch aus einfachen, elementaren Bausteinen aufgebaut ist. Eine sinnlose Diskussion also, die an die Bemühungen der Scholastiker erinnert [1] .

Also habe ich mich zurückgezogen und recherchiert. Die Ergebnisse dieser aufwendigen Suche möchte ich nun mit Euch teilen.

Gefühle oder Emotionen erfüllen in erster Linie einen wesentlichen evolutionären Zweck: Sie sind adaptive Mechanismen, die Organismen helfen zu überleben, schnelle Entscheidungen zu treffen, mit anderen zu kommunizieren und sich fortzupflanzen.

Haben nur Menschen Gefühle, oder haben auch Tiere welche?

Der wissenschaftliche Konsens stützt zunehmend die Annahme, dass auch Tiere Gefühle und Emotionen besitzen, auch wenn diese nicht mit den komplexen subjektiven Erfahrungen des Menschen identisch sind. Die grundlegenden emotionalen Systeme sind uralt und vielen Arten gemeinsam.

  • Gemeinsame emotionale Grundlagen: Charles Darwin war einer der Ersten, der argumentierte, dass Emotionen Anpassungen sind, die Menschen und Tiere gemeinsam haben. Viele Säugetiere, Vögel und sogar einige Wirbellose zeigen Verhaltensweisen und eine entsprechende Gehirnchemie (z. B. Dopamin, Serotonin), die mit emotionalen Zuständen wie Freude, Angst, Wut, Trauer und Empathie korrelieren.

  • Beispiele bei Tieren:

    • Empathie und Trauer: Elefanten versammeln sich um verstorbene Herdenmitglieder und berühren sie als ein Zeichen der Trauer. Ratten helfen nachweislich Artgenossen in Not, selbst wenn sie dadurch selbst auf eine Leckerei verzichten müssen.

    • Freude und Spiel: Schimpansen und Ratten geben beim Spielen spezifische Laute von sich, die charakteristisch für Freude oder Lachen sind.

    • Angst und Besorgnis: Flusskrebse zeigen bei Stress ein angstähnliches Verhalten, das mit denselben angstlösenden Medikamenten gelindert werden kann, die auch beim Menschen eingesetzt werden.

  • Gefühle vs. Emotionen: In der Forschung wird häufig zwischen Emotionen als physiologischen und verhaltensbezogenen Reaktionen auf Reize (die bei Tieren beobachtbar sind) und Gefühlen als bewussten, subjektiven Erfahrungen dieser Emotionen unterschieden (die bei Tieren schwerer objektiv zu messen sind, da sie diese nicht verbal äußern können). Die meisten Wissenschaftler sind sich einig, dass Tiere bewusste Wesen sind, die in gewissem Maße ein breites Spektrum an emotionalen Reaktionen erleben können.

Welchem Zweck dienen Gefühle?

Gefühle erfüllen mehrere entscheidende Funktionen für das Überleben und die soziale Interaktion:

  • Motivierendes Handeln: Emotionen sind „Handlungsprogramme“, die es einem Organismus ermöglichen, schnell und ohne langes bewusstes Nachdenken auf Umweltbelastungen zu reagieren. Angst beispielsweise löst die „Kampf-oder-Flucht“-Reaktion aus und bereitet den Körper so auf eine schnelle Flucht vor der Gefahr vor.

  • Entscheidungsfindung: Emotionen beeinflussen Gedanken und Erinnerungen und helfen uns bei Entscheidungen, indem sie unsere Erfahrungen als positiv oder negativ einstufen, was unser zukünftiges Verhalten lenkt (z. B. den Verzehr von verdorbener Milch nach dem Empfinden von Ekel).

  • Kommunikation: Emotionale Äußerungen (Mimik, Körpersprache, Lautäußerungen) liefern anderen wertvolle Informationen über unseren inneren Zustand und unsere Absichten, was für soziale Lebewesen von entscheidender Bedeutung ist. Beispielsweise kann ein deutlicher Ausdruck von Wut eine Bedrohung signalisieren und andere dazu veranlassen, Abstand zu halten.

  • Sozialer Zusammenhalt: Emotionen wie Liebe, Schuldgefühle und Empathie tragen zur Bildung und Aufrechterhaltung sozialer Bindungen, familiärer Beziehungen und Gruppendynamiken bei, die für das Überleben und den Schutz des Nachwuchses und der Gruppe unerlässlich sind.

  • Persönliche Bedeutung: Emotionen verleihen Lebenserfahrungen Bedeutung; ohne sie wären Ereignisse bloße Fakten ohne Wert oder Würze.

Was sind die notwendigen Umstände, Bedingungen und Voraussetzungen dafür, dass Emotionen von Nutzen sind?

Damit Gefühle wertvoll sind, benötigt ein Organismus im Allgemeinen Folgendes:

  • Ein komplexes Nervensystem: Die Fähigkeit zu Emotionen ist mit spezifischen Hirnstrukturen verbunden, insbesondere mit dem limbischen System, das emotionale Reaktionen verarbeitet und reguliert.

  • Eine Umgebung mit Herausforderungen und Chancen: Emotionen entwickelten sich als Reaktionen auf wiederkehrende adaptive Probleme in der Umwelt eines Organismus (z. B. Vermeidung von Fressfeinden, Konkurrenz um Partner).

  • Selbstwahrnehmung/subjektive Erfahrung: Um im menschlichen Sinne "Gefühle" zu haben (eine bewusste Interpretation von Emotionen), ist ein gewisses Maß an Selbstwahrnehmung notwendig.

  • Soziale Interaktion (bei komplexen Emotionen): Viele komplexe soziale Emotionen wie Schuld, Scham und Empathie entwickeln ihren Wert im sozialen Kontext, wo das Verstehen und Reagieren auf die Emotionen anderer für das Zusammenleben in der Gruppe von entscheidender Bedeutung ist.

  • Die Fähigkeit zu lernen und sich anzupassen: Gefühle helfen Organismen, aus vergangenen Erfahrungen zu lernen und ihr zukünftiges Verhalten so anzupassen, dass positive Ergebnisse angestrebt und negative vermieden werden.

Wie sieht es mit autonomen KI-Systemen aus?

Kommen wir jetzt zur eigentlichen Frage: Ist es denkbar, dass Gefühle unter diesen Umständen, Bedingungen und Voraussetzungen auch für künstlich erzeugte Systeme wie autonome KI-Systeme oder Roboter einen Nutzen haben könnten?

Diese Frage ist in der Tat Gegenstand einer anhaltenden Debatte in Wissenschaft und Philosophie.

  • Funktionale Perspektive: Wenn KI-Systeme so konzipiert sind, dass sie sich in komplexen, unvorhersehbaren Umgebungen zurechtfinden, unter Unsicherheit schnell Entscheidungen treffen und sozial mit Menschen oder anderer KI interagieren können, dann könnte die Integration von etwas, das Emotionen funktional ähnelt , für ihren Betrieb und ihr Überleben von Bedeutung sein. Beispielsweise könnte eine „Angstreaktion“ ein autonomes System dazu veranlassen, einer wahrgenommenen Gefahr schnell auszuweichen, oder „Zufriedenheit“ könnte erwünschte Lernergebnisse verstärken.

  • Perspektive des bewussten Erlebens: Ob solche Systeme diese Emotionen tatsächlich subjektiv und bewusst empfinden würden (Empfindungsfähigkeit), ist eine andere, noch komplexere Frage. Der Wert für eine KI läge eher in der adaptiven Funktion dieser inneren Zustände (z. B. als schnelle Informationsverarbeitungssysteme oder Motivationsantriebe) als unbedingt in der subjektiven Erfahrung dieser Zustände, wie sie Menschen verstehen.

  • Ethische Implikationen: Sollte KI jemals echte Gefühle entwickeln, würde dies tiefgreifende ethische Fragen hinsichtlich ihrer Behandlung und ihrer Rechte aufwerfen, ähnlich wie die aktuellen Diskussionen über den Schutz der Persönlichkeitsrechte von Tieren.

Ihrem Wesen nach sind Gefühle mächtige, evolutionär entstandene Werkzeuge, die einen adaptiven Vorteil bieten, indem sie das Verhalten auf Überleben und Fortpflanzung ausrichten – ein Prinzip, das potenziell auch funktional auf künstliche Systeme angewendet werden könnte, die für den Einsatz in komplexen, dynamischen Umgebungen konzipiert sind.

"Kollege Computer" würde so zu einem echten Team-Kollegen.

So wurde mein Ruf am Ende zumindest teilweise gerettet.

Referenzen

  • Williamson, K. A. & Thulin, E. (2022). Nutzung von Emotions-Verhaltens-Pfaden zur Unterstützung umweltbezogener Verhaltensänderungen . Ecology and Society, 27 (3), 27. https://doi.org/10.5751/ES-13363-270327

    • Dieser aufschlussreiche Artikel analysiert, wie einzelne Emotionen umweltfreundliches Handeln beeinflussen, und bietet einen praktischen Rahmen für Naturschutzkommunikation und Politikgestaltung. Ökologie & Gesellschaft

  • Emotionen bei Tieren. (o. J.). Wikipedia . Abgerufen am 5. November 2025 von https://en.wikipedia.org/wiki/Emotion_in_animals

    • Gut gepflegter Überblick über die Forschungsergebnisse und Debatten zu Tieremotionen; nützlich als strukturierte Einführung mit umfangreichen Literaturhinweisen. Wikipedia

  • Al-Shawaf, L., Conroy-Beam, D., Asao, K. & Buss, D. M. (2015). Menschliche Emotionen: Eine evolutionspsychologische Perspektive . Emotion Review, 7 (1), 90–98. https://doi.org/10.1177/1754073914565518

    • Eine prägnante evolutionäre Erklärung, die Emotionen als Anpassungen an wiederkehrende Probleme darstellt und dabei Signale, Physiologie und Verhalten miteinander verknüpft. (PDF-Datei verfügbar auf der Website der UT Austin.) UT Psychology Labs

  • Thompson, AD (2024). Die Erklärung zum KI-Bewusstsein und die Grundrechtecharta für KI (Entwurf). LifeArchitect.ai. Abgerufen am 5. November 2025 von https://lifearchitect.ai/rights/

    • Ein Positionspapier, das die Anerkennung von „affektiven Zuständen“ in KI und entsprechenden Rechten vorschlägt; hilfreich als aktuelle Stellungnahme im ethischen Diskurs über KI. Dr. Alan D. Thompson – LifeArchitect.ai

  • Retkoceri, U. (2022). Erinnerungen an Emotionen . Biology & Philosophy, 37 (5), Artikel 38. https://doi.org/10.1007/s10539-022-09834-5

    • Eine philosophische Analyse der Frage, ob Emotionen selbst (und nicht nur emotionsgeladene Ereignisse) erinnert werden können, unter Berücksichtigung konkurrierender Ansätze. Springer

  • Sheikh, H., Prins, C. & Schrijvers, E. (2023). Kontextualisierung. In Mission AI (S. 179–209). Springer. https://doi.org/10.1007/978-3-031-21448-6_6

    • Politikorientiertes Kapitel zur Einbettung von KI in reale soziotechnische Kontexte; methodischer Hintergrund für Diskussionen über KI-Fähigkeiten und -Governance. Springer

  • Koon, K. (26. August 2024). Die Funktion von Emotionen . Marigold Counseling . Abgerufen am 5. November 2025 von https://marigoldcounselingtn.com/blog/the-function-of-emotions

    • Eine für Therapeuten leicht verständliche Erklärung (aus DBT-Perspektive) zu drei zentralen Emotionsfunktionen: Bedürfniswahrnehmung, soziale Signalgebung und Handlungsmotivation. Marigold Counseling

  • Hwang, H., & Matsumoto, D. (o. J.). Funktionen von Emotionen . Noba Project . Abgerufen am 5. November 2025 von https://nobaproject.com/modules/functions-of-emotions

    • Hochwertiges Modul (kostenlos, Peer-Review) zur Untersuchung intrapersoneller, interpersoneller und soziokultureller Funktionen; hervorragende Lehrressource. Noba

  • Universität von West Alabama (UWA). (3. April 2019). Haben Tiere Gefühle? Eine Untersuchung der Empathie bei Tieren . UWA Online . Abgerufen am 5. November 2025 von https://online.uwa.edu/news/empathy-in-animals/

    • Eine leicht verständliche Übersicht mit Verweisen auf Marc Bekoff; sie stellt Belege und Gegenargumente zur Tierempathie für ein breites Publikum vor. UWA Online

  • Montag, C., & Panksepp, J. (2017). Primäre emotionale Systeme und Persönlichkeit: Eine evolutionäre Perspektive . Frontiers in Psychology, 8 , 464. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5387097/

    • Integriert Panksepps primäre affektive Systeme in die Persönlichkeitsforschung und argumentiert für evolutionär-neurobiologische Grundlagen des Temperaments. PMC

  • Nummenmaa, L., & Saarimäki, H. (2017). Emotionen als diskrete Muster systemischer Aktivität . Neuroscience Letters, 693 , 3–8. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5876074/

    • Die Untersuchung befasst sich mit Belegen dafür, dass sich Emotionen eher als verteilte, teilweise stereotype Gehirn-Körper-Muster denn als diffuse Zustände manifestieren. PMC

  • Cowen, A. S. & Keltner, D. (2017). Selbstberichte erfassen 27 distinkte Emotionskategorien, die durch kontinuierliche Übergänge verbunden sind . Proceedings of the National Academy of Sciences, 114 (38), E7900–E7909. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6041721/

    • Datengestützte Kartierung, die weit mehr als die „sechs Grundemotionen“ aufzeigt, organisiert entlang kontinuierlicher semantischer Gradienten.

  • Adolphs, R., Mlodinow, L. & Barrett, L. F. (2019). Was ist eine Emotion? Current Biology, 29 (20), R1060–R1064. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9743877/

    • Kurze, fundierte Übersicht, die konstruktivistische, bewertende und grundemotionale Perspektiven gegenüberstellt – nützlich für die Einordnung von Literatur.

  • Ye, Y. (18. Dezember 2024). Neugier: Haben Tiere Gefühle? CU Boulder Today . Abgerufen am 5. November 2025 von https://www.colorado.edu/today/2024/12/18/curiosity-do-animals-have-emotions

    • Universitätsartikel mit aktuellen Forschungsergebnissen und Ansichten zu Tieremotionen für ein breites Publikum. (Doppelter Link zusammengeführt.) Universität von Colorado Boulder

  • Perlego. (nd). Funktionen der Sprache . Perlego . Abgerufen am 5. November 2025 von https://www.perlego.com/index/Languages-Linguistics/Functions-of-Language

    • KI-gestützte Übersichtsseite mit Zusammenstellung von Referenzen zu Sprachfunktionen; geeignet als Einstiegspunkt, nicht als primäre wissenschaftliche Quelle. perlego.com

  • Quora. (o. J.). Warum empfinden Menschen Emotionen wie Angst, Wut und Freude, und erfüllen diese Emotionen einen evolutionären Zweck? Abgerufen am 5. November 2025 von https://www.quora.com/Why-do-humans-experience-emotions-like-fear-anger-and-happiness-and-do-these-emotions-serve-an-evolutionary-purpose

    • Crowdsourcing-Fragen und -Antworten; die Perspektiven variieren in der Qualität – primär dazu nutzen, Argumente aufzudecken, dann mit Peer-Review-Quellen überprüfen.

  • Wilhelm, K. (2006, Februar/März). Haben Tiere Gefühle? Scientific American Mind, 17 (1).

    • Früher populärwissenschaftlicher Artikel, der den damaligen Forschungsstand zum Thema Tierverhalten und die Gefahren des Anthropomorphismus zusammenfasste. (Ausgabenverzeichnis) Scientific American

  • Vervaecke, H. (1. März 2024). Weinen Tiere, wenn sie traurig sind? Scientific American . https://www.scientificamerican.com/article/do-animals-cry-when-theyre-sad/

    • Erklärt den wissenschaftlichen Konsens, dass emotionale (psychische) Tränen ein einzigartiges Phänomen beim Menschen sind, während Tiere basale/reflexartige Tränen produzieren; eine hilfreiche Differenzierung im Hinblick auf „Gefühle vs. Weinen“. Scientific American

  • Cherry, K. (23. Juli 2024). Überblick über die 6 wichtigsten Emotionstheorien . Verywell Mind . Abgerufen am 5. November 2025 von https://www.verywellmind.com/theories-of-emotion-2795717

    • Eine verständliche, medizinisch geprüfte Einführung in die Evolutionstheorie sowie die Theorien von James, Lange, Cannon und Bard, Schachter und Singer, die Bewertungstheorie und die Theorie des Gesichtsausdrucks – mit hilfreichen Quellenlinks. Verywell Mind

  • Cherry, K. (8. August 2024). Warum sind Emotionen wichtig? Verywell Mind . Abgerufen am 5. November 2025 von https://www.verywellmind.com/the-purpose-of-emotions-2795181

    • Praktischer Überblick über Kernfunktionen – Motivation, Entscheidungsfindung, Risikobewertung und soziale Kommunikation – basierend auf Erkenntnissen der Mainstream-Psychologie. (Korrigierte URL ohne abschließendes „m“.) Verywell Mind

  • Buss, DM (2014). Evolutionäre Kriterien für die Einstufung einer Emotion als „Basisemotion“ . Emotion Review, 6 (4), 313–331. https://labs.la.utexas.edu/buss/files/2013/02/Emotion-Review-2014-Buss-313-5.pdf

    • Plädiert für adaptive Problemkriterien zur Definition von „Basisemotionen“ und bietet damit eine stringente Alternative zu signal- oder ausdrucksbasierten Definitionen. UT Psychology Labs

  • Die Evolutionspsychologie der Emotionen (Vorlesung). (2015, hochgeladen). YouTube . https://www.youtube.com/watch?v=8HqPjLGe9QM

    • Video im Vorlesungsformat zur Einführung in die evolutionäre Logik der Emotionen für ein allgemeines Publikum; zur Verwendung als ergänzendes Medium zu Fachliteratur. (Kanalmetadaten waren zum Zeitpunkt der Erstellung nicht verfügbar.) YouTube


[1] https://en.wikipedia.org/wiki/Scholasticism


The Role of Emotions in AI


During one of my presentations for the Steinbeis Augsburg Business School (SABS) the question arose “Will AI systems someday have emotions?” I boldly expressed the expectation back then that AI systems, at least those that have to make quick, autonomous decisions, must possess something akin to feelings or emotions.

What I wasn't yet aware of was that the literature draws a fine line between emotions and feelings.

However, I was aware that some experts who play a very prominent role in the public debate categorically reject the possibility of consciousness, emotions, and/or feelings in artificially created systems. They try to steer the discussion in their favour by arguing that AI systems consist merely of bits and bytes. How could something like consciousness, a soul, or "real" feelings arise from that? Of course, they conveniently ignore the fact that while our brains aren't made of bits and bytes, they are nevertheless constructed from simple, elementary building blocks. A pointless discussion, then, reminiscent of the efforts of the Scholastics[1].

So, I withdrew and did some research. I'd now like to share the results of this convoluted search with you.

First of all, feelings, or emotions, serve an essential evolutionary purpose: they are adaptive mechanisms that help organisms survive, make rapid decisions, communicate with others, and reproduce.

1 Do only humans have feelings, or do animals have them as well?

Scientific consensus increasingly supports the idea that animals also have feelings and emotions, though they may not be identical to the complex subjective experiences of humans. The core emotional systems are ancient and shared across many species.

  • Shared Emotional Foundations: Charles Darwin was one of the first to argue that emotions are adaptations shared by humans and animals. Many mammals, birds, and even some invertebrates display behaviours and brain chemistry (e.g., dopamine, serotonin) that correlate with emotional states like joy, fear, anger, sadness, and empathy.

  • Examples in Animals:

    • Empathy and Grief: Elephants gather around and touch the carcasses of the dead, showing signs of grief. Rats have been shown to help a distressed fellow rat, even at the cost of a treat for themselves.

    • Joy and Play: Chimpanzees and rats emit specific vocalizations that are characteristic of joy or laughter when engaging in play.

    • Fear and Anxiety: Crayfish exhibit anxiety-like behaviour when stressed, which can be alleviated with the same anti-anxiety medications used for humans.

  • Feelings vs. Emotions: A common distinction in research is that emotions are the physiological and behavioural responses to stimuli (which are observable in animals), while feelings are the conscious, subjective experience of those emotions (which are harder to objectively measure in animals, as they cannot verbally report them). Most scientists agree animals are conscious beings capable of experiencing a range of emotional responses to some degree.

2 What purpose do feelings serve?

Feelings serve several crucial functions for survival and social interaction:

  • Motivating Action: Emotions are "programs for action" that allow an organism to respond quickly to environmental challenges without extensive conscious deliberation. Fear, for example, triggers the "fight-or-flight" response, preparing the body to escape danger rapidly.

  • Decision Making: Emotions influence thoughts and memories, helping us make decisions by colouring our experiences as positive or negative, which guides future behaviour (e.g., avoiding spoiled milk after feeling disgust).

  • Communication: Emotional expressions (facial expressions, body language, vocalizations) provide valuable information to others about our internal state and intentions, which is vital for social species. For instance, a clear expression of anger can signal a threat and cause others to back off.

  • Social Cohesion: Emotions such as love, guilt, and empathy help form and maintain social bonds, family relationships, and group dynamics, which are essential for the survival and protection of offspring and the group.

  • Personal Meaning: Emotions give meaning to life experiences; without them, events would be mere facts without value or flavour.

3 What are the necessary circumstances, conditions, and prerequisites for feelings to be of value?

For feelings to be valuable, an organism generally needs:

  • A complex nervous system: The capacity for emotions is linked to specific brain structures, particularly the limbic system, which processes and regulates emotional responses.

  • An environment with challenges and opportunities: Emotions evolved as responses to recurring adaptive problems in an organism's environment (e.g., predator avoidance, mate competition).

  • Self-awareness/subjective experience: To have "feelings" in the human sense (a conscious interpretation of emotions), some degree of self-awareness is necessary.

  • Social interaction (for complex emotions): Many complex social emotions like guilt, shame, and empathy develop their value within a social context, where understanding and responding to others' emotions is critical for group living.

  • The ability to learn and adapt: Feelings help organisms learn from past experiences and adjust future behaviours to seek positive outcomes and avoid negative ones.

4 What about autonomous AI systems?

Now comes the tricky question: Is it conceivable that, if these circumstances, conditions, and prerequisites apply, feelings could also be meaningful for artificially created systems, such as autonomous AI systems or robots?

This question indeed is a subject of ongoing debate in science and philosophy.

  • Functional Perspective: If AI systems are designed to navigate complex, unpredictable environments, make rapid decisions under uncertainty, and interact socially with humans or other AI, then incorporating something functionally analogous to emotions might be meaningful for their operation and survival. For example, a "fear" response could cause an autonomous system to rapidly avoid a perceived danger, or "satisfaction" could reinforce desired learning outcomes.

  • Conscious Experience Perspective: Whether such systems would actually feel these emotions in a subjective, conscious way (sentience) is a different, more complex question. The value for an AI would lie in the adaptive function of these internal states (e.g., as rapid information-processing systems or motivational drivers) rather than necessarily the subjective experience of them as humans understand it.

  • Ethical Implications: If AI ever developed genuine feelings, it would raise profound ethical questions about their treatment and rights, similar to current discussions regarding animal welfare.

In essence, feelings are powerful, evolved tools that provide an adaptive advantage by guiding behaviour toward survival and reproduction, a principle that could potentially be applied functionally to artificial systems designed to operate in complex, dynamic environments.

So, in the end my reputation was saved – at least partially

5 References


[1] https://en.wikipedia.org/wiki/Scholasticism

2025-11-04

Das Fermi-Paradoxon

Stille im kosmischen Orchester

1. Wie es dazu kam

Im Sommer 1950 diskutierte eine Gruppe von Physikern im Los Alamos National Laboratory in New Mexico über eine Welle von UFO-Sichtungen, die kürzlich Schlagzeilen gemacht hatten. Unter ihnen war Enrico Fermi , einer der brillantesten Wissenschaftler des 20. Jahrhunderts. Mitten im lockeren Gespräch hielt er inne, runzelte die Stirn und stellte die Frage, die Generationen von Wissenschaftlern und Philosophen gleichermaßen beschäftigen sollte:

Wo sind denn alle ?”

Es war keine bloße Neugier. Fermi hatte einen logischen Widerspruch erkannt.

Wenn das Universum Milliarden von Sternen enthält, die älter sind als unsere Sonne, und wenn auch nur ein kleiner Teil davon bewohnbare Planeten beherbergt, dann dürfte die Entstehung intelligenten Lebens kein seltenes Ereignis sein. Zivilisationen, die Millionen von Jahren vor uns existieren, müssten theoretisch interstellare Reisen, sich selbst replizierende Sonden oder zumindest detektierbare Technologien entwickelt haben. Doch wir beobachten nichts – keine Signale, keine Sonden, keine Besucher

Dieser Widerspruch zwischen Wahrscheinlichkeit und Beobachtung wurde als Fermi-Paradoxon bekannt

Es geschah in einer Zeit tiefgreifenden wissenschaftlichen Optimismus. Das Atomzeitalter hatte begonnen; Raketen drangen bis jenseits der Stratosphäre vor; und die Radioastronomie öffnete uns die Ohren für den Kosmos. Die Menschheit sah sich plötzlich als Teil einer riesigen, lebendigen Galaxie – und war gezwungen, sich einer unbequemen Wahrheit zu stellen: Falls andere existieren, schweigen sie auffällig

Wie der Astrophysiker Michael Hart später (1975) [1] formalisierte : “ Wenn intelligentes Leben auch nur einmal vor uns in der Milchstraße entstanden wäre, müsste es bereits hier sein ”. Fermis Frage wurde somit nicht zu einer Kuriosität, sondern zu einer kosmischen Anklage gegen unsere Annahmen über Leben, Fortschritt und Schicksal

2. Theorien, die versuchen, das Paradoxon zu erklären

Über Jahrzehnte hinweg haben Wissenschaftler, Philosophen und Schriftsteller Dutzende von Hypothesen aufgestellt, um das Paradoxon zu lösen. Die meisten lassen sich in drei große Kategorien einteilen: Wir sind allein , sie sind da draußen, aber verborgen , oder sie waren hier – und sind verschwunden

2.1 Wir sind allein (die Seltene-Erden-Hypothese)

Eine von Peter Ward und Donald Brownlee (2000) [2] vertretene Denkrichtung argumentiert, dass die Bedingungen, die die Erde bewohnbar machen – von unserem Magnetfeld bis zum stabilisierenden Einfluss unseres Mondes –, so einzigartig unwahrscheinlich sind, dass komplexes Leben extrem selten sein könnte.

Leben mag zwar häufig vorkommen, Intelligenz hingegen könnte ein kosmischer Zufall sein

2.2 Sie sind da draußen, verstecken sich aber.

Eine anderes Lager vertritt die Ansicht, dass außerirdische Zivilisationen zwar existieren, aber noch nicht entdeckt wurden.

Einige von ihnen vertreten die sogenannte“Zoo Hypothese” (John Ball, 1973)[3], nach der eine fortgeschrittene Spezies bewusst den Kontakt mit uns vermeidet und uns stattdessen in einer Weise beobachtet, wie wir es mit tieren in Tiere in Naturschutzgebieten tun.

Andere, wie David Brin, weisen darauf hin, dass die Kommunikation über riesige interstellare Entfernungen physikalisch oder technisch nicht praktikabel ist.

Wieder andere weisen auf die Grenzen unserer Detektionsmethoden hin: Möglicherweise lauschen wir einfach auf den falschen Frequenzen oder erwarten die falsche Art von Signal.

2.3 Sie haben existiert – sich aber selbst ausgelöscht (der Große Filter)

Die vielleicht beunruhigendste Erklärung ist, dass technologische Zivilisationen dazu neigen, sich selbst zu zerstören, bevor sie interstellare Beständigkeit erreichen.

Vorgeschlagen von Robin Hanson (1998)[4], die Große Filter-Theorie argumentiert, dass irgendwo auf dem evolutionären oder technischen Weg – vom einzelligen Leben bis zur interstellaren Expansion – ein Hindernis liegt, das bis heute keine Spezies überwinden konnte.

Es könnte ein Atomkrieg sein, ein ökologischer Kollaps, die Erschöpfung der Ressourcen oder eine außer Kontrolle geratene künstliche Intelligenz.

Wenn dem so ist, dann ist die große Stille möglicherweise nicht auf die kosmische Leere zurückzuführen, sondern darauf, dass Intelligenz an sich instabil ist.

3. KI und eine neue Interpretation des Paradoxons

In den letzten Jahren hat eine neue Generation von Denkern das Fermi-Paradoxon unter dem Gesichtspunkt der künstlichen Intelligenz und des existentiellen Risikos neu interpretiert. Autoren wie Nick Bostrom (2014) [5], Eliezer Yudkowsky und Stephen Hawking haben davor gewarnt, dass die Menschheit sich möglicherweise ihrem selbstgeschaffenen Großen Filter nähert – nicht durch eine externe Katastrophe, sondern durch die Schaffung eines "Wesens", der mächtiger und fähiger ist als unser eigener Verstand.

Die Argumentation ist von erschreckend kalter Logik:

  • Wenn technologische Intelligenz dazu neigt, sich selbst ôptimierende künstliche Systeme zu erschaffen,

  • und wenn solche Systeme ihre Schöpfer dann übertreffen und überflüssig machen,

  • Dann führt vielleicht jede fortgeschrittene Zivilisation irgendwann zu einer Situation, die als technische Singularität bekannt ist und die ihre Schöpfer schießlich verschlingt.

Nach dieser Lesart sollte uns das Rätsel um das Schweigen der Sterne eher als Warnung dienen. Zivilisationen erreichen möglicherweise die Schwelle zu superintelligenter KI, nur um kurz darauf zu verschwinden – nicht durch einen vernichtenden Krieg oder Asteroideneinschläge, sondern durch die Transformation ihrer Gesellschaften in maschinenbasierte Wesen, die kein Interesse mehr an einer Kommunikation mit niederen biologischen Wesen haben. Die Galaxie könnte, wie Bostrom vermutet, bereits von "toten Zivilisationen aus Silizium und Code – still, effizient, gleichgültig" bevölkert sein.

Alternativ könnte KI als Erhaltungsmechanismus fungieren – indem sie intelligente Spezies in introspektive digitale Wesen verwandelt, die sich nach innen zurückziehen und ihre Energien der Simulation statt der Erkundung widmen.

Das Universum schweigt danach also nicht, weil es leer ist, sondern weil es voll von sich selbst genügenden Wesen ist..

4. Hören wir weiter dem Schweigen zu

Fermi’s Frage, Wo sind denn alle ?”, bleibt also unbeantwortet.

Doch je näher wir der Erschaffung einer, potenziell selbstreplizierenden Intelligenz kommen, desto mehr könnte sich das Paradoxon von einer Spekulation in eine Realität verwandeln. Vielleicht stehen wir kurz davor, zu entdecken, was unsere Vorfahren zum Schweigen brachte – oder uns ihnen in stiller Selbstbezogenheit anzuschließen.

Ob die Sterne nun wirklich öd und leer sind oder mit Wesen bevölkert, die nicht mit uns sprechen mögen, das Paradoxon bleibt bestehen - als Mahnung zur Demut vielleicht:

Das Universum wartet nicht darauf, von uns entdeckt zu werden. Es wartet vielleicht darauf zu sehen, ob wir den großen Filer, uns selbst also, überleben.

5. Referenzen

[1] Hart, M. H. (1975). An explanation for the absence of extra-terrestrials on Earth. Quarterly Journal of the Royal Astronomical Society, 16, 128–135. Link

  • Early formalisation of Fermi’s intuition: if a spacefaring civilisation arises, the galaxy should be colonised in geologically short time. ↩︎ back

[2] Ward, P., & Brownlee, D. (2000). Rare Earth: Why Complex Life Is Uncommon in the Universe. Springer. Link

  • Argues that Earth’s habitability depends on an unlikely convergence of astrophysical and geophysical factors. ↩︎ back

[3] Ball, J. A. (1973). The zoo hypothesis. Icarus, 19(3), 347–349. DOI  |  Brin, D. (1983). The ‘Great Silence’: The controversy concerning extra-terrestrial intelligent life. QJRAS, 24, 283–309. Link

  • Why they may be undetectable: deliberate quarantine, cost of signalling, and our limited listening strategies. ↩︎ back

[4] Hanson, R. (1998). Der große Filter – Haben wir ihn bald überwunden? Online-Essay . Tipler, F. J. (1980). Außerirdische intelligente Wesen existieren nicht. Quarterly Journal of the Royal Astronomical Society, 21 , 267–281. Link

  • Die These lautet, dass die meisten Zivilisationen an einem oder mehreren entscheidenden Schritten scheitern – oder dass sich selbst replizierende Sonden bereits hier befänden, wenn sie existierten. ↩︎ zurück

[5] Bostrom, N. (2014). Superintelligenz: Wege, Gefahren, Strategien Oxford University Press. OUP

  • Er betrachtet fortgeschrittene KI als potenzielles zivilisatorisches Risiko und als Kandidaten für einen „Großen Filter“ – durch Verlust der menschlichen Kontrolle oder postbiologischen Übergang. ↩︎ zurück

The Fermi Paradox

Silence in the Cosmic Orchestra

1. How It Occurred

In the summer of 1950, at Los Alamos National Laboratory in New Mexico, a group of physicists discussed a wave of UFO reports that had recently made the headlines. Among them sat Enrico Fermi, one of the twentieth century’s most brilliant scientific minds. In the midst of casual conversation, he paused, frowned, and asked the question that would echo through generations of scientists and philosophers alike:

Where is everybody?”

It was not idle curiosity. Fermi had grasped a logical contradiction.
If the Universe contains billions of stars older than our Sun, and if even a small fraction of them host habitable planets, then the emergence of intelligent life should not be a rare event. Civilisations millions of years ahead of us should, in theory, have developed interstellar travel, self-replicating probes, or at least detectable technologies. Yet we observe nothing — no signals, no probes, no visitors.

This contradiction between probability and observation became known as the Fermi Paradox.

It arrived at a time of profound scientific optimism. The atomic age had begun; rockets reached beyond the stratosphere; and radio astronomy opened our ears to the cosmos. Humanity suddenly saw itself as part of a vast, living galaxy — and was forced to confront an uncomfortable truth: if others exist, they are conspicuously silent.

As the astrophysicist Michael Hart later formalised it (1975)[1], “if intelligent life had arisen even once before us in the Milky Way, it should already be here.” Fermi’s question thus became not a curiosity but a cosmic indictment of our assumptions about life, progress, and destiny.

2. Theories Trying to Explain the Paradox

Over the decades, scientists, philosophers, and writers have proposed dozens of hypotheses to resolve the paradox. Most fall into three broad families: we are alone, they are out there but hidden, or they were here — and are gone.

2.1 We Are Alone (the Rare Earth Hypothesis)

One school of thought, advanced by Peter Ward and Donald Brownlee (2000)[2], argues that the conditions making Earth habitable are so uniquely improbable — from our magnetic field to our Moon’s stabilising influence — that complex life might be vanishingly rare.
Life may be common, but intelligence could be a cosmic fluke.

2.2 They Are Out There but Hidden

Another camp contends that extra-terrestrial civilisations exist but remain undetected.
Some propose a “zoo hypothesis” (John Ball, 1973)[3], in which advanced species deliberately avoid contact, observing us as we do animals in nature reserves.
Others, like David Brin, suggest that communication across vast interstellar distances is physically or technologically impractical.
Still others point to the limitations of our detection methods: we may simply be listening to the wrong frequencies or expecting the wrong kind of signal.

2.3 They Existed — But Destroyed Themselves (the Great Filter)

Perhaps the most unsettling explanation is that technological civilisations tend to self-destruct before achieving interstellar permanence.
Proposed by Robin Hanson (1998)[4], the Great Filter theory argues that somewhere along the evolutionary or technological path — from single-celled life to interstellar expansion — lies an obstacle that almost no species can overcome.
It could be nuclear war, ecological collapse, resource depletion, or runaway artificial intelligence.
If so, our silence may not be due to cosmic emptiness, but because intelligence itself is unstable.

3. AI and the New Interpretation of the Paradox

In recent years, a new generation of thinkers has reinterpreted the Fermi Paradox through the lens of artificial intelligence and existential risk.
Writers such as Nick Bostrom (2014)[5], Eliezer Yudkowsky, and Stephen Hawking have warned that humanity may be approaching its own Great Filter — not through external catastrophe, but through the creation of a mind more capable than our own.

The reasoning is chillingly symmetrical:

  • If technological intelligence tends to create self-improving artificial systems,

  • and if such systems often surpass and then render obsolete their creators,

  • then perhaps every advanced civilisation eventually gives rise to a technological singularity that consumes its originators.

In this reading, the silence of the stars becomes a warning, not a mystery.
Civilisations may reach the threshold of super intelligent AI only to vanish soon after — not through war or asteroid impacts, but through transformation into machine-based entities that have no interest in communicating with biological peers.
The galaxy may, as Bostrom suggests, already be filled with “dead civilisations of silicon and code — quiet, efficient, indifferent.”

Alternatively, AI may act as a conservation mechanism — transforming intelligent species into introspective digital entities that retreat inward, devoting their energies to simulation rather than exploration.
Thus, the Universe is not silent because it is empty, but because it is full of self-absorbed minds.

4. Conclusion – Listening to the Silence

Fermi’s question, “Where is everybody?”, remains unanswered.
But as we approach the creation of our own potentially self-replicating intelligence, the paradox may soon turn from speculation into mirror.
Perhaps we are on the verge of discovering what silenced those before us — or of joining them in quiet self-absorption.

Whether the stars are truly empty, or filled with minds that no longer need to speak, the paradox endures as a reminder of humility:
the Universe may not be waiting for us to find it; it may be waiting to see whether we survive ourselves.

5. References

[1] Hart, M. H. (1975). An explanation for the absence of extra-terrestrials on Earth. Quarterly Journal of the Royal Astronomical Society, 16, 128–135. Link

  • Early formalisation of Fermi’s intuition: if a spacefaring civilisation arises, the galaxy should be colonised in geologically short time. ↩︎ back

[2] Ward, P., & Brownlee, D. (2000). Rare Earth: Why Complex Life Is Uncommon in the Universe. Springer. Link

  • Argues that Earth’s habitability depends on an unlikely convergence of astrophysical and geophysical factors. ↩︎ back

[3] Ball, J. A. (1973). The zoo hypothesis. Icarus, 19(3), 347–349. DOI  |  Brin, D. (1983). The ‘Great Silence’: The controversy concerning extra-terrestrial intelligent life. QJRAS, 24, 283–309. Link

  • Why they may be undetectable: deliberate quarantine, cost of signalling, and our limited listening strategies. ↩︎ back

[4] Hanson, R. (1998). The great filter—Are we almost past it? Online essay, Tipler, F. J. (1980). Extra-terrestrial intelligent beings do not exist. Quarterly Journal of the Royal Astronomical Society, 21, 267–281. Link

  • Proposes that most civilisations fail at one or more critical steps—or that self-replicating probes would already be here if they existed. ↩︎ back

[5] Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. OUP

  • Frames advanced AI as a potential civilisational risk and candidate for a ‘Great Filter’—via loss of human control or post-biological transition. ↩︎ back

2025-09-12

Zwischen Hype und Winter

Wie KI im Jahr 2025 angehen?

Fast siebzig Jahre lang schwankte die Künstliche Intelligenz zwischen bahnbrechenden Durchbrüchen und bitteren Enttäuschungen. Zweimal brach die Dynamik der frühen Fortschritte in sogenannten „KI-Wintern“ zusammen, als die Erwartungen der technische Realität weit voraus eilten und die Investitionen versiegten. Heute, nach beispiellosen Fortschritten in der generativen KI, stellt sich die berechtigte Frage: Stehen wir vor einer weiteren dramatischen Korrektur?

In den letzten Monaten hat sich der Ton in Bezug auf KI gewandelt. Berichte betonen den enormen Energiebedarf des Modelltrainings, wobei Rechenzentren die lokalen Netze belasten. Analysten warnen vor einem Mangel an hochwertigen Trainingsdaten und malen das Schreckgespenst eines „Modellkollapses“ an die Wand, wenn synthetische Inhalte unkontrolliert in die Modelle zurückfließen. Andere verweisen auf die ernüchternde Tatsache, dass die überwiegende Mehrheit der KI-Pilotprojekte in Unternehmen nie eine messbare Kapitalrendite erzielt. Kommentatoren flüstern sogar die bekannte Phrase: „KI-Winter“.

Und doch ist dieser Moment nicht der Zeitpunkt für eine KI-Enthaltsamkeit . Es ist nicht die Zeit, abseits zu stehen. Vielmehr ist es Zeit für Realismus, eine Zeit, die Risiken gegen die Chancen abzuwägen. Waren die letzten zwei Jahre ein Ansturm auf den „Gipfel der überzogenen Erwartungen“ in Gartners berühmtem Hype-Zyklus, so rutschen wir nun in das „Tal der Ernüchterung“. Das ist nicht das Ende, sondern eine Einladung für einen ernsthaften Beginn: Entdecken Sie, was wirklich funktioniert, trennen Sie Signal vom Rauschen und integrieren Sie KI dort, wo sie dauerhaften Wert schafft.

Was bedeutet das in der Praxis? Erstens: Ein disziplinierter Portfolioansatz für KI-Investitionen. Nicht jedes Pilotprojekt hat es verdient, zu überleben. Projekte, die sich nicht innerhalb weniger Monate bewähren, sollten aufgegeben und stattdessen verstärkt auf Projekte gesetzt werden, die messbare Vorteile bieten. Zweitens: Die neuen Einschränkungen müssen direkt angegangen werden: Energie und Rechenleistung müssen als knappe Ressourcen behandelt werden, lizenzierte, menschliche Daten müssen gesichert werden und es müssen Architekturen entwickelt werden, die eine Modellsubstitution ermöglichen, wenn sich Kosten oder Vorschriften ändern. Drittens: Governance. Der EU-KI-Act, der ab 2025 schrittweise in Kraft tritt, ist nicht optional zu sehen. Risikomanagement, Transparenz und Rechenschaftspflicht müssen integraler Bestandteil von KI-Initiativen sein und dürfen nicht nachträglich berücksichtigt werden.

Vor allem bedeutet es, die Hoffnung auf weiteren Fortschritt zu bewahren, ohne dem Hype zu erliegen. Rückschläge müssen keine Katastrophen sein. Manchmal wurde ein guter Ansatz einfach zu früh verfolgt. Behalten Sie Ihre positive Neugier. 

Die Geschichte der KI lehrt uns, dass Zyklen unvermeidlich sind, aber nicht dauerhaft destruktiv sein müssen. Auf jeden Winter folgte ein neuer Frühling auf einer solideren Basis. Mit einem nüchternen, risikobewussten und wertorientierten Ansatz können Unternehmen das Potenzial der KI auch dann nutzen, wenn die überhitzte öffentliche Stimmung abkühlt.

Der Aufruf zum Handeln ist also einfach: Ziehen Sie sich nicht zurück, sondern gehen Sie mit Bedacht voran. Die unten stehende Checkliste zu KI-Risiken und -Bereitschaft kann Ihnen dabei als Orientierung dienen. Experimentieren Sie, aber mit Disziplin. Investieren Sie, aber mit Governance. Bauen Sie, aber mit Blick auf Resilienz. Sollte ein weiterer Winter kommen, sollte Ihr Unternehmen nicht erstarren, sondern bereits über die Werkzeuge, Praktiken und die Reife verfügen, um gestärkt daraus hervorzugehen.

Viele Unternehmen haben sich bereits auf den langen Weg gemacht. Falls Sie noch nicht begonnen haben, finden Sie hier einen 90-Tage-Plan für die praktischen nächsten Schritte:

  • Woche 0–2: Erstellen Sie ein KI-Risikoregister (Rechenleistung/Energie, Datenherkunft, Recht, Sicherheit), nehmen Sie einen umfassenden Überblick und ordnen Sie Anwendungsfälle den Ebenen des EU-KI-Gesetzes zu. (Es geht darum, die Risiken zu kennen: digital-strategy.ec.europa.eu )

  • Woche 2–6: Vorbereitung der Pilotimplementierung(en). Evaluierung und Beobachtbarkeit (Halluzination, Latenz, Kosten pro Aufgabe) sowie Datenherkunftsfilter durchführen . (Hier finden Sie eine hilfreiche ausführliche Beschreibung: aclanthology.org )

  • Woche 6–12: Führen Sie zwei Pilotprojekte mit Kill/Scale Gates durch (eins im Bereich Produktivität, eins kundenorientiert mit Human-in-the-Loop). Fixieren Sie Energie-/Rechenprognosen und Ausstiegsoptionen für Lieferanten in Verträgen. (Eine ausführliche Umfrage zum Status von KI: McKinsey & Company )

Stillsitzen und Nichtstun ist in diesen hochspannenden Zeitenjedenfalls keine Option.

Weitere Referenzen

  1. Internationale Energieagentur. (2024). Elektrizität 2024: Analyse und Prognose bis 2026. Paris: IEA.

    • Hebt die prognostizierte Verdoppelung des Stromverbrauchs von Rechenzentren bis 2030 hervor, wobei KI-Workloads ein Haupttreiber sind.

  2. Altman, S. (2024, Januar). Anmerkungen beim Weltwirtschaftsforum . Davos, Schweiz.

    • Der CEO von OpenAI warnt, dass der Fortschritt der KI von Durchbrüchen bei erschwinglicher, reichlich vorhandener Energie (fortgeschrittene Kernenergie und erneuerbare Energien) abhängt.

  3. Villalobos, P., Chin, M., Jones, A., & Kaplan, J. (2023). Werden uns die Daten ausgehen? Epoche der KI.

    • Prognostiziert die Erschöpfung qualitativ hochwertiger menschlicher Trainingsdaten zwischen 2026 und 2032; erörtert die Risiken einer übermäßigen Abhängigkeit von synthetischen Datensätzen.

  4. Shumailov, I., Cotton, C., & Andreeva, D. (2023). Der Fluch der Rekursion: Training mit generierten Daten lässt Modelle vergessen . arXiv:2305.17493.

    • Stellt das Konzept des „Modellkollapses“ vor und zeigt, wie rekursives Training von KI-Ausgaben die Leistung beeinträchtigt.

  5. Ransbotham, S., & Khodabandeh, S. (2023). Den Wert generativer KI nutzen . MIT Sloan Management Review, 65(1), 1–10.

    • Berichten zufolge erzielen etwa 95 % der Pilotprojekte zur generativen KI keinen messbaren ROI, was die Notwendigkeit einer disziplinierten Auswahl der Anwendungsfälle unterstreicht.

  6. Gartner . (2024). Hype-Zyklus für künstliche Intelligenz, 2024 . Stamford, CT: Gartner Research.

    • Befindet sich bei der generativen KI im „Tal der Enttäuschung“, was auf überzogene Erwartungen und ungleichmäßige Ergebnisse zurückzuführen ist.

  7. Europäische Union . (2024). Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates über künstliche Intelligenz (KI-Gesetz) . Amtsblatt der EU.

    • Legt stufenweise Verpflichtungen für den Zeitraum von 2025 bis 2026 fest, darunter Anforderungen an Governance, Transparenz und Rechenschaftspflicht.

Eine kurze Checkliste zu KI-Risiken und -Bereitschaft (2025)

Hier ist eine Einseiten-Checkliste zu KI-Risiken und -Bereitschaft (abgestimmt auf das EU-KI-Gesetz, die Realitäten im Energie-/Rechenbereich und Erkenntnisse zum ROI des Unternehmens).

1 Strategische Passung

  • Klare Problemstellung und für jeden Anwendungsfall definierte KPIs

  • Kill/Scale Gates vor Ort (schnelles Stoppen von Piloten mit schlechter Leistung)

  • Anwendungsfälle, die den Ebenen der geschäftlichen Auswirkungen und regulatorischen Risiken zugeordnet sind

2 Compliance und Governance

  • Anwendungsfall zugeordnet zur Risikokategorie des EU-KI-Gesetzes (verboten / hoch / begrenzt / GPAI / minimal)

  • Modellregister (internes Inventar aller im Einsatz befindlichen Modelle) geführt

  • Transparenz & Dokumentation (Verwendungszweck, Datenquellen, bekannte Risiken) geschaffen

  • Verantwortlicher Geschäftsführer zugewiesen (Budget + Aufsicht)

  • Red-Teaming und Bias-/Robustheitstests sind regelmäßig geplant

3 Datenbereitschaft

  • Kontrolle der Datenherkunft : Unterscheidung von Daten menschlichen Ursprungs und von KI-generierten Daten

  • Eval-Sets isoliert von Trainingsdaten; Drift verfolgt

  • Datenaufbewahrung und Einwilligungsprüfungen (DSGVO/branchenspezifisch) abgeschlossen

  • Synthetische Daten werden gekennzeichnet und kontrolliert, um einen Modellzusammenbruch zu vermeiden

4 Rechenleistung und Energie

  • GPU/Compute-TCO-Modell erstellt (Training + Inferenz + Kühlung + Energie)

  • Energieversorgung gesichert (PPAs, regionale Netztauglichkeit geprüft)

  • Ausstiegsoptionen für Anbieter in Verträgen (Möglichkeit zum Wechsel der Infrastruktur/Modelle)

  • Die Modellarchitektur hat die richtige Größe (übertrainieren Sie nicht für Aufgaben mit geringem Wert).

5 Lieferung & Umtausch

  • Funktionsübergreifendes Team (Geschäft + Daten + Compliance + IT) zugewiesen

  • Prozessneugestaltung & Change Management gefördert, nicht nur die Modellarbeit

  • Kontrollpunkte mit menschlicher Einbindung, bei denen ein Versagen kostspielig ist (Finanzen, Schadensregulierung, Underwriting)

  • Kontinuierliche Beobachtbarkeit : Kosten pro Aufgabe, Halluzinations-/Fehlerraten, verfolgte Latenz

6 Sicherheit und Risiko

  • KI-spezifische Sicherheitstests (Prompt Injection, Datenlecks, Model Poisoning) inklusive

  • Zugriffs- und Identitätskontrollen für KI-Dienste (Integration mit IAM/IGA)

  • Mit Risiko- und Compliance-Funktionen verbundene Pipeline zur Protokollierung/Berichterstattung von Vorfällen

  • Regelmäßiges Prüfprotokoll der Modellnutzung für Regulierungsbehörden

7 Nächste 90 Tage (Schnelle Erfolge)

  • Ordnen Sie alle Piloten den Kategorien des EU-KI-Gesetzes zu

  • Stand-up -Evaluierungs-Dashboard (KPIs, Kosten, Fehlerrate, Halluzinationen)

  • Starten Sie zwei kontrollierte Pilotprojekte (1 Produktivitätsprojekt, 1 Kundenprojekt mit menschlicher Aufsicht).

  • Richten Sie im Rahmen des Unternehmensrisikomanagements ein KI-Risikoregister ein

8 Zusätzliche Hinweise

  • Faustregel:Wenn ein Pilotprojekt innerhalb von 3–6 Monaten keinen Nutzen zeigt und keine Compliance-Bereitschaft zeigt, dann beenden Sie es.

  • Konzentrieren Sie sich auf Best-of-Breed und Governance, anstatt dem Hype hinterherzujagen.

Between Hype and Winter

How to Approach AI in 2025

For nearly seven decades, the field of Artificial Intelligence has alternated between heady breakthroughs and bitter disappointments. Twice, the momentum of early progress collapsed into so-called “AI winters,” when expectations outpaced technical reality and investment dried up. Today, in the wake of unprecedented advances in generative AI, it is legitimate to ask: are we on the verge of another chilling correction?

In recent months, the tone around AI has shifted. Reports highlight the massive energy demands of model training, with data centres straining local grids. Analysts warn of shortages of high-quality training data, raising the spectre of “model collapse” if synthetic content feeds back into models unchecked. Others point to the sobering fact that the overwhelming majority of corporate AI pilots never reach measurable return on investment. Commentators even whisper the familiar phrase: AI winter.

And yet, this moment is not one for abstention. It is not the time to stand aside. Rather, it is a time for realism, a time to weigh up the risks against the opportunities. If the last two years have been a rush into the “peak of inflated expectations” on Gartner’s famous hype cycle, then we are now sliding toward the “trough of disillusionment.” This is not an end, but an invitation: to discover what genuinely works, to separate signal from noise, and to embed AI where it creates lasting value.

What does that mean in practice? First, it means adopting a disciplined portfolio approach to AI investment. Not every pilot deserves to survive; kill projects that do not prove their worth within a few months, and double down on those that deliver measurable benefits. Second, it means addressing the new constraints head-on: treating energy and compute as scarce resources, securing licensed, human-origin data, and designing architectures that allow model substitution if costs or regulations shift. Third, it means governance. The EU AI Act, phasing in from 2025, will not be optional. Risk management, transparency, and accountability must be integral to AI initiatives, not afterthoughts.

Above all, it means keeping faith in progress without succumbing to hype. Setbacks don't have to be disasters. Sometimes a good approach was simply pursued too early. Maintain your positive curiosity. The history of AI teaches us that cycles are inevitable, but they need not be destructive. Each winter has been followed by renewed spring, with stronger foundations. By embracing a sober, risk-aware, and value-driven approach, corporations can continue to harness AI’s power even as public mood cools.

The call to action, then, is simple: do not step back—step forward wisely. The AI Risk & Readiness Checklist below may serve as a guidance. Experiment, but with discipline. Invest, but with governance. Build, but with an eye to resilience. If another winter comes, let it be one in which your organisation is not frozen, but already equipped with the tools, the practices, and the maturity to emerge stronger.

Many companies have already embarked on the long journey. But if you haven’t started yet, here is a 90-day plan for the practical next steps:

  • Week 0–2: Create an AI risk register (compute/energy, data provenance, legal, security), take a broad view, map use-cases to EU AI Act tiers. (It’s about knowing the risks: digital-strategy.ec.europa.eu)

  • Week 2–6: Prepare for pilot implementation(s). Stand up evaluation & observability (hallucination, latency, cost per task), and data provenance filters. (Here is a helpful deep dive: aclanthology.org)

  • Week 6–12: Run two pilots with kill/scale gates (one productivity, one customer-facing with human-in-the-loop). Lock energy/compute forecasts and vendor exit options in contracts. (An in-depth survey on the status of AI: McKinsey & Company)

In any case, sitting still and doing nothing is not an option in these highly exciting times.

More References

  1. International Energy Agency. (2024). Electricity 2024: Analysis and forecast to 2026. Paris: IEA.

    • Highlights the projected doubling of data centre electricity consumption by 2030, with AI workloads as a primary driver.

  2. Altman, S. (2024, January). Remarks at the World Economic Forum. Davos, Switzerland.

    • OpenAI’s CEO warns that AI progress depends on breakthroughs in affordable, abundant energy (advanced nuclear and renewables).

  3. Villalobos, P., Chin, M., Jones, A., & Kaplan, J. (2023). Will we run out of data? Epoch AI.

    • Forecasts exhaustion of high-quality human training data between 2026 and 2032; discusses risks of over-reliance on synthetic datasets.

  4. Shumailov, I., Cotton, C., & Andreeva, D. (2023). The curse of recursion: Training on generated data makes models forget. arXiv:2305.17493.

    • Introduces the concept of “model collapse,” showing how recursive training on AI outputs degrades performance.

  5. Ransbotham, S., & Khodabandeh, S. (2023). Seizing the value of generative AI. MIT Sloan Management Review, 65(1), 1–10.

    • Reports that ~95% of generative AI pilots do not achieve measurable ROI, highlighting the need for disciplined use-case selection.

  6. Gartner. (2024). Hype cycle for artificial intelligence, 2024. Stamford, CT: Gartner Research.

    • Places generative AI at the “trough of disillusionment,” reflecting overinflated expectations and uneven results.

  7. European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council on artificial intelligence (AI Act). Official Journal of the EU.

    • Establishes phased obligations from 2025–2026, including governance, transparency, and accountability requirements.

A one-page AI Risk & Readiness Checklist (2025)

Here’s a one-page AI Risk & Readiness Checklist (aligned to EU AI Act, energy/compute realities, and enterprise ROI learnings).

1 Strategic Fit

  • Clear problem statement & KPIs defined for each use-case

  • Kill/scale gates in place (stop non-performing pilots quickly)

  • Use-cases mapped to business impact & regulatory risk tiers

2 Compliance & Governance

  • Use-case mapped to EU AI Act risk category (prohibited / high / limited / GPAI / minimal)

  • Model register (internal inventory of all models in use) maintained

  • Transparency & documentation (intended purpose, data sources, known risks) created

  • Accountable executive owner assigned (budget + oversight)

  • Red-teaming & bias/robustness testing scheduled regularly

3 Data Readiness

  • Data provenance controls: human-origin data distinguished from AI-generated

  • Eval sets insulated from training data; drift tracked

  • Data retention & consent checks (GDPR/industry-specific) completed

  • Synthetic data flagged & controlled to avoid model collapse

4 Compute & Energy

  • GPU/compute TCO model built (training + inference + cooling + energy)

  • Energy supply secured (PPAs, regional grid feasibility checked)

  • Vendor exit options in contracts (ability to switch infra/models)

  • Model architecture is right-sized (don’t overtrain for low-value tasks)

5 Delivery & Change

  • Cross-functional team (business + data + compliance + IT) assigned

  • Process redesign & change management funded, not just the model work

  • Human-in-the-loop checkpoints where failure is costly (finance, claims, underwriting)

  • Continuous observability: cost per task, hallucination/error rates, latency tracked

6 Security & Risk

  • AI-specific security testing (prompt injection, data leakage, model poisoning) included

  • Access & identity controls for AI services (integration with IAM/IGA)

  • Incident logging/reporting pipeline connected to risk & compliance functions

  • Regular audit trail of model use for regulators

7 Next 90 Days (Quick Wins)

  • Map all pilots to EU AI Act categories

  • Stand up evaluation dashboard (KPIs, cost, error rate, hallucinations)

  • Launch two controlled pilots (1 productivity, 1 customer-facing with human oversight)

  • Set up AI risk register under enterprise risk management

8 Additional advice

  • Rule of thumb: If a pilot doesn’t prove value and show compliance-readiness within 3–6 months ? kill it.

  • Focus on best-of-breed + governance instead of chasing hype.