My near philosophical musings about the world in general its problems and possible ways out.

2025-09-12

Zwischen Hype und Winter

Wie KI im Jahr 2025 angehen?

Fast siebzig Jahre lang schwankte die Künstliche Intelligenz zwischen bahnbrechenden Durchbrüchen und bitteren Enttäuschungen. Zweimal brach die Dynamik der frühen Fortschritte in sogenannten „KI-Wintern“ zusammen, als die Erwartungen der technische Realität weit voraus eilten und die Investitionen versiegten. Heute, nach beispiellosen Fortschritten in der generativen KI, stellt sich die berechtigte Frage: Stehen wir vor einer weiteren dramatischen Korrektur?

In den letzten Monaten hat sich der Ton in Bezug auf KI gewandelt. Berichte betonen den enormen Energiebedarf des Modelltrainings, wobei Rechenzentren die lokalen Netze belasten. Analysten warnen vor einem Mangel an hochwertigen Trainingsdaten und malen das Schreckgespenst eines „Modellkollapses“ an die Wand, wenn synthetische Inhalte unkontrolliert in die Modelle zurückfließen. Andere verweisen auf die ernüchternde Tatsache, dass die überwiegende Mehrheit der KI-Pilotprojekte in Unternehmen nie eine messbare Kapitalrendite erzielt. Kommentatoren flüstern sogar die bekannte Phrase: „KI-Winter“.

Und doch ist dieser Moment nicht der Zeitpunkt für eine KI-Enthaltsamkeit . Es ist nicht die Zeit, abseits zu stehen. Vielmehr ist es Zeit für Realismus, eine Zeit, die Risiken gegen die Chancen abzuwägen. Waren die letzten zwei Jahre ein Ansturm auf den „Gipfel der überzogenen Erwartungen“ in Gartners berühmtem Hype-Zyklus, so rutschen wir nun in das „Tal der Ernüchterung“. Das ist nicht das Ende, sondern eine Einladung für einen ernsthaften Beginn: Entdecken Sie, was wirklich funktioniert, trennen Sie Signal vom Rauschen und integrieren Sie KI dort, wo sie dauerhaften Wert schafft.

Was bedeutet das in der Praxis? Erstens: Ein disziplinierter Portfolioansatz für KI-Investitionen. Nicht jedes Pilotprojekt hat es verdient, zu überleben. Projekte, die sich nicht innerhalb weniger Monate bewähren, sollten aufgegeben und stattdessen verstärkt auf Projekte gesetzt werden, die messbare Vorteile bieten. Zweitens: Die neuen Einschränkungen müssen direkt angegangen werden: Energie und Rechenleistung müssen als knappe Ressourcen behandelt werden, lizenzierte, menschliche Daten müssen gesichert werden und es müssen Architekturen entwickelt werden, die eine Modellsubstitution ermöglichen, wenn sich Kosten oder Vorschriften ändern. Drittens: Governance. Der EU-KI-Act, der ab 2025 schrittweise in Kraft tritt, ist nicht optional zu sehen. Risikomanagement, Transparenz und Rechenschaftspflicht müssen integraler Bestandteil von KI-Initiativen sein und dürfen nicht nachträglich berücksichtigt werden.

Vor allem bedeutet es, die Hoffnung auf weiteren Fortschritt zu bewahren, ohne dem Hype zu erliegen. Rückschläge müssen keine Katastrophen sein. Manchmal wurde ein guter Ansatz einfach zu früh verfolgt. Behalten Sie Ihre positive Neugier. 

Die Geschichte der KI lehrt uns, dass Zyklen unvermeidlich sind, aber nicht dauerhaft destruktiv sein müssen. Auf jeden Winter folgte ein neuer Frühling auf einer solideren Basis. Mit einem nüchternen, risikobewussten und wertorientierten Ansatz können Unternehmen das Potenzial der KI auch dann nutzen, wenn die überhitzte öffentliche Stimmung abkühlt.

Der Aufruf zum Handeln ist also einfach: Ziehen Sie sich nicht zurück, sondern gehen Sie mit Bedacht voran. Die unten stehende Checkliste zu KI-Risiken und -Bereitschaft kann Ihnen dabei als Orientierung dienen. Experimentieren Sie, aber mit Disziplin. Investieren Sie, aber mit Governance. Bauen Sie, aber mit Blick auf Resilienz. Sollte ein weiterer Winter kommen, sollte Ihr Unternehmen nicht erstarren, sondern bereits über die Werkzeuge, Praktiken und die Reife verfügen, um gestärkt daraus hervorzugehen.

Viele Unternehmen haben sich bereits auf den langen Weg gemacht. Falls Sie noch nicht begonnen haben, finden Sie hier einen 90-Tage-Plan für die praktischen nächsten Schritte:

  • Woche 0–2: Erstellen Sie ein KI-Risikoregister (Rechenleistung/Energie, Datenherkunft, Recht, Sicherheit), nehmen Sie einen umfassenden Überblick und ordnen Sie Anwendungsfälle den Ebenen des EU-KI-Gesetzes zu. (Es geht darum, die Risiken zu kennen: digital-strategy.ec.europa.eu )

  • Woche 2–6: Vorbereitung der Pilotimplementierung(en). Evaluierung und Beobachtbarkeit (Halluzination, Latenz, Kosten pro Aufgabe) sowie Datenherkunftsfilter durchführen . (Hier finden Sie eine hilfreiche ausführliche Beschreibung: aclanthology.org )

  • Woche 6–12: Führen Sie zwei Pilotprojekte mit Kill/Scale Gates durch (eins im Bereich Produktivität, eins kundenorientiert mit Human-in-the-Loop). Fixieren Sie Energie-/Rechenprognosen und Ausstiegsoptionen für Lieferanten in Verträgen. (Eine ausführliche Umfrage zum Status von KI: McKinsey & Company )

Stillsitzen und Nichtstun ist in diesen hochspannenden Zeitenjedenfalls keine Option.

Weitere Referenzen

  1. Internationale Energieagentur. (2024). Elektrizität 2024: Analyse und Prognose bis 2026. Paris: IEA.

    • Hebt die prognostizierte Verdoppelung des Stromverbrauchs von Rechenzentren bis 2030 hervor, wobei KI-Workloads ein Haupttreiber sind.

  2. Altman, S. (2024, Januar). Anmerkungen beim Weltwirtschaftsforum . Davos, Schweiz.

    • Der CEO von OpenAI warnt, dass der Fortschritt der KI von Durchbrüchen bei erschwinglicher, reichlich vorhandener Energie (fortgeschrittene Kernenergie und erneuerbare Energien) abhängt.

  3. Villalobos, P., Chin, M., Jones, A., & Kaplan, J. (2023). Werden uns die Daten ausgehen? Epoche der KI.

    • Prognostiziert die Erschöpfung qualitativ hochwertiger menschlicher Trainingsdaten zwischen 2026 und 2032; erörtert die Risiken einer übermäßigen Abhängigkeit von synthetischen Datensätzen.

  4. Shumailov, I., Cotton, C., & Andreeva, D. (2023). Der Fluch der Rekursion: Training mit generierten Daten lässt Modelle vergessen . arXiv:2305.17493.

    • Stellt das Konzept des „Modellkollapses“ vor und zeigt, wie rekursives Training von KI-Ausgaben die Leistung beeinträchtigt.

  5. Ransbotham, S., & Khodabandeh, S. (2023). Den Wert generativer KI nutzen . MIT Sloan Management Review, 65(1), 1–10.

    • Berichten zufolge erzielen etwa 95 % der Pilotprojekte zur generativen KI keinen messbaren ROI, was die Notwendigkeit einer disziplinierten Auswahl der Anwendungsfälle unterstreicht.

  6. Gartner . (2024). Hype-Zyklus für künstliche Intelligenz, 2024 . Stamford, CT: Gartner Research.

    • Befindet sich bei der generativen KI im „Tal der Enttäuschung“, was auf überzogene Erwartungen und ungleichmäßige Ergebnisse zurückzuführen ist.

  7. Europäische Union . (2024). Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates über künstliche Intelligenz (KI-Gesetz) . Amtsblatt der EU.

    • Legt stufenweise Verpflichtungen für den Zeitraum von 2025 bis 2026 fest, darunter Anforderungen an Governance, Transparenz und Rechenschaftspflicht.

Eine kurze Checkliste zu KI-Risiken und -Bereitschaft (2025)

Hier ist eine Einseiten-Checkliste zu KI-Risiken und -Bereitschaft (abgestimmt auf das EU-KI-Gesetz, die Realitäten im Energie-/Rechenbereich und Erkenntnisse zum ROI des Unternehmens).

1 Strategische Passung

  • Klare Problemstellung und für jeden Anwendungsfall definierte KPIs

  • Kill/Scale Gates vor Ort (schnelles Stoppen von Piloten mit schlechter Leistung)

  • Anwendungsfälle, die den Ebenen der geschäftlichen Auswirkungen und regulatorischen Risiken zugeordnet sind

2 Compliance und Governance

  • Anwendungsfall zugeordnet zur Risikokategorie des EU-KI-Gesetzes (verboten / hoch / begrenzt / GPAI / minimal)

  • Modellregister (internes Inventar aller im Einsatz befindlichen Modelle) geführt

  • Transparenz & Dokumentation (Verwendungszweck, Datenquellen, bekannte Risiken) geschaffen

  • Verantwortlicher Geschäftsführer zugewiesen (Budget + Aufsicht)

  • Red-Teaming und Bias-/Robustheitstests sind regelmäßig geplant

3 Datenbereitschaft

  • Kontrolle der Datenherkunft : Unterscheidung von Daten menschlichen Ursprungs und von KI-generierten Daten

  • Eval-Sets isoliert von Trainingsdaten; Drift verfolgt

  • Datenaufbewahrung und Einwilligungsprüfungen (DSGVO/branchenspezifisch) abgeschlossen

  • Synthetische Daten werden gekennzeichnet und kontrolliert, um einen Modellzusammenbruch zu vermeiden

4 Rechenleistung und Energie

  • GPU/Compute-TCO-Modell erstellt (Training + Inferenz + Kühlung + Energie)

  • Energieversorgung gesichert (PPAs, regionale Netztauglichkeit geprüft)

  • Ausstiegsoptionen für Anbieter in Verträgen (Möglichkeit zum Wechsel der Infrastruktur/Modelle)

  • Die Modellarchitektur hat die richtige Größe (übertrainieren Sie nicht für Aufgaben mit geringem Wert).

5 Lieferung & Umtausch

  • Funktionsübergreifendes Team (Geschäft + Daten + Compliance + IT) zugewiesen

  • Prozessneugestaltung & Change Management gefördert, nicht nur die Modellarbeit

  • Kontrollpunkte mit menschlicher Einbindung, bei denen ein Versagen kostspielig ist (Finanzen, Schadensregulierung, Underwriting)

  • Kontinuierliche Beobachtbarkeit : Kosten pro Aufgabe, Halluzinations-/Fehlerraten, verfolgte Latenz

6 Sicherheit und Risiko

  • KI-spezifische Sicherheitstests (Prompt Injection, Datenlecks, Model Poisoning) inklusive

  • Zugriffs- und Identitätskontrollen für KI-Dienste (Integration mit IAM/IGA)

  • Mit Risiko- und Compliance-Funktionen verbundene Pipeline zur Protokollierung/Berichterstattung von Vorfällen

  • Regelmäßiges Prüfprotokoll der Modellnutzung für Regulierungsbehörden

7 Nächste 90 Tage (Schnelle Erfolge)

  • Ordnen Sie alle Piloten den Kategorien des EU-KI-Gesetzes zu

  • Stand-up -Evaluierungs-Dashboard (KPIs, Kosten, Fehlerrate, Halluzinationen)

  • Starten Sie zwei kontrollierte Pilotprojekte (1 Produktivitätsprojekt, 1 Kundenprojekt mit menschlicher Aufsicht).

  • Richten Sie im Rahmen des Unternehmensrisikomanagements ein KI-Risikoregister ein

8 Zusätzliche Hinweise

  • Faustregel:Wenn ein Pilotprojekt innerhalb von 3–6 Monaten keinen Nutzen zeigt und keine Compliance-Bereitschaft zeigt, dann beenden Sie es.

  • Konzentrieren Sie sich auf Best-of-Breed und Governance, anstatt dem Hype hinterherzujagen.

Between Hype and Winter

How to Approach AI in 2025

For nearly seven decades, the field of Artificial Intelligence has alternated between heady breakthroughs and bitter disappointments. Twice, the momentum of early progress collapsed into so-called “AI winters,” when expectations outpaced technical reality and investment dried up. Today, in the wake of unprecedented advances in generative AI, it is legitimate to ask: are we on the verge of another chilling correction?

In recent months, the tone around AI has shifted. Reports highlight the massive energy demands of model training, with data centres straining local grids. Analysts warn of shortages of high-quality training data, raising the spectre of “model collapse” if synthetic content feeds back into models unchecked. Others point to the sobering fact that the overwhelming majority of corporate AI pilots never reach measurable return on investment. Commentators even whisper the familiar phrase: AI winter.

And yet, this moment is not one for abstention. It is not the time to stand aside. Rather, it is a time for realism, a time to weigh up the risks against the opportunities. If the last two years have been a rush into the “peak of inflated expectations” on Gartner’s famous hype cycle, then we are now sliding toward the “trough of disillusionment.” This is not an end, but an invitation: to discover what genuinely works, to separate signal from noise, and to embed AI where it creates lasting value.

What does that mean in practice? First, it means adopting a disciplined portfolio approach to AI investment. Not every pilot deserves to survive; kill projects that do not prove their worth within a few months, and double down on those that deliver measurable benefits. Second, it means addressing the new constraints head-on: treating energy and compute as scarce resources, securing licensed, human-origin data, and designing architectures that allow model substitution if costs or regulations shift. Third, it means governance. The EU AI Act, phasing in from 2025, will not be optional. Risk management, transparency, and accountability must be integral to AI initiatives, not afterthoughts.

Above all, it means keeping faith in progress without succumbing to hype. Setbacks don't have to be disasters. Sometimes a good approach was simply pursued too early. Maintain your positive curiosity. The history of AI teaches us that cycles are inevitable, but they need not be destructive. Each winter has been followed by renewed spring, with stronger foundations. By embracing a sober, risk-aware, and value-driven approach, corporations can continue to harness AI’s power even as public mood cools.

The call to action, then, is simple: do not step back—step forward wisely. The AI Risk & Readiness Checklist below may serve as a guidance. Experiment, but with discipline. Invest, but with governance. Build, but with an eye to resilience. If another winter comes, let it be one in which your organisation is not frozen, but already equipped with the tools, the practices, and the maturity to emerge stronger.

Many companies have already embarked on the long journey. But if you haven’t started yet, here is a 90-day plan for the practical next steps:

  • Week 0–2: Create an AI risk register (compute/energy, data provenance, legal, security), take a broad view, map use-cases to EU AI Act tiers. (It’s about knowing the risks: digital-strategy.ec.europa.eu)

  • Week 2–6: Prepare for pilot implementation(s). Stand up evaluation & observability (hallucination, latency, cost per task), and data provenance filters. (Here is a helpful deep dive: aclanthology.org)

  • Week 6–12: Run two pilots with kill/scale gates (one productivity, one customer-facing with human-in-the-loop). Lock energy/compute forecasts and vendor exit options in contracts. (An in-depth survey on the status of AI: McKinsey & Company)

In any case, sitting still and doing nothing is not an option in these highly exciting times.

More References

  1. International Energy Agency. (2024). Electricity 2024: Analysis and forecast to 2026. Paris: IEA.

    • Highlights the projected doubling of data centre electricity consumption by 2030, with AI workloads as a primary driver.

  2. Altman, S. (2024, January). Remarks at the World Economic Forum. Davos, Switzerland.

    • OpenAI’s CEO warns that AI progress depends on breakthroughs in affordable, abundant energy (advanced nuclear and renewables).

  3. Villalobos, P., Chin, M., Jones, A., & Kaplan, J. (2023). Will we run out of data? Epoch AI.

    • Forecasts exhaustion of high-quality human training data between 2026 and 2032; discusses risks of over-reliance on synthetic datasets.

  4. Shumailov, I., Cotton, C., & Andreeva, D. (2023). The curse of recursion: Training on generated data makes models forget. arXiv:2305.17493.

    • Introduces the concept of “model collapse,” showing how recursive training on AI outputs degrades performance.

  5. Ransbotham, S., & Khodabandeh, S. (2023). Seizing the value of generative AI. MIT Sloan Management Review, 65(1), 1–10.

    • Reports that ~95% of generative AI pilots do not achieve measurable ROI, highlighting the need for disciplined use-case selection.

  6. Gartner. (2024). Hype cycle for artificial intelligence, 2024. Stamford, CT: Gartner Research.

    • Places generative AI at the “trough of disillusionment,” reflecting overinflated expectations and uneven results.

  7. European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council on artificial intelligence (AI Act). Official Journal of the EU.

    • Establishes phased obligations from 2025–2026, including governance, transparency, and accountability requirements.

A one-page AI Risk & Readiness Checklist (2025)

Here’s a one-page AI Risk & Readiness Checklist (aligned to EU AI Act, energy/compute realities, and enterprise ROI learnings).

1 Strategic Fit

  • Clear problem statement & KPIs defined for each use-case

  • Kill/scale gates in place (stop non-performing pilots quickly)

  • Use-cases mapped to business impact & regulatory risk tiers

2 Compliance & Governance

  • Use-case mapped to EU AI Act risk category (prohibited / high / limited / GPAI / minimal)

  • Model register (internal inventory of all models in use) maintained

  • Transparency & documentation (intended purpose, data sources, known risks) created

  • Accountable executive owner assigned (budget + oversight)

  • Red-teaming & bias/robustness testing scheduled regularly

3 Data Readiness

  • Data provenance controls: human-origin data distinguished from AI-generated

  • Eval sets insulated from training data; drift tracked

  • Data retention & consent checks (GDPR/industry-specific) completed

  • Synthetic data flagged & controlled to avoid model collapse

4 Compute & Energy

  • GPU/compute TCO model built (training + inference + cooling + energy)

  • Energy supply secured (PPAs, regional grid feasibility checked)

  • Vendor exit options in contracts (ability to switch infra/models)

  • Model architecture is right-sized (don’t overtrain for low-value tasks)

5 Delivery & Change

  • Cross-functional team (business + data + compliance + IT) assigned

  • Process redesign & change management funded, not just the model work

  • Human-in-the-loop checkpoints where failure is costly (finance, claims, underwriting)

  • Continuous observability: cost per task, hallucination/error rates, latency tracked

6 Security & Risk

  • AI-specific security testing (prompt injection, data leakage, model poisoning) included

  • Access & identity controls for AI services (integration with IAM/IGA)

  • Incident logging/reporting pipeline connected to risk & compliance functions

  • Regular audit trail of model use for regulators

7 Next 90 Days (Quick Wins)

  • Map all pilots to EU AI Act categories

  • Stand up evaluation dashboard (KPIs, cost, error rate, hallucinations)

  • Launch two controlled pilots (1 productivity, 1 customer-facing with human oversight)

  • Set up AI risk register under enterprise risk management

8 Additional advice

  • Rule of thumb: If a pilot doesn’t prove value and show compliance-readiness within 3–6 months ? kill it.

  • Focus on best-of-breed + governance instead of chasing hype.