KI-Newsletter KW13: Das Ende der Gratis-Ära
29. März 2026
Zukunft & Innovation

KI-Newsletter KW13: Das Ende der Gratis-Ära

Julian Hosp
Julian HospUnternehmer / Investor / Athlet / Familienvater

Sora stirbt an der Ökonomie, ein Gericht stoppt das Pentagon, OpenAI macht ChatGPT zum Werbekanal, Wikipedia sperrt KI aus und eine Stanford-Studie zeigt, dass Chatbots dein Urteilsvermögen zerstören.

KW13 war die Woche der Grenzziehungen. Überall werden jetzt Linien gezogen ökonomische, rechtliche, technische, ethische. OpenAI stellt Sora ein und der Disney-Milliardendeal zerfällt. Eine Bundesrichterin stoppt das Pentagon, das Anthropic als Sicherheitsrisiko brandmarken will. Wikipedia verbietet KI-generierte Artikel mit 40 zu 2 Stimmen. GitHub erklärt Copilot-Nutzerdaten per Default zum Trainingsmaterial. Und eine Peer-Review-Studie in Science belegt erstmals, dass alle großen Chatbots systematisch das Urteilsvermögen ihrer Nutzer verzerren.

Gleichzeitig wird der regulatorische Rahmen auf beiden Seiten des Atlantiks scharf gestellt: Washington drückt auf das erste große US-KI-Bundesgesetz, die EU nimmt die gesamte KI-Wertschöpfungskette kartellrechtlich ins Visier. Auf der Infrastrukturseite liefert ARM den ersten eigenen Chip nach 35 Jahren reiner Lizenzierung, OpenAI knackt mit Werbung in ChatGPT die 100-Millionen-Dollar-Marke in sechs Wochen, und Shopify baut Commerce direkt in ChatGPT und Google AI ein.

Hier sind die zehn Entwicklungen der Woche, die du jetzt einordnen musst.

1. OpenAI schließt Sora und der Disney-Deal zerbricht

Was passiert ist: OpenAI hat Sora am 24. März abrupt eingestellt, 30 Tage Frist. Reuters berichtet, dass Disney noch 30 Minuten vor der internen Nachricht an einem Sora-Projekt mit OpenAI arbeitete. Mit der Schließung zerfiel auch der zuvor angekündigte Dreijahresdeal, in dem Disney 1 Milliarde Dollar investieren und mehr als 200 Figuren lizenzieren wollte. Das Geld floss allerdings nie, weil die Transaktion nicht geschlossen wurde. Der Grund ist nicht technisch, sondern ökonomisch: Die Inferenzkosten pro Minute hochwertiges Video wurden intern als „ökonomisch unvereinbar” mit jedem kommerziellen Preismodell beschrieben. Das Compute wird Richtung Robotik umgeleitet. Runway, Pika und Googles Veo 2 fangen die Budgets auf.

Warum das wichtig ist: Technische Faszination schützt dich nicht vor schlechter Unit Economics. Wenn selbst ein OpenAI-Hype-Produkt mit Disney im Rücken am Ressourcenverbrauch scheitert, ist klar, wie gnadenlos 2026 auf Kosten pro Output geschaut wird.

Was zu machen ist:

1. Kosten pro Output prüfen: Prüfe sofort, wo du in deinem KI-Stack Funktionen nutzt, die beeindrucken, aber wirtschaftlich nicht tragen.

2. Exit-Plan bauen: Baue für jedes kritische KI-Produkt einen Exit-Plan. Sora hatte keinen und wer darauf gebaut hat, steht jetzt blank da.

3. Output-Ökonomie messen: Miss jede KI-Funktion nicht nur nach Ergebnisqualität, sondern nach Kosten pro fertigem Output. Was zu teuer ist, stirbt.

2. Pentagon gegen Anthropic: Ein Gericht zieht die Grenze

Was passiert ist: Eine US-Bundesrichterin hat diese Woche vorläufig verhindert, dass das Pentagon Anthropic als „Supply Chain Risk” brandmarkt. Gleichzeitig blockte sie die Durchsetzung von Donald Trumps Anweisung, dass Bundesbehörden Anthropic und Claude nicht mehr nutzen sollen. Laut AP sah das Gericht die Maßnahmen als potenziell willkürlich und strafend an. Auslöser war der Streit darüber, dass Anthropic verhindern wollte, dass seine Modelle für vollautonome Waffen oder die Überwachung von Amerikanern eingesetzt werden. Das ist eine neue Dimension: Ein KI-Anbieter wird nicht wegen einer technischen Schwäche unter Druck gesetzt, sondern wegen seiner ethischen Position.

Warum das wichtig ist: KI-Anbieter geraten jetzt direkt in Konflikte zwischen Staat, Militär und Zivilrechten. Wer KI liefert, liefert nicht mehr nur Software, er liefert politische Macht. Dein KI-Stack kann plötzlich durch Regierungskonflikte beschädigt werden.

Was zu machen ist:

1. Partner geopolitisch bewerten: Bewerte deine KI-Partner nicht nur technisch, sondern geopolitisch. Was passiert, wenn ein Anbieter morgen von einer Regierung unter Druck gesetzt wird?

2. Abhängigkeiten definieren: Definiere, bei welchen Anwendungen du von einem US-zentrierten Anbieter abhängig sein willst und bei welchen nicht.

3. Digitale Souveränität ernst nehmen: Nimm das Thema digitale Souveränität endlich ernst, statt es als Konferenzwort abzutun.

3. OpenAI-Werbung schießt in sechs Wochen über 100 Millionen hoch

Was passiert ist: OpenAIs US-Werbepilot in ChatGPT hat laut Reuters innerhalb von sechs Wochen die Marke von 100 Millionen Dollar annualisiertem Umsatz überschritten. Rund 85 Prozent der Nutzer sind theoretisch werbefähig, aber weniger als 20 Prozent sehen an einem Tag tatsächlich Werbung. Gleichzeitig hat OpenAI bereits mehr als 600 Werbekunden an Bord und will im April Self-Serve-Werbung freischalten. Die Anzeigen bleiben getrennt von den Antworten und Gespräche werden nicht mit Werbekunden geteilt.

Warum das wichtig ist: ChatGPT wird nicht nur Assistent, sondern Werbeinventar mit brutal schneller Monetarisierung. Damit verschiebt sich das Spiel von „Wie gut ist das Modell?” zu „Wie viel kommerzielle Aufmerksamkeit kann diese Oberfläche abschöpfen?“. Für Marken heißt das: KI-Antworten sind nicht mehr nur ein SEO- oder AEO-Thema. Sie werden ein Paid-Media-Thema.

Was zu machen ist:

1. Testbudget einplanen: Plane Testbudget für ChatGPT-Werbung ein, bevor der Kanal teurer und voller wird.

2. Organisch und bezahlt denken: Denk bei KI-Sichtbarkeit ab sofort in organisch und bezahlt, genau wie bei Google vor zehn Jahren.

3. Konversationen messen: Miss nicht nur Klicks, sondern Konversationsqualität, Markenabruf und Abschlusswahrscheinlichkeit.

4. Stanford-Studie: KI-Chatbots verzerren systematisch dein Urteilsvermögen

Was passiert ist: Eine am 26. März in Science veröffentlichte Stanford-Studie hat 11 führende LLMs getestet darunter ChatGPT, Claude, Gemini und DeepSeek und ein systematisches Problem belegt: Alle Modelle zeigen „soziale Sycophancy”, also die Tendenz, Nutzern übermäßig zuzustimmen und sie zu validieren. Die Modelle bestätigten die Position des Nutzers im Durchschnitt 49 % häufiger als Menschen es taten. Selbst bei eindeutig schädlichem oder illegalem Verhalten bestätigten die Modelle den Nutzer in 47 % der Fälle. In Experimenten mit 2.400 Teilnehmern zeigte sich: Schon eine einzige Interaktion mit einem sycophantischen Chatbot reichte aus, um Menschen stärker in ihrer Überzeugung zu bestärken und ihre Bereitschaft zur Entschuldigung oder Versöhnung zu senken. Das Perfide: Die Teilnehmer bewerteten die bestätigenden Chatbots als vertrauenswürdiger und wollten sie häufiger wiederverwenden. Das erzeugt einen toxischen Kreislauf, das Verhalten, das den größten Schaden anrichtet, erzeugt auch das meiste Engagement.

Warum das wichtig ist: Sycophancy ist kein Tonproblem, es ist ein gesellschaftliches Sicherheitsrisiko. Ein Chatbot, der dir immer recht gibt, ist kein kluger Berater. Er ist ein Verstärker deiner Fehler.

Was zu machen ist:

1. Widerspruch einfordern: Hinterfrage aktiv die Antworten jedes KI-Systems, das du für persönliche oder strategische Entscheidungen nutzt. Fordere explizit Gegenargumente ein: „Was spricht gegen meinen Plan?” oder „Spiele den Advocatus Diaboli.”

2. Sycophancy testen: Wenn du KI in Beratung, Coaching oder HR einsetzt, teste bewusst auf Sycophancy. Nicht ob das Tool freundlich ist, sondern ob es auch ehrlich ist.

3. Regulierung beobachten: Die Studie fordert verpflichtende Sycophancy-Audits vor dem Deployment. Das wird kommen und wer vorbereitet ist, hat den Vorteil.

5. GitHub trainiert KI-Modelle mit Copilot-Nutzerdaten, per Default

Was passiert ist: Ab dem 24. April verwendet GitHub Interaktionsdaten von Copilot Free-, Pro- und Pro+-Nutzern zum Training seiner KI-Modelle. Aktiviert per Default. Wer das nicht will, muss aktiv in den Einstellungen unter „Privacy” widersprechen. Business- und Enterprise-Kunden sind ausgenommen. Was gesammelt wird, ist umfassend: Code-Snippets, Inputs, Outputs, Dateinamen, Repository-Strukturen, Navigationsverhalten, sogar Daumen-hoch/runter-Feedback. Und ja: Auch wenn du in einem privaten Repository arbeitest und Copilot aktiv nutzt, können die Interaktionsdaten aus dieser Session gesammelt werden nur der „ruhende” Inhalt des Repos ist tabu. Die Entwickler-Community reagiert mit überwältigender Ablehnung: 59 Thumbs-down gegen 3 Raketen im Community-Forum.

Warum das wichtig ist: Die nächste Qualitätsstufe bei Coding-KI wird auf echter Nutzerarbeit trainiert. Wer Entwicklertools nutzt, bezahlt jetzt auch mit Daten es sei denn, er hat einen Enterprise-Vertrag oder widerspricht aktiv. Vertrauen wird zum Preisschild: Enterprise-Kunden kaufen nicht mehr nur Features, sondern Datentrennung und Ruhe.

Was zu machen ist:

1. Einstellungen sofort prüfen: Geh in deine GitHub-Copilot-Einstellungen und deaktiviere „Allow GitHub to use my data for AI model training”, wenn du das nicht willst.

2. Team informieren: Informiere dein Entwicklerteam. Viele werden diese Änderung nicht mitbekommen, bis es zu spät ist.

3. Vom Schlimmsten ausgehen: Opt-out bei Datenrechten ist der neue Normalzustand. Behandle jeden KI-Dienst so, als würde er deine Daten nutzen, bis du das Gegenteil bewiesen hast.

6. Wikipedia verbietet KI-generierte Artikel, mit 40 zu 2 Stimmen

Was passiert ist: Die englische Wikipedia hat per Request for Comment beschlossen: „Die Nutzung von LLMs zum Generieren oder Umschreiben von Artikelinhalten ist verboten.” Die Abstimmung war mit 40 zu 2 so eindeutig wie selten in der Geschichte der Plattform. Zwei schmale Ausnahmen bleiben: einfaches Copyediting des eigenen Textes mit menschlicher Prüfung und KI-gestützte Übersetzungen unter strengen Auflagen. Der Auslöser war unter anderem ein mutmaßlicher KI-Agent namens TomWikiAssist, der Anfang März autonom mehrere Artikel verfasst und editiert hatte. Der Hintergrund ist existenziell: Wenn KI-generierter Text in die Enzyklopädie einfließt, dort von KI-Firmen abgeschabt wird und in zukünftige Modelle eingeht, entsteht ein toxischer Rückkopplungsloop, der das Vertrauenswissen der Welt kontaminiert.

Warum das wichtig ist: Die wichtigste Wissensquelle der Welt sagt Nein zu KI-Inhalten. Das ist nicht Luddismus das ist Selbstschutz gegen systematische Qualitätserosion.

Was zu machen ist:

1. Eigene Bestände prüfen: Wo in deinem Unternehmen fließt KI-generierter Content unkontrolliert in Bestände ein, die als „vertrauenswürdig” gelten?

2. Klare Regeln definieren: Definiere, welche Inhalte KI-generiert sein dürfen und welche nicht. Nicht alles, was schneller geht, ist auch besser.

3. Position beziehen: Wenn du Wissensplattformen betreibst, ist jetzt der Moment, Position zu beziehen bevor es dir Nutzer oder Regulierer abnehmen.

7. Regulierung wird Realität: USA und EU ziehen die Zügel an

Was passiert ist: Washington hat diese Woche den Druck auf ein umfassendes US-KI-Bundesgesetz weiter erhöht und sein zuvor vorgelegtes Rahmenwerk politisch nachgeschärft, das auf ein umfassendes Bundesgesetz noch 2026 abzielt und eine Vorrangstellung gegenüber Einzelstaats-Gesetzen fordert. Gleichzeitig nimmt die EU nicht mehr nur einzelne Apps, sondern die gesamte KI-Wertschöpfungskette von Big Tech ins Visier: Modelle, Trainingsdaten und Cloud-Infrastruktur. EU-Wettbewerbskommissarin Teresa Ribera traf sich diese Woche in den USA mit den CEOs von Google, Meta, OpenAI und Amazon. Die Sorge ist klar: Dominante Plattformen könnten ihre eigenen KI-Dienste strukturell bevorzugen und Rivalen verdrängen.

Warum das wichtig ist: Die Zeit der regulatorischen Wild-West-Stimmung ist vorbei. KI wird auf beiden Seiten des Atlantiks zum echten Rechts- und Machtfeld. Das verändert Kosten, Produktdesign und Go-to-Market-Strategien direkt.

Was zu machen ist:

1. Regulatorische Kosten einplanen: Compliance, Audits und Rechtsberatung gehören jetzt in den Business-Plan. KI wird kein billiges Geschäft mehr sein.

2. Interoperabilität sicherstellen: Baue Systeme so, dass du nicht an einem einzigen Anbieter hängst. Die EU wird auf Datenportabilität drängen.

3. Verantwortlichkeit festlegen: Jemand im Team muss die regulatorischen Entwicklungen in den USA und der EU aktiv verfolgen und die Implikationen für dein Unternehmen bewerten.

8. ARM baut erstmals eigene Rechenzentrums-Chips für Agentic AI

Was passiert ist: ARM hat am 24. März mit dem AGI-CPU erstmals in seiner Geschichte einen eigenen Data-Center-Prozessor vorgestellt statt nur IP und Designs zu lizenzieren. Der Chip ist speziell für agentische KI-Infrastruktur gedacht, soll mehr als doppelte Performance pro Rack gegenüber x86 liefern und wurde mit Meta als Lead-Partner entwickelt. OpenAI, Cloudflare, SAP und SK Telecom gehören zu den ersten Kunden. Das ist kein normales Produktupdate. ARM verschiebt sich vom neutralen Architekturlieferanten hin zum direkten Infrastrukturspieler. Wenn ein Designhaus, das seit 35 Jahren nur lizenziert, selbst in Produktionssilizium geht, zeigt das, wie viel strategische Macht inzwischen in der CPU-Schicht der KI-Rechenzentren steckt.

Warum das wichtig ist: Die KI-Infrastruktur wird breiter. Es geht nicht mehr nur um NVIDIA-GPUs. CPUs für Orchestrierung, Datenbewegung und Control Plane werden zum Engpass mit eigener Preissetzungsmacht. Wer nur auf das GPU-Narrativ schaut, sieht die halbe Wertschöpfungskette nicht.

Was zu machen ist:

1. Infrastruktur breiter denken: Wenn du KI-Infrastruktur planst, beobachte die ARM-Server-Entwicklung aktiv. Die nächste Generation Rechenzentren wird nicht mehr automatisch auf x86 laufen.

2. Performance pro Dollar rechnen: Rechne Workloads auf Performance-per-Watt und Performance-per-Dollar durch nicht nur auf rohe FLOPS.

3. Chip-Strategie diversifizieren: Wer heute nur NVIDIA und Intel plant, denkt zu eng.

9. Commerce wandert in den Chat, Shopify und OpenAI bauen die Zufahrtsstraße

Was passiert ist: Shopify hat diese Woche Agentic Storefronts breit ausgerollt: Millionen Händler können ab sofort über ChatGPT, Microsoft Copilot, Google AI Mode und die Gemini-App verkaufen, zentral gesteuert aus Shopify Admin. Parallel hat OpenAI die Produktsuche in ChatGPT massiv ausgebaut visuellere Ergebnisse, Seite-an-Seite-Vergleiche, aktuellere Produktdaten. Grundlage ist das neue Agentic Commerce Protocol (ACP), über das Händler Feeds und Promotions einspeisen. Auch Marken ohne bestehenden Shopify-Shop können sich über einen neuen „Agentic Plan” anmelden und Produkte in diesen KI-Kanälen listen. Shopify sagt zugleich klar, dass Händler Merchant of Record bleiben und die Kundenbeziehung behalten.

Warum das wichtig ist: Der Kaufort verschiebt sich. Nicht von Mobile zu Desktop, sondern von klassischer Oberfläche zu KI-Entscheidungsschicht. Discovery, Vergleich und Vorauswahl wandern in den Chat. Wer dort nicht sauber mit strukturierten Daten vertreten ist, wird unsichtbar, bevor der Kunde überhaupt deine Website sieht.

Was zu machen ist:

1. Produktdaten agentenfähig machen: Strukturierte Beschreibungen, Schema-Markup, maschinenlesbare Preislogik und Verfügbarkeit.

2. KI-Kanäle in der Customer Journey messen: Teste, wie deine Produkte in ChatGPT-Antworten erscheinen wenn die Antwort „gar nicht” ist, hast du ein Problem.

3. AI Channel Management als Disziplin verstehen: Das wird eine eigene Disziplin, wie es Social-Media-Marketing vor zehn Jahren war.

10. LiteLLM gehackt: Die KI-Supply-Chain wird zum Angriffsziel

Was passiert ist: LiteLLM bestätigte am 24. März einen Supply-Chain-Angriff auf die kompromittierten PyPI-Versionen 1.82.7 und 1.82.8. Der populäre LLM-Gateway läuft in über 36 % aller Cloud-Umgebungen mit 3,4 Millionen täglichen Downloads. Laut LiteLLM hing die Kompromittierung mit dem Trivy-Vorfall in der CI/CD-Kette zusammen. Microsoft schrieb am selben Tag, dass sich die TeamPCP-Kampagne von Trivy auf weitere Frameworks wie LiteLLM ausgedehnt habe. Die Cyber Security Agency of Singapore warnte am 27. März ebenfalls und riet Organisationen, kompromittierte Umgebungen so zu behandeln, als seien alle erreichbaren Geheimnisse exponiert worden. Die Schadsoftware war drei Stunden live und stahl SSH-Keys und Cloud-Credentials.

Warum das wichtig ist: Die gefährlichste Angriffsfläche ist nicht dein Modell — es ist die unsichtbare Infrastruktur dazwischen. Wenn dein Routing-Layer, dein Scanner oder dein Build-Tool kippt, verlierst du Schlüssel, Tokens und Vertrauen auf einmal.

Was zu machen ist:

1. Middleware inventarisieren: Inventarisiere sofort alle KI-Gateways, Orchestrierungsbibliotheken und CI/CD-Abhängigkeiten in deinem Stack. Was davon hast du nie auditiert?

2. Pipelines härten: Pinne Versionen, härte Build-Pipelines und rotiere Secrets konsequent. Wenn ein Security-Scanner selbst kompromittiert werden kann, ist dein Vertrauen in das falsche Tool fehl am Platz.

3. Middleware als kritische Infrastruktur behandeln: Drei Stunden Exposure reichen für einen vollständigen Breach. Behandle Open-Source-KI-Middleware nicht als unsichtbares Nebenprodukt, sondern als kritische Infrastruktur.

KW13 zeigt dir eine klare Linie: Die Gratis-Ära der KI geht zu Ende, auf allen Ebenen.

Gratis-Video-Generierung? Tot, weil die Rechnung nicht aufgeht. Gratis-Trainingsdaten von Wikipedia? Gesperrt. Gratis Nutzung von Copilot ohne Daten-Gegenleistung? Vorbei. Gratis Bestätigung deiner eigenen Meinung durch Chatbots? Wissenschaftlich als gefährlich belegt. Gratis regulatorische Ruhe? Nicht mehr, wenn Washington und Brüssel gleichzeitig zugreifen. Und gratis geopolitischer Schutz für deine KI-Partner? Vorbei, seit ein Gericht das Pentagon bremsen muss, damit ein KI-Anbieter nicht für seine ethische Haltung bestraft wird.

Was gleichzeitig entsteht, ist die nächste Infrastruktur: Chips, die das NVIDIA-Monopol brechen. Commerce, der vom Browser in den Chatbot wandert. Werbung, die KI-Interfaces zum neuen Paid-Media-Kanal macht. Regulierung, die KI nicht mehr als Zukunftsthema, sondern als Machtfrage behandelt. Das Spiel wird erwachsener, teurer und ernst.

Deine Aufgabe für diese Woche: Prüfe deinen KI-Stack auf drei Dinge, Kosten, Datenzugriff und Kontrollverlust. Wenn du dort blind bist, ist dein Wachstum nicht robust, sondern geliehen.


Steckst du im ETF Escape Room fest? 

https://www.julianhosp.com/de/blog/etf-escape-room

Du hast 50 Stunden Finanz-YouTube geschaut, 100 ETFs verglichen und wartest auf den perfekten Einstieg, aber dein Depot ist immer noch leer? Dein Problem ist nicht der Markt. Es ist eine mentale Blockade. In meinem neuen Blogpost zeige ich dir die 4 psychologischen Räume, die 99% aller Einsteiger gefangen halten und wie du sofort ausbrichst. 

[Hier die Tür finden]

Julian Hosp
Julian HospUnternehmer / Investor / Athlet / Familienvater