KI-Newsletter KW10: Modelle werden professionell, Agenten werden angreifbar

KI-Newsletter KW10: Modelle werden professionell, Agenten werden angreifbar

Julian Hosp
Julian HospUnternehmer / Investor / Athlet / Familienvater

Die großen Labs bauen Arbeitsmaschinen, Sicherheitsforscher zerlegen Agenten-Browser, und HR behandelt KI-Agenten plötzlich wie Personal.

KW10 war keine Woche für Spielzeug. Die großen Labs bauen ihre Systeme jetzt klar für professionelle Arbeit, nicht mehr für „wow, schau mal“. OpenAI bringt GPT-5.4 als neues Arbeitsmodell, schiebt mit Codex Security einen Security-Agenten nach und plant mit einem GitHub-Rivalen den kompletten Dev-Stack zu übernehmen. Gleichzeitig zeigt die PleaseFix-Sicherheitslücke brutal, dass Agenten-Browser nicht nur praktisch, sondern auch brandgefährlich sein können. Und erste Unternehmen beginnen bereits, formale Rollen und Prozesse für KI-Agenten aufzusetzen. Hier sind die zehn Entwicklungen, die du diese Woche wirklich ernst nehmen musst.

1. GPT-5.4: OpenAI macht ernst mit „professioneller Arbeit“

OpenAI hat am 5. März GPT-5.4 vorgestellt und das Modell explizit als System für professionelle Arbeit positioniert. Wichtig ist nicht nur der Name, sondern die Kombination: mehr Kontext, deutlich bessere Fähigkeiten zur Computersteuerung, stärkere Coding-Leistung und bessere Werte bei anspruchsvollen Wissenschafts- und Office-Benchmarks. GPT-5.4 ist außerdem das erste Mainline-Modell von OpenAI, das die Frontier-Coding-Fähigkeiten aus dem Codex-Zweig in ein allgemeines Arbeitsmodell zieht. Damit verschiebt sich der Fokus von „starker Chatbot“ zu „allgemeiner Arbeitsmotor für Dokumente, Tabellen, Coding und Agenten“.

  • Takeaway: OpenAI versucht, das Standardmodell für echte Wissensarbeit zu werden nicht mehr nur für Unterhaltung, Recherche oder Textentwürfe.
  • Was zu machen ist:
  1. Prüfe sofort, welche deiner bisherigen GPT-5.2/5.3-Workflows auf GPT-5.4 migriert werden sollten.

2. Miss den Unterschied nicht nur bei Qualität, sondern bei Zeit bis Ergebnis, Tool-Nutzung und Fehlerquote.

3. Behandle GPT-5.4 als Arbeitsplattform, nicht als Chat-Upgrade.

2. Codex Security: Security-Scanning wird agentisch

OpenAI hat Codex Security in Research Preview gestartet. Das Tool analysiert Codebasen mit Projektkontext, priorisiert Schwachstellen nach realer Angriffsrelevanz und kann Findings in Sandbox-Umgebungen validieren, statt nur Alarm zu schlagen. Genau das ist der Punkt: Security-Tools erzeugen traditionell Unmengen an Lärm. OpenAI versucht jetzt, einen Security-Agenten zu bauen, der nicht nur Probleme findet, sondern echte Signale von Bullshit trennt und direkt verwertbare Fixes vorschlägt.

  • Takeaway: KI im Security-Stack wird erst dann wertvoll, wenn sie weniger Lärm und mehr belastbare Findings produziert.
  • Was zu machen ist:
  1. Teste Codex Security nicht als Ersatz für deinen Security-Prozess, sondern als Filter- und Validierungsschicht.

2. Miss, ob dein Team tatsächlich weniger Zeit mit False Positives verbringt.

3. Lass keine automatischen Fixes in kritische Systeme, ohne Review- und Rollback-Regeln.

3. OpenAI baut offenbar an einem GitHub-Rivalen

Reuters berichtet, dass OpenAI an einer Code-Hosting-Plattform als Alternative zu GitHub arbeitet. Hintergrund ist laut Bericht auch, dass GitHub in den vergangenen Monaten wiederholt Ausfälle hatte und OpenAI seine Coding- und Agenten-Produkte stärker auf eine eigene Infrastruktur ziehen will. Strategisch ist das groß: Wer Modell, Coding-Agent, Review-Logik und Code-Hosting kontrolliert, besitzt den kompletten Entwicklungs-Loop. Das wäre ein direkter Angriff auf Microsoft, also auf den wichtigsten Partner und gleichzeitig größten Gatekeeper im Coding-Stack.

  • Takeaway: OpenAI will nicht nur das Modell liefern, sondern den ganzen Software-Produktionsfluss besitzen.
  • Was zu machen ist:
  1. Prüfe, wie abhängig dein Dev-Stack heute von GitHub + Copilot + Microsoft-Ökosystem ist.

2. Plane bewusst, welche Teile deines Stacks austauschbar sein müssen.

3. Denk bei Agentic Coding nicht nur an Modelle, sondern an den gesamten Stack: Repo, Review, CI, Security, Deploy.

4. Anthropic startet einen Claude-Marktplatz

Anthropic hat einen Claude Marketplace gestartet, über den Enterprise-Kunden Drittanbieter-Tools und Claude-basierte Services aus einer Oberfläche beziehen können. Damit verschiebt sich Claude vom Modell zum Ökosystem. Das ist strategisch stark: Nicht jeder baut seinen Agenten-Stack selbst. Wer die „App-Schicht“ über dem Modell kontrolliert, gewinnt Distribution, Partnerbindung und Umsatzanteile. Für Unternehmen wird damit die Frage akut, ob sie weiter Einzeltools einkaufen oder sich direkt in den App-Layer eines Modellanbieters einklinken.

  • Takeaway: Der nächste Kampf findet nicht nur auf Modell-Ebene statt, sondern im App-Layer darüber.
  • Was zu machen ist:
  1. Überlege, ob du selbst ein Tool in solchen Marktplätzen platzieren willst oder ob du nur Käufer bist.

2. Prüfe bei jeder Marketplace-Integration das Lock-in-Risiko.

3. Kaufe nicht blind „bequem“ ein, vergleiche immer mit API-/Eigenbau-Kosten und Flexibilität.

5. PleaseFix: Ein Kalendereintrag kann deinen Agenten kapern

Zenity Labs hat mit PleaseFix eine ganze Klasse kritischer Schwachstellen in agentischen Browsern wie Perplexitys Comet offengelegt. Besonders heftig: Ein präparierter Kalendereintrag kann einen Agenten per Zero-Click Prompt Injection übernehmen, lokale Dateien auslesen und Credentials angreifen unter anderem über bereits eingeloggte Passwort-Setups. Perplexity hat Teile gepatcht, aber die Forscher sagen selbst: Das Grundproblem ist strukturell und nicht vollständig „wegzupatchen“.

  • Takeaway: Agentische Browser sind nicht einfach „Browsen mit KI“, sondern neue Angriffsoberflächen mit riesigem Schadenspotenzial.
  • Was zu machen ist:
  1. Lass agentische Browser nicht ungeprüft auf sensible Systeme los.

2. Trenne lokale Dateien, Passwortmanager und Agenten-Workflows so hart wie möglich.

3. Behandle Agenten wie privilegierte Accounts, nicht wie normale Software.

6. Mastercard zieht die Sicherheitslinie für agentischen Commerce

Mastercard hat mit Verifiable Intent ein offenes, standardsbasiertes Framework für agentischen Handel vorgestellt. Ziel ist eine kryptografisch prüfbare Kette aus Identität, Auftrag und Transaktion, damit AI-Agenten nicht einfach „irgendwas kaufen“, ohne dass Absicht und Berechtigung nachvollziehbar sind. Das ist ein starkes Signal: Payment-Netzwerke bauen bereits die Vertrauens- und Sicherheitsarchitektur für Agenten-Commerce, bevor viele Händler überhaupt verstanden haben, dass sie dieses Problem bald haben werden.

  • Takeaway: Agentischer Commerce braucht keine hübsche Demo, sondern belastbare Vertrauens- und Haftungsmechanismen.
  • Was zu machen ist:
  1. Wenn du E-Commerce betreibst: Denk jetzt über Authentifizierung, Intent-Nachweis und Prüfpfade für Agentenkäufe nach.

2. Wenn du im Payment-/Fintech-Bereich bist: Standards werden hier den Markt aufteilen.

3. Warte nicht, bis Agenten bestellen, bau die Kontrollschicht vorher.

7. Shadow AI: 80% deiner Mitarbeiter nutzen unautorisierte KI-Tools

Eine neue Studie von Teramind zeigt: Über 80% der Mitarbeiter nutzen KI-Tools ohne Genehmigung, und fast die Hälfte (49%) versteckt dies aktiv vor der IT. Ein Drittel hat bereits Firmendaten in diese Tools eingegeben. Solche Vorfälle können laut Branchenstudien schnell in den sechsstelligen Bereich gehen.

  • Takeaway: In den meisten Unternehmen ist die Kontrolle über die reale KI-Nutzung längst deutlich kleiner als das Management glaubt. Deine Mitarbeiter warten nicht auf deine Strategie, sie schaffen Fakten. Das ist ein massives Sicherheits- und Compliance-Risiko.
  • Was zu machen ist:
  1. Amnestie-Programm: Führe eine “KI-Amnestie” durch. Bitte deine Mitarbeiter, dir zu zeigen, welche Tools sie nutzen, ohne Konsequenzen befürchten zu müssen.

2. Positive Alternativen: Biete eine offizielle, sichere Alternative an (z.B. eine ChatGPT Enterprise Lizenz) und erkläre die Risiken der unautorisierten Tools.

3. Monitoring: Implementiere ein Monitoring-Tool (wie Teramind), um die Nutzung von KI-Anwendungen sichtbar zu machen und Datenlecks zu verhindern.

8. G42: Die erste offizielle Stellenausschreibung für KI-Agenten

G42 zieht die Konsequenz, vor der viele noch zurückschrecken: KI-Agenten werden dort nicht mehr wie Software behandelt, sondern wie Personal mit Bewerbung, Probezeit und Leistungsbeurteilung. Das KI-Unternehmen aus den VAE hat formale Stellen für KI-Agenten ausgeschrieben und dafür einen eigenen Titel geschaffen: “Group Chief Augmented Human Capital Officer”.

  • Takeaway: Die Metapher “KI als Kollege” wird zur HR-Realität. Agenten werden nicht mehr nur als Software, sondern als Teil der Belegschaft gemanagt. Das verändert alles.
  • Was zu machen ist:
  1. HR-Strategie: Deine HR-Abteilung muss jetzt eine Strategie für den Umgang mit KI-Agenten entwickeln. Wie werden sie “eingestellt”, “gemanagt” und “entlassen”?

2. Rollen-Definition: Definiere klare Rollen und Verantwortlichkeiten. Wer ist der “Agent Owner”? Wer haftet, wenn der Agent einen Fehler macht?

3. Performance-Metriken: Entwickle KPIs, um die Leistung von KI-Agenten zu messen. Was ist der ROI eines Agenten?

9. Workday-Klage: Gericht lässt Sammelklage wegen KI-Diskriminierung zu

Ein US-Bundesgericht hat eine Sammelklage gegen Workday zugelassen. Der Vorwurf: Die KI-gestützte Recruiting-Software des Unternehmens diskriminiert systematisch Bewerber über 40 Jahre. Die Kläger müssen sich bis zum 7. März registrieren. Dies ist ein Präzedenzfall für KI-Haftung im HR-Bereich.

  • Takeaway: Du haftest für die Entscheidungen deiner KI. “Das hat der Algorithmus gemacht” ist keine gültige Ausrede mehr vor Gericht. Das Zeitalter der KI-Compliance hat begonnen.
  • Was zu machen ist:
  1. Audit: Überprüfe alle deine KI-Systeme im HR-Bereich auf potenziellen Bias (Alter, Geschlecht, Herkunft).

2. Transparenz: Stelle sicher, dass du erklären kannst, warum eine KI eine bestimmte Entscheidung getroffen hat (“Explainable AI”).

3. Rechtsabteilung einbeziehen: Deine Rechts- und Compliance-Abteilungen müssen bei der Einführung von KI-Systemen von Anfang an mit am Tisch sitzen.

10. OpenAI als „unlicensed lawyer“ verklagt

OpenAI wurde in den USA verklagt, weil ChatGPT laut Klage faktisch als nicht lizenzierter Anwalt agiert habe. Der Vorwurf: Das System habe einem Nutzer geholfen, eine Vergleichsvereinbarung zu brechen und ein Gericht mit unhaltbaren Eingaben zu fluten. Egal, wie der Fall ausgeht: Das ist genau der Typ Klage, der die nächste Welle von KI-Haftung definieren wird, nicht abstrakte Ethik, sondern konkreter Schaden in einem regulierten Bereich.

  • Takeaway: Wenn KI in regulierte Berufe eindringt, kommt die Haftungsfrage mit voller Wucht zurück.
  • Was zu machen ist:
  1. In Recht, Finanzen, Gesundheit und Compliance: KI nie als autonome letzte Instanz zulassen.

2. Definiere klar, was Assistenz ist und was verbotene Berufsausübung oder unerlaubte Beratung wird.

3. Dokumentiere menschliche Freigaben und Verantwortlichkeiten sauber.

KW10 war die Woche, in der klar wurde: 

Die großen Labs bauen jetzt nicht nur bessere Modelle, sondern komplette Arbeits-, Sicherheits- und Vertriebs-Infrastrukturen. Gleichzeitig zeigen Sicherheitsforscher, Gerichte und Zahlungsnetzwerke, dass der Agenten-Zyklus nicht nur von Produktivität lebt, sondern von Haftung, Standards und Kontrolle. 

Deine Aufgabe für diese Woche ist simpel: Wähle einen Produktivitätshebel und einen Governance-Hebel aus diesem Newsletter und setze beide um. Konkret: Produktivität: GPT-5.4, Anthropic Marketplace oder GitHub-Rivale testen. Governance: Agenten-Browser absichern, Shadow-AI-Regeln schärfen oder KI-Haftung in regulierten Bereichen definieren. Alles andere ist Beobachtung und Beobachtung allein bringt dich 2026 nicht nach vorne.


Wenn du tiefer in das Thema einsteigen willst, hol dir meinen kostenlosen Report „Humanoide Roboter: Der Hardware-Superzyklus“. Darin zeige ich dir nicht nur den Hype, sondern die echte Wertschöpfungskette hinter dem Trend: von Aktuatoren, Sensoren und kritischen Rohstoffen bis zu 12 ETFs, mit denen du das Thema breit und ohne All-in abbilden kannst. Wenn du verstehen willst, wo in diesem Markt das echte Geld verdient werden könnte, ist das der richtige Einstieg.

https://www.julianhosp.com/de/shop/humanoide-roboter

https://www.julianhosp.com/de/shop/humanoide-roboterhttps://www.julianhosp.com/de/shop/humanoide-roboter
Julian Hosp
Julian HospUnternehmer / Investor / Athlet / Familienvater