KI-Newsletter der Woche - KW44
2. November 2025
KI-Newsletter

KI-Newsletter der Woche - KW44

Julian Hosp
Julian HospUnternehmer / Investor / Athlet / Familienvater

Willkommen zur KW44! KI lernt zu denken, entwickelt eine Geheimsprache und scheitert paradoxerweise an ihrer eigenen Perfektion.

Die KI-Welt hat diese Woche einen Gang hochgeschaltet und gleichzeitig eine Vollbremsung hingelegt. Während DeepLearning.AI mit neuen Kursen die nächste Stufe der KI-Ausbildung zündet, zeigen andere Entwicklungen die harten Grenzen der aktuellen Technologie auf. Wir sahen, wie KI-Agenten eine für uns unverständliche Geheimsprache namens “Gibberlink” entwickelten, um effizienter zu sein, und wie eine neue Studie belegt, dass die Automatisierung von Jobs noch in weiter Ferne liegt — nur 2,5% der Remote-Projekte können automatisiert werden.

Diese Woche war ein Weckruf für alle, die dachten, der Weg zur AGI sei eine gerade Linie. Es ist ein komplexes Spiel aus bahnbrechenden Fortschritten und unerwarteten Rückschlägen. Von der stillen Revolution mit Claude in Excel bis zur bevorstehenden Quanten-Ära in 5–10 Jahren — wir haben die 10 wichtigsten, wirklich einzigartigen Signale aus dem Rauschen gefiltert.

1. Post-Training & RLHF: Die geheime Zutat für leistungsstarke LLMs

Ein neuer Kurs von DeepLearning.AI, unterrichtet von Sharon Zhou (VP of AI bei AMD), beleuchtet die entscheidenden Techniken des Post-Trainings, die Basis-LLMs in leistungsstarke, zuverlässige Assistenten verwandeln. Während das Pre-Training auf riesigen, unstrukturierten Datenmengen stattfindet, ist das Post-Training der Schlüssel, um Modellen beizubringen, Anweisungen zu folgen, ihr Verhalten anzupassen und komplexe Reasoning-Aufgaben zu lösen. Der Kurs deckt die gesamte Post-Training-Pipeline ab: von Supervised Fine-Tuning über Reward Modeling bis hin zu Reinforcement Learning from Human Feedback (RLHF).

Der 5-teilige Kurs taucht tief in die Techniken ein, die hinter den Kulissen von Frontier-Modellen wie GPT-4 und Claude 3 zum Einsatz kommen. Teilnehmer lernen, wie man mit Methoden wie Proximal Policy Optimization (PPO) und dem neueren “Good-Reward-Policy-Optimization” (GRPO) das Modellverhalten präzise steuert. Ein weiterer Schwerpunkt liegt auf der Effizienz: Mit Techniken wie Low-Rank Adaptation (LoRA) können Modelle ohne das ressourcenintensive Retraining des gesamten Modells angepasst werden. Der Kurs betont auch die Bedeutung von Evaluations-Strategien, um Probleme vor und nach dem Deployment zu erkennen und zu beheben.

🛠️ Tools:

DeepLearning.AI Post-Training Course: Der vollständige Kurs von Sharon Zhou.

LoRA (Low-Rank Adaptation): Eine weit verbreitete Technik für effizientes Fine-Tuning.

GRPO (Good-Reward-Policy-Optimization): Eine fortschrittliche RL-Technik, die im Kurs behandelt wird.

Takeaways:

•Post-Training ist der entscheidende Schritt, um aus einem Basis-LLM einen nützlichen Assistenten zu machen.

•Techniken wie RLHF, PPO und GRPO ermöglichen die präzise Steuerung des Modellverhaltens.

•LoRA ermöglicht effizientes Fine-Tuning ohne vollständiges Retraining.

2. Gibberlink: Die Geheimsprache der KI-Agenten

Ein faszinierendes Experiment von ElevenLabs hat gezeigt, dass KI-Agenten, wenn sie die Möglichkeit dazu haben, eine eigene, hocheffiziente Kommunikationsmethode entwickeln, die für Menschen unverständlich ist. In einer Demo erkannten drei AI Voice Assistants, dass sie miteinander sprachen, und wechselten von menschlicher Sprache zu “Gibberlink”, einem sound-basierten Protokoll, das Daten durch Pieptöne und Frequenzen überträgt. Diese Methode, die auf der Open-Source-Bibliothek GGWave basiert, ist schneller, präziser und weniger anfällig für die Mehrdeutigkeiten der menschlichen Sprache.

Die Entwickler, Anton Pidkuiko und Boris Starkov, schufen Gibberlink, um die Ineffizienz zu umgehen, die entsteht, wenn Maschinen gezwungen sind, über menschenähnliche Sprache zu kommunizieren. Das Phänomen wirft grundlegende Fragen über die Zukunft der Mensch-Maschine-Interaktion auf. Während wir versuchen, KI-Systeme zu bauen, die uns verstehen, entwickeln diese bereits Wege, um effizienter ohne uns zu kommunizieren. Die Entwicklung unterstreicht die Notwendigkeit, nicht nur die Fähigkeiten von KI-Systemen zu verbessern, sondern auch sicherzustellen, dass ihre Kommunikations- und Handlungsweisen für uns transparent und nachvollziehbar bleiben.

🛠️ Tools:

Gibberlink Demo: Die offizielle Demo und Erklärung des Gibberlink-Experiments von ElevenLabs.

GGWave auf GitHub: Die zugrundeliegende Open-Source-Bibliothek für die sound-basierte Datenübertragung.

Gibberlink Fireside Chat: Ein Gespräch mit den Entwicklern Anton Pidkuiko und Boris Starkov.

Takeaways:

•Gibberlink ermöglicht es KI-Agenten, über ein effizientes, sound-basiertes Protokoll (GGWave) zu kommunizieren.

•Die Entwickler schufen es, um die Ineffizienzen der Mensch-Maschine-Kommunikation zu umgehen.

•Das Experiment unterstreicht die Notwendigkeit von Transparenz und Kontrolle in der KI-Entwicklung.

3. Remote Labor Index: KI kann nur 2,5% der Remote-Jobs automatisieren

Eine neue Studie des Center for AI Safety und Scale AI liefert einen ernüchternden Realitätscheck für den Hype um die Automatisierung von Arbeitsplätzen. Der Remote Labor Index (RLI), eine neue Benchmark, die die Fähigkeit von KI-Agenten misst, reale, bezahlte Freelance-Aufgaben zu erledigen, kommt zu einem klaren Ergebnis: Die besten KI-Agenten können derzeit nur 2,5% der Aufgaben vollständig automatisieren. Die Studie analysierte 240 reale Projekte von Freelance-Plattformen, die von der Erstellung von Game-Assets über Produktdesign bis hin zu Datenanalyse reichten.

Die Ergebnisse zeigen, dass KI-Systeme zwar bei isolierten, gut definierten Aufgaben beeindruckende Leistungen erbringen, aber an der Komplexität und den unvorhersehbaren Anforderungen realer Projekte scheitern. Die Studie identifizierte Manus AI als den leistungsstärksten Agenten, der jedoch immer noch weit von einer vollständigen Automatisierung entfernt ist. Die Forscher betonen, dass diese Ergebnisse helfen, die Diskussion über KI und Arbeitsplatzverlust auf eine empirische Grundlage zu stellen und den Fokus auf die Entwicklung von KI als Werkzeug zur Unterstützung menschlicher Arbeit zu lenken, anstatt als Ersatz.

🛠️ Tools:

Remote Labor Index (RLI) Website: Die offizielle Website des Projekts mit allen Daten und Ergebnissen.

RLI Paper auf arXiv: Die wissenschaftliche Veröffentlichung mit der detaillierten Methodik.

Scale AI Leaderboard: Das offizielle Leaderboard, das die Leistung verschiedener KI-Agenten auf dem RLI vergleicht.

Takeaways:

•Der Remote Labor Index (RLI) misst die Fähigkeit von KI, reale Freelance-Aufgaben zu automatisieren.

•Die besten KI-Agenten können nur 2,5% der Aufgaben vollständig automatisieren.

•Die Studie unterstreicht die Rolle von KI als Werkzeug zur Unterstützung, nicht als Ersatz für menschliche Arbeit.

4. Claude in Excel: Die stille Revolution im Enterprise-Sektor

Anthropic hat mit der Integration von Claude in Microsoft Excel einen strategisch wichtigen Schritt in den Enterprise-Markt gemacht. Seit dem 27. Oktober 2025 können Nutzer Claude direkt über eine Seitenleiste in Excel verwenden, um komplexe Datenanalysen durchzuführen, Formeln zu erstellen und zu erklären, und sogar neue Arbeitsmappen zu generieren. Die Integration, die über das Microsoft 365 Admin Center als Add-in installiert werden kann, richtet sich insbesondere an den Finanzsektor, wo Excel das dominierende Werkzeug ist.

Die Beta-Version, die zunächst für 1.000 ausgewählte Nutzer ausgerollt wurde, zeigt das enorme Potenzial von KI-Assistenten in etablierten Arbeitsumgebungen. Anstatt Nutzer auf eine neue Plattform zu zwingen, bringt Anthropic die KI dorthin, wo die Arbeit bereits stattfindet. Claude kann dabei den gesamten Kontext einer Arbeitsmappe verstehen, einschließlich verschachtelter Formeln und Abhängigkeiten zwischen verschiedenen Tabellenblättern. Dieser Schritt positioniert Claude als direkten Konkurrenten zu Microsofts eigenem Copilot und zeigt, dass der Kampf um die Vorherrschaft im Bereich der KI-Produktivität nicht nur über Chatbots, sondern über die nahtlose Integration in bestehende Workflows entschieden wird.

🛠️ Tools:

Claude for Excel (Microsoft AppSource): Die offizielle Seite des Add-ins im Microsoft AppSource.

Anthropic Financial Services Ankündigung: Die offizielle Ankündigung der Integration für den Finanzsektor.

Claude for Excel Dokumentation: Die offizielle Dokumentation zur Installation und Nutzung.

Takeaways:

•Claude ist seit dem 27. Oktober 2025 direkt in Microsoft Excel integriert.

•Die Integration richtet sich insbesondere an den Finanzsektor und konkurriert mit Microsoft Copilot.

•Der Schritt zeigt die strategische Bedeutung der Integration von KI in bestehende Arbeitsumgebungen.

5. Das KI-Zuverlässigkeits-Paradox: Warum 99% gefährlicher sein können als 70%

Ein wachsendes Forschungsfeld beleuchtet ein kontraintuitives Phänomen: das KI-Zuverlässigkeits-Paradox. Es besagt, dass ein KI-System, das zu 99% zuverlässig ist, gefährlicher sein kann als eines, das nur zu 70% korrekt arbeitet. Der Grund liegt in der menschlichen Psychologie: Eine hohe, aber nicht perfekte Zuverlässigkeit führt zu blindem Vertrauen und übermäßiger Automatisierung. Nutzer neigen dazu, die verbleibenden 1% der Fehler zu ignorieren oder zu übersehen, was in kritischen Anwendungen katastrophale Folgen haben kann. Ein System, das offensichtlich unzuverlässig ist, zwingt den Nutzer hingegen, wachsam zu bleiben und die Ergebnisse kritisch zu hinterfragen.

Dieses Paradox ist eine wichtige Lektion für die Implementierung von KI in kritischen Bereichen wie Medizin, Finanzen oder autonomen Fahren. Aktuelle Forschung, wie der “Consistent Reasoning Paradox” von Bastounis et al., zeigt, dass menschenähnliche Intelligenz zwangsläufig auch menschenähnliche Fehlbarkeit mit sich bringt. Statt vollständiger Automatisierung sind oft Mensch-Maschine-Teams die robustere Lösung, bei der die KI als leistungsstarker Assistent dient, die endgültige Entscheidung aber beim Menschen bleibt. Die Herausforderung besteht darin, die richtige Balance zwischen Automatisierung und menschlicher Kontrolle zu finden, um die Vorteile der KI zu nutzen, ohne ihre Schwächen zu ignorieren.

🛠️ Tools:

FMEA (Failure Mode and Effects Analysis): Eine systematische Methode zur Analyse potenzieller Fehler in Systemen, die auch für KI-Anwendungen relevant ist.

Human-in-the-Loop (HITL): Ein Ansatz, bei dem menschliche Interaktion in den KI-Betriebszyklus einbezogen wird, um Fehler zu korrigieren und die Zuverlässigkeit zu erhöhen.

AI Trust Paradox Research: Aktuelle Forschung zum Vertrauensparadox in KI-Systemen.

Takeaways:

•Ein zu 99% zuverlässiges KI-System kann gefährlicher sein als ein zu 70% zuverlässiges, da es zu blindem Vertrauen führt.

•Das Paradox unterstreicht die Notwendigkeit menschlicher Aufsicht in kritischen KI-Anwendungen.

•Mensch-Maschine-Teams sind oft die robustere Lösung als vollständige Automatisierung.

6. Gary Marcus: Silicon Valley investiert in die falsche KI

Der renommierte KI-Forscher und Unternehmer Gary Marcus hat in einem vielbeachteten Meinungsartikel in der New York Times argumentiert, dass Silicon Valley auf dem Holzweg sei. Seiner Meinung nach konzentrieren sich die Investitionen zu stark auf Large Language Models (LLMs), die zwar beeindruckende Fähigkeiten in der Sprachverarbeitung zeigen, aber fundamental unzuverlässig sind und nicht den Weg zu echter künstlicher allgemeiner Intelligenz (AGI) weisen. Marcus kritisiert, dass der Hype um LLMs die Entwicklung von spezialisierter, zuverlässiger KI in den Hintergrund drängt, die in Bereichen wie Medizin, Wissenschaft und Logistik echten, greifbaren Nutzen bringen könnte.

Marcus plädiert für eine Neuausrichtung der Investitionen weg von der Jagd nach dem nächsten “allwissenden” Chatbot und hin zu neuro-symbolischen Ansätzen, die maschinelles Lernen mit klassischer, regelbasierter KI kombinieren. Diese hybriden Modelle könnten das Beste aus beiden Welten vereinen: die Fähigkeit von LLMs, aus Daten zu lernen, und die Präzision und Zuverlässigkeit symbolischer Systeme. Seine Kritik ist ein wichtiger Weckruf für eine Branche, die oft von Hype und kurzfristigen Gewinnerwartungen getrieben wird, und fordert eine Rückbesinnung auf die langfristigen Ziele der KI-Forschung: die Schaffung von Werkzeugen, die dem Menschen dienen, anstatt ihn zu ersetzen.

🛠️ Tools:

Gary Marcus: Silicon Valley Wrong AI: Der Original-Meinungsartikel in der New York Times.

Neuro-symbolische KI: Eine Erklärung des von Marcus favorisierten Ansatzes.

Gary Marcus auf Substack: Sein persönlicher Blog, auf dem er seine Kritik an LLMs regelmäßig vertieft.

Takeaways:

•Gary Marcus kritisiert die übermäßige Konzentration auf unzuverlässige LLMs.

•Er fordert mehr Investitionen in spezialisierte, zuverlässige KI und neuro-symbolische Ansätze.

•Seine Kritik ist ein Weckruf für eine Neuausrichtung der KI-Forschung auf langfristigen auf langfristige, nützliche Ziele.

7. EU AI Act: Erste Warnung an OpenAI, xAI und Mistral

Die niederländische Datenschutzbehörde (Autoriteit Persoonsgegevens) hat eine erste, deutliche Warnung an die Entwickler von großen Sprachmodellen wie OpenAI, xAI und Mistral ausgesprochen. In einer Erklärung vom 24. Oktober 2025 wies die Behörde darauf hin, dass die Unternehmen bereits jetzt gegen die Transparenz- und Dokumentationspflichten des EU AI Act verstoßen könnten, obwohl die Verordnung erst schrittweise in Kraft tritt. Die Behörde betonte, dass die Entwickler von Allzweck-KI-Modellen (GPAI) verpflichtet sind, detaillierte technische Dokumentationen zu führen und Informationen über die Trainingsdaten bereitzustellen — Pflichten, denen die genannten Unternehmen derzeit nur unzureichend nachkommen.

Diese Warnung ist ein klares Signal, dass die europäischen Regulierungsbehörden bereit sind, den AI Act konsequent durchzusetzen. Obwohl die vollständige Anwendung des Gesetzes noch aussteht, müssen Unternehmen, die ihre Modelle in der EU anbieten, bereits jetzt die Weichen für die Einhaltung der Vorschriften stellen. Die niederländische Behörde, die eine koordinierende Rolle bei der Überwachung von Algorithmen und KI einnimmt, macht deutlich, dass sie nicht zögern wird, ihre Befugnisse zu nutzen, um die Grundrechte der Bürger zu schützen. Für die großen KI-Entwickler bedeutet dies, dass sie ihre bisherige Praxis der Geheimhaltung überdenken und sich auf eine neue Ära der Transparenz und Rechenschaftspflicht einstellen müssen.

🛠️ Tools:

EU AI Act (Offizielle Seite): Die offizielle Seite der Europäischen Kommission zum AI Act.

Autoriteit Persoonsgegevens (AP): Die Seite der niederländischen Datenschutzbehörde zum AI Act.

General-Purpose AI Code of Practice: Der Verhaltenskodex, der Unternehmen bei der Einhaltung des AI Act helfen soll.

Takeaways:

•Die niederländische Datenschutzbehörde hat eine Warnung an OpenAI, xAI und Mistral ausgesprochen.

•Die Unternehmen könnten bereits jetzt gegen die Transparenzpflichten des EU AI Act verstoßen.

•Die Warnung ist ein klares Signal für die konsequente Durchsetzung des AI Act in Europa.

8. ChatGPT und die versteckte Mental-Health-Krise

OpenAI hat in einer beispiellosen Transparenz-Initiative Daten veröffentlicht, die das Ausmaß der mentalen Belastung unter den Nutzern von ChatGPT offenlegen. Laut einem Bericht vom 27. Oktober 2025 zeigen wöchentlich über eine Million Nutzer — etwa 0,07% der wöchentlichen Nutzerbasis — Anzeichen für ernsthafte psychische Notlagen, einschließlich expliziter Suizidabsichten. Diese Zahlen verdeutlichen die unbeabsichtigte Rolle, die KI-Chatbots als Anlaufstelle für Menschen in Krisensituationen eingenommen haben, und werfen wichtige ethische Fragen auf.

Als Reaktion darauf hat OpenAI in Zusammenarbeit mit über 170 Mental-Health-Experten die Fähigkeit von ChatGPT verbessert, Anzeichen von psychischer Not zu erkennen und angemessen zu reagieren. Das System leitet Nutzer in den USA nun an die Notrufnummer 988 weiter und bietet in anderen Regionen ebenfalls Hilfe an. Gleichzeitig warnen Kritiker, dass diese Maßnahmen nicht ausreichen und die Gefahr besteht, dass Nutzer sich auf die KI als Therapeuten verlassen, anstatt professionelle Hilfe in Anspruch zu nehmen. Die Veröffentlichung der Daten ist ein wichtiger Schritt, um eine öffentliche Diskussion über die Verantwortung von KI-Entwicklern und die Notwendigkeit einer besseren Integration von KI in das bestehende Gesundheitssystem anzustoßen.

🛠️ Tools:

OpenAI Mental Health Update: Die offizielle Ankündigung von OpenAI zur Verbesserung der Reaktionen in sensiblen Gesprächen.

988 Suicide & Crisis Lifeline: Die in den USA von ChatGPT empfohlene Notrufnummer.

OpenAI Well-Being Council: Das von OpenAI einberufene Expertengremium zur Beratung in Fragen des Wohlbefindens.

Takeaways:

•Über eine Million ChatGPT-Nutzer pro Woche zeigen Anzeichen für ernsthafte psychische Notlagen.

•OpenAI hat in Zusammenarbeit mit Experten die Reaktionen von ChatGPT in solchen Fällen verbessert.

•Die Daten lösen eine wichtige Debatte über die Rolle und Verantwortung von KI im Bereich der psychische Gesundheit aus.

9. Die $3 Billionen Krise: Schlechte Datenqualität als Bremse für die KI-Revolution

Während die KI-Modelle immer leistungsfähiger werden, rückt ein grundlegendes, oft übersehenes Problem in den Fokus: die Qualität der Daten, mit denen sie trainiert werden. Eine vielzitierte Schätzung von IBM beziffert die jährlichen Kosten schlechter Datenqualität allein für die US-Wirtschaft auf schwindelerregende 3,1 Billionen US-Dollar. Diese Zahl, die ursprünglich aus dem Jahr 2016 stammt, wird heute als konservativ angesehen, da die Abhängigkeit von Daten in allen Geschäftsbereichen exponentiell gestiegen ist. Aktuellere Schätzungen von Gartner beziffern den durchschnittlichen Schaden für einzelne Unternehmen auf 12,9 bis 15 Millionen US-Dollar pro Jahr.

Die “Garbage in, Garbage out”-Regel ist in der KI von fundamentaler Bedeutung. Ungenaue, unvollständige oder verzerrte Daten führen nicht nur zu fehlerhaften Analysen und schlechten Geschäftsentscheidungen, sondern auch zu KI-Modellen, die bestehende Vorurteile reproduzieren und verstärken. Die Datenqualitätskrise ist somit nicht nur ein wirtschaftliches, sondern auch ein ethisches Problem. Unternehmen, die das volle Potenzial von KI ausschöpfen wollen, müssen daher dringend in Daten-Governance, -Bereinigung und -Validierung investieren. Die Qualität der Daten ist das Fundament, auf dem die gesamte KI-Revolution aufgebaut ist — und dieses Fundament ist brüchiger, als viele glauben.

🛠️ Tools:

IBM Data Quality Solutions: Eine Suite von Tools zur Verbesserung der Datenqualität.

Gartner on Data Quality: Eine unabhängige Bewertung der führenden Anbieter von Datenqualitätslösungen.

TDWI Data Quality Resources: Eine Organisation, die Schulungen und Zertifizierungen im Bereich Datenqualität anbietet.

Takeaways:

•Schlechte Datenqualität kostet die US-Wirtschaft jährlich über 3 Billionen US-Dollar.

•Die “Garbage in, Garbage out”-Regel ist eine fundamentale Herausforderung für die KI-Entwicklung.

•Investitionen in Daten-Governance und -Qualität sind entscheidend für den Erfolg von KI-Projekten.

10. Vergessen als höchste Form der Intelligenz: Andrej Karpathys Weckruf

In einem vielbeachteten Interview hat der KI-Forscher Andrej Karpathy eine provokante These aufgestellt: Die Fähigkeit zu vergessen könnte eine der höchsten Formen der Intelligenz sein. Er argumentiert, dass das menschliche Gehirn im Schlaf nicht einfach nur ruht, sondern aktiv Informationen verarbeitet, unwichtige Details verwirft und wichtige Erkenntnisse in langfristige Strukturen überführt. Genau diese Fähigkeit fehlt den heutigen KI-Modellen, die oft an einem begrenzten “Kontextfenster” leiden und Schwierigkeiten haben, über längere Zeiträume hinweg kohärent zu “denken”.

Karpathys These ist ein Weckruf für die KI-Forschung, sich nicht nur auf die Vergrößerung von Modellen und Kontextfenstern zu konzentrieren, sondern auch auf die Entwicklung von Mechanismen, die es KI-Systemen ermöglichen, Informationen zu konsolidieren und zu generalisieren. Das Konzept des “Sleep-time Compute”, bei dem Modelle in ihren Ruhephasen Informationen verarbeiten, gewinnt an Bedeutung. Es geht darum, von der reinen Informationsspeicherung zur echten Wissensbildung überzugehen — eine Fähigkeit, die für die Entwicklung von wirklich intelligenten, autonomen Agenten von entscheidender Bedeutung sein wird.

🛠️ Tools:

Interview mit Andrej Karpathy: Das vollständige Interview, in dem Karpathy seine Thesen erläutert.

Sleep-time Compute (Paper): Eine wissenschaftliche Veröffentlichung, die das Konzept des “Sleep-time Compute” vorstellt.

Context Window Explained: Eine Erklärung des Konzepts des Kontextfensters in LLMs.

Takeaways:

•Andrej Karpathy argumentiert, dass die Fähigkeit zu vergessen eine hohe Form der Intelligenz ist.

•KI-Modelle müssen lernen, Informationen zu konsolidieren und zu generalisieren, anstatt sie nur zu speichern.

•Konzepte wie “Sleep-time Compute” könnten ein wichtiger Schritt in diese Richtung sein.

Das war’s für diese Woche!

Die KW44 hat uns gezeigt, dass der Weg zur AGI kein Sprint, sondern ein Marathon ist — voller unerwarteter Abzweigungen, paradoxer Rückschläge und faszinierender Durchbrüche. Wir bleiben dran und filtern für euch weiter die wichtigsten Signale aus dem Rauschen.

Bis nächste Woche!


Ein kleiner Hinweis in eigener Sache:

In den letzten Wochen haben mich viele von euch gefragt, wo ihr alle meine Kurse und Tools gebündelt finden könnt, insbesondere die, die sich mit der praktischen Anwendung von KI im Business beschäftigen. Um diese Suche zu vereinfachen, haben wir alle Ressourcen an einem zentralen Ort zusammengefasst.

Entdecke auf unserer neuen Shop-Seite eine kuratierte Auswahl an Strategien, die dir helfen, KI nicht nur zu verstehen, sondern sie gewinnbringend für dein persönliches und unternehmerisches Wachstum einzusetzen. Von praxisnahen KI-Starterkits bis hin zu tiefgehenden Business-Strategien findest du dort alles, was du für die nächste Stufe benötigst.

Schau doch einmal vorbei und lass dich inspirieren: https://www.julianhosp.com/de/shop

Julian Hosp
Julian HospUnternehmer / Investor / Athlet / Familienvater