©Iva Waldenartikel
09. Mai 2026
Künstliche Intelligenz
Digitalisierung
Am 30. April 2026 gab uns Roman Egger wieder ein Update zu den neuesten Trends und Entwicklungen in der Welt der KI. Hier ist, was ihr wissen müsst:
Roman stellte das neueste Modell von OpenAI vor, das offiziell "GPT-5.5" heißt und intern den Codenamen "Spud" trägt. Es wurde am 23. April 2026 veröffentlicht und ist das erste vollständig neu trainierte Basismodell seit GPT-4.5.
GPT-5.5 ist als agentisches Modell konzipiert und darauf ausgelegt, komplexe Aufgaben mit wenig menschlicher Anleitung zu erledigen. OpenAI beschreibt es so:
Man kann dem Modell eine unstrukturierte, mehrteilige Aufgabe geben, und es plant eigenständig, nutzt Werkzeuge, prüft seine Arbeit, navigiert durch Unklarheiten und arbeitet weiter, bis die Aufgabe abgeschlossen ist. Die Stärken liegen insbesondere in agentischem Coding, Computer-Steuerung, Wissensarbeit und wissenschaftlicher Forschung. GPT-5.5 ist für Plus-, Pro-, Business- und Enterprise-Nutzer in ChatGPT und Codex verfügbar.
OpenAI befindet sich laut Berichten seit mindestens Dezember 2025 intern im "Code Red"-Modus, nachdem Konkurrenten wie Anthropic und Google deutlich aufgeholt hatten. GPT-5.5 ist Teil der strategischen Neuausrichtung: Weg von rechenintensiven kreativen und Tools hin zu produktiven, unternehmensorientierten Anwendungen. Langfristig soll GPT-5.5 die technische Grundlage für eine geplante "Super App" bilden, die ChatGPT, Codex und einen dedizierten Browser-Agenten in einer einzigen Desktop-Anwendung vereint.
Roman hob Codex als leistungsstarkes AI-Werkzeug hervor. Es ist primär ein Coding-Agent, hat sich aber mittlerweile weit über das reine Programmieren hinaus entwickelt. Seit dem großen Update "Codex for (almost) everything" vom 16. April 2026 ist Codex eine Art Allzweck-KI-Arbeitsumgebung mit Computer-Steuerung auf macOS, einem integrierten Browser, Bildgenerierung, dauerhaftem Gedächtnis, geplanten Automatisierungen und über 90 Plugins für Tools wie Jira, Microsoft 365, Notion und Slack.
Die Workspace Agents sind eine separate, aber verwandte Neuerung. Sie wurden am 22. April 2026 eingeführt und sind Codex-basierte Agenten, die in der Cloud laufen und komplexe Team-Workflows automatisieren. Sie können kontextübergreifend über Dutzende von Tools hinweg arbeiten, laufen im Hintergrund weiter (auch wenn man nicht aktiv ist) und lassen sich nach Zeitplan oder über Slack auslösen. Workspace Agents sind in der Research Preview für ChatGPT Business, Enterprise, Edu und Teachers verfügbar.
Das aktuelle Bildgenerierungsmodell von Google wurde am 20. Mai 2025 bei Google I/O vorgestellt. Es ist nicht brandneu, aber eines der führenden Bildgenerierungsmodelle. Imagen 4 generiert Bilder in bis zu 2K-Auflösung, unterstützt mehrere Sprachen, bietet starke Textwiedergabe und Typografie und eignet sich damit gut für Infografiken und Werbematerialien. Google positioniert Imagen als Spezialist für hohe visuelle Qualität, Fotorealismus und präzise Textdarstellung in Bildern, separat von den allgemeinen multimodalen Fähigkeiten von Gemini.
Gemini, Whisk, Google AI Studio, die Gemini API und Vertex AI. Alle generierten Bilder werden mit SynthID-Wasserzeichen versehen, um sie als KI-generiert identifizierbar zu machen.
Good to know: In aktuellen Vergleichstests (Stand April 2026) gilt Imagen 4 Ultra als das fotorealistischste Modell am Markt, allerdings zu einem höheren Preis als Alternativen wie Flux 2 Pro oder ByteDances Seedream.
"Claude Mythos Preview" ist ein neues Frontier-Modell von Anthropic, das am 7. April 2026 angekündigt wurde. Es ist ein allgemeines Sprachmodell, das während der Testphase außergewöhnliche Cybersecurity-Fähigkeiten zeigte: Es identifizierte Tausende bisher unbekannte Zero-Day-Schwachstellen in allen großen Betriebssystemen und Webbrowsern. In über 83 Prozent der Fälle entwickelte es beim ersten Versuch funktionierende Exploits. In einem Fall fand es eine 17 Jahre alte Remote-Code-Execution-Schwachstelle in FreeBSD.
Anthropic hat das Modell bewusst nicht allgemein verfügbar gemacht und stattdessen "Project Glasswing" ins Leben gerufen – ein Industriekonsortium mit Unternehmen wie AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, der Linux Foundation, Microsoft, NVIDIA und Palo Alto Networks. Diese Organisationen nutzen Mythos Preview unter kontrollierten Bedingungen, um Schwachstellen in ihren Systemen zu finden und zu beheben.
Ergänzend dazu wurde am 30. April 2026 "Claude Security" als Public Beta für Enterprise-Kunden veröffentlicht. Dieses Tool nutzt Claude Opus 4.7 (nicht Mythos), um Codebases auf Schwachstellen zu scannen und Patches vorzuschlagen.
Ebenfalls spannend und aus dem Hause Anthropic sind die "Artifacts". Diese sind eine Funktion in Claude, die es ermöglicht, interaktive Dashboards, Visualisierungen und kleine Webanwendungen direkt im Chat zu erstellen und zu nutzen. Sie eignen sich tatsächlich für automatisierte Dashboards und Webrecherche-Projekte wie die erwähnten Tourismus-Reviews und KI-News-Zusammenfassungen. Was ist neu daran? Die "Live-Variante", also das Erstellen der Inhalte auf Basis von Echtzeitdaten. Für all jene, die immer sofort alles wissen wollen, genau das Richtige.
Claude Design wurde am 17. April 2026 unter dem Dach von Anthropic Labs veröffentlicht und ermöglicht es, aus Textbeschreibungen visuelles Material wie Prototypen, Slide-Decks, One-Pager und UI-Mockups zu erstellen.
Claude Design ist kein eigenständiges Designtool wie Figma, sondern richtet sich vor allem an Personen ohne Design-Hintergrund (Gründer, Produktmanager, Marketingleute), die schnell von einer Idee zu etwas Visuellem kommen möchten. Das Tool kann bestehende Design-Systeme aus Codebases und Design-Dateien einlesen und automatisch auf neue Projekte anwenden. Fertige Entwürfe lassen sich als PDF, PPTX, HTML exportieren oder direkt an Canva oder Claude Code übergeben.
Claude Design wird von Claude Opus 4.7 angetrieben und ist für Pro-, Max-, Team- und Enterprise-Abonnenten verfügbar. Die Nutzung wird separat von den regulären Chat-Kontingenten abgerechnet.
Gut zu wissen: Anthropic hat am 20. April 2026 eine massive Erweiterung seiner Infrastruktur angekündigt. Das Unternehmen verpflichtet sich, über die nächsten zehn Jahre mehr als 100 Milliarden US-Dollar für AWS-Technologien auszugeben und sichert sich damit bis zu 5 Gigawatt an Rechenkapazität für Training und Betrieb von Claude.
Google Gemma 4 wurde am 2. April 2026 veröffentlicht und ist ein beeindruckendes Open-Source-Modell. Gemma 4 basiert auf der Forschung hinter Gemini 3 und ist erstmals unter der Apache-2.0-Lizenz veröffentlicht, was vollständige kommerzielle Nutzung ohne Einschränkungen ermöglicht. Das ist ein bedeutender Schritt, da frühere Gemma-Versionen restriktivere Lizenzen hatten.
Die Modellfamilie umfasst vier Größen: E2B und E4B (für Mobilgeräte und Edge-Deployment), 26B A4B (Mixture-of-Experts mit 4B aktiven Parametern) und 31B (Dense). Die kleinsten Modelle laufen tatsächlich lokal auf Laptops und sogar Smartphones. Gemma 4 unterstützt Kontextfenster von bis zu 256K Token, multimodale Eingaben (Text, Bild, bei kleinen Modellen auch Audio), natives Reasoning/Thinking und Function Calling für agentische Workflows.
Die Nutzung mit Ollama ist besonders einfach, da Ollama die Chat-Templates automatisch handhabt. Für Datenschutz und DSGVO-Konformität bieten lokal laufende Modelle wie Gemma 4 tatsächlich Vorteile, da keine Daten an externe Server gesendet werden müssen.
Die Aussage, dass KI die Denkleistung reduziert, haben wir schon oft gehört und ist (leider) durch mehrere Studien belegt. Die bekannteste ist die MIT-Studie "Your Brain on ChatGPT" (2025), bei der 54 Studierende Essays mit verschiedenen Hilfsmitteln verfassten, während ihre Gehirnaktivität per EEG gemessen wurde. Die ChatGPT-Gruppe zeigte in allen kognitiven Metriken die niedrigste Aktivierung: weniger neuronale Vernetzung, geringere Erinnerung an eigene Inhalte und schwächeres Ownership über die Arbeit. Die aktiven neuronalen Verbindungen sanken von durchschnittlich 79 auf 42, eine Reduktion um fast die Hälfte.
Ergänzend zeigt eine Studie von Michael Gerlich (Swiss Business School, 2025) mit 666 Teilnehmenden eine signifikante negative Korrelation zwischen häufiger KI-Nutzung und Fähigkeiten zum kritischen Denken, vermittelt durch den Mechanismus der "kognitiven Auslagerung" (cognitive offloading). Eine weitere Studie der Carnegie Mellon University und Oxford University bestätigt: Wer KI zur Problemlösung nutzt, scheitert danach ohne Hilfe deutlich häufiger.
Die Forscher sprechen von einer "Accumulation of Cognitive Debt", einer Art Denkverschuldung. KI reduziert kurzfristig die kognitive Last, entlastet aber genau jene Prozesse, die Lernen, Erinnern und kreatives Denken fördern.
"There’s no such thing as a free lunch". Und diese Aussage scheint auch bei der Nutzung neuer Technologien zu stimmen. Wie können wir also dagegenhalten? Was können wir tun, damit wir KI sinnvoll nutzen und unsere Denkleistung dennoch erhalten bleibt? Schreibt eure Ideen doch in die Kommentare, wir sind schon sehr gespannt!