Alles, was in der KI-Entwicklung passiert. Auf 5 Geschichten komprimiert.
Alles, was in der KI-Entwicklung passiert. Auf 5 Geschichten komprimiert.
In diesem Überblick bekommst du die fünf entscheidenden KI-Entwicklungs-Updates – von Sequoias AGI-Behauptung und OpenAIs Code-Automation, über GitHubs Copilot-Abrechnung per Token, Anthropic's versteckten Kostenanstieg bis hin zu einer US-Einflusskampagne mit OpenAI-Bezug.
Alles, was in der AI-Entwicklung passiert. Konzentriert auf 5 Geschichten.
Die fünf Geschichten, die am meisten zählen, über AI-Modelle, Entwicklungstools, Preisänderungen und Branchenpolitik. Eine Quelle. Keine Füllungen.
29. Apr. 2026
1. Sequoia ruft es AGI
Auf der AI Ascent 2026 erklärte Sequoia Capital, dass Langzeitagenten funktional AGI sind und dass sie angekommen sind. Die Ankündigung kam von den Sequoia-Partnern Pat Grady, Sonya Huang und Konstantine Buhler, die argumentierten, dass die aktuelle AI-Welle kategorisch anders ist als alle vorherigen Technologiekreisläufe.
Die Behauptung stand nicht allein auf der Bühne. Der Präsident von OpenAI, Greg Brockman, erschien auf dem gleichen Event und erklärte, dass etwa 80% des Codes bei OpenAI jetzt von AI geschrieben werden. Seine Darstellung stellte die menschliche Aufmerksamkeit als die neue knappe Ressource dar, nicht die Modellfähigkeit.
Nicht jeder akzeptierte die Erzählung. Der Kognitionsforscher Gary Marcus bezeichnete die breiteren AGI-Behauptungen öffentlich als "Trillionen-Dollar-Täuschung" und wandte sich gegen den Umfang des eingesetzten Kapitals, das auf Behauptungen basiert, die nicht unabhängig überprüft werden können.
Brockmans 80%-Zahl ist selbst gemeldet und nicht unabhängig überprüft. Behandle sie als Richtungssignal, nicht als Benchmark, den du in deine eigenen Produktivitätsansprüche kopieren kannst.
Die ultimative Abkürzung zu einwandfreien KI-Ergebnissen
Verschwende keine Zeit mehr mit Trial-and-Error-Prompts. Erziele konsistente, professionelle KI-Ergebnisse beim ersten Versuch – jedes Mal.
GitHub kündigte an, dass alle Copilot-Pläne auf tokenbasierte, verbrauchsgemessene Abrechnung umsteigen werden, beginnend am 1. Juni. Die neue Einheit heißt GitHub AI-Credits, deren Preis entsprechend dem Tokenverbrauch für Eingabe, Ausgabe und zwischengespeicherte Token berechnet wird. Die Änderung betrifft jeden Plan, von individuellen Pro-Konten bis hin zu Unternehmensplätzen.
Der zugrunde liegende Grund ist einfach. GitHub selbst hat in seiner Dokumentation anerkannt, dass eine schnelle Chatfrage und eine mehrstündige autonome Codiersitzung dem Abonnenten bisher die gleiche Menge gekostet haben, während GitHub die Differenz absorbierte. Mit agierenden Workloads als neuer Norm ist dieses Modell nicht länger nachhaltig.
Die stärkste Auswirkung trifft Abonnenten, die Premium-Modelle verwenden. Der Multiplikator für Claude Opus 4.7 steigt für Jahresabonnenten am 1. Juni von 7,5 auf 27. Die Anmeldung für Copilot Pro-, Pro+- und Studentenpläne wurde vor dem Übergang pausiert, und Opus-Modelle wurden aus dem Basis-Pro-Plan für 10 Dollar entfernt.
Plan
Monatlicher Preis
Enthaltene AI-Credits
Copilot Pro
10 Dollar
1.000
Copilot Pro+
39 Dollar
3.900
Copilot Business
19 Dollar pro Benutzer
1.900 pro Benutzer
Copilot Enterprise
39 Dollar pro Benutzer
3.900 pro Benutzer
Hinweis: Jahresabonnenten von Copilot stehen am 1. Juni vor den steilsten Multiplikatorsteigerungen und können ihre Abonnements nicht automatisch zu den aktuellen Konditionen verlängern. Überprüfe dein Verlängerungsdatum jetzt.
Auf der Sequoia AI Ascent 2026 erklärte Andrej Karpathy, dass Vibe-Coding obsolete sei, und stellte ein neues Framework vor, das er agierende Ingenieurwesen nennt. Der Begriff ist bewusst gewählt. "Agierend" signalisiert, dass der neue Standard nicht darin besteht, Code direkt zu schreiben, sondern Agenten zu orchestrieren, die dies tun. "Ingenieurwesen" signalisiert, dass die Lenkung dieser Agenten eine technische Disziplin mit echter Tiefe ist, keine lockere Konversation.
Karpathy identifizierte den Dezember 2025 als seinen persönlichen Wendepunkt. Im November schrieb er noch etwa 80% seines eigenen Codes und delegierte den Rest an AI. Bis Dezember hatte sich dieses Verhältnis vollständig umgekehrt. Er delegierte 80% an Agenten und fand sich selbst dabei, dem Output ohne Korrektur zu vertrauen.
Das Framework positioniert den Entwickler als Aufseher und nicht als Schreiber. Die Rolle verschiebt sich hin zur Definition von Zielen, Überprüfung von Ausgaben, Erkennung von Fehlermodi und Wahrung architektonischer Urteile. Karpathys schärfste Aussage aus dem Vortrag fasst die Spannung zusammen: "Du kannst dein Denken outsourcen, aber nicht dein Verständnis."
Hinweis: Karpathy veröffentlichte eine vollständige Transkription des Vortrags auf karpathy.bearblog.dev, optimiert für LLM-Eingabe. Es lohnt sich, sie direkt in deine Agentenkonfiguration einzuspeisen.
Anthropic startete Claude Opus 4.7 mit mehreren Verbesserungen sowie unveränderten Tarifen. Das Modell weist einen 12-Punkte-Gewinn auf der CursorBench gegenüber Opus 4.6 auf, unterstützt hochauflösende Bild-Eingaben bis zu 2.576 Pixeln und führt Aufgabenbudgets für lang laufende Agenten sowie ein neues Hochleistungslevel für komplexe Codierungsaufgaben ein.
Was ohne Ankündigung geändert wurde, ist der Tokenizer. Der neue Tokenizer generiert bis zu 35% mehr Token für identischen Eingabetext im Vergleich zur vorherigen Version. Da die Preisberechnung pro Token erfolgt, steigt die Kosten eines gegebenen Antrags im gleichen Verhältnis, auch wenn der aufgeführte Preis gleich bleibt.
Für Entwickler, die automatisierte Pipelines betreiben, ist die Auswirkung auf den ersten Blick unsichtbar und real auf jeder Rechnung. Eine Pipeline, die auf Opus 4.6-Tokenzahlen kalibriert ist, wird auf Opus 4.7 ohne jede Änderung der Prompt- oder Workflow-Logik wesentlich unterschiedliche Kosten produzieren. Die wichtigsten Änderungen in diesem Release sind:
Aufgabenbudgets - Lang laufende Agenten können nicht länger stillschweigend Kontingente ohne definierte Obergrenze erschöpfen.
Hochleistungslevel - Eine neue Einstellung für komplexe Codierungsaufgaben, die die Modellgründlichkeit erhöht.
Hochauflösende Bild-Eingabe - Unterstützung für Bilder bis zu 2.576 Pixel, erweiternd für multimodale Anwendungsfälle.
Neuer Tokenizer - Produziert bis zu 35% mehr Token für dieselbe Eingabe, erhöht die effektiven Kosten über alle Nutzungen.
Achtung: Überprüfe jede automatisierte Pipeline, die auf Opus 4.7 läuft, bevor dein nächster Abrechnungszyklus beginnt. Vergleiche Tokenzahlen mit deiner 4.6-Basis, um unerwartete Kosten frühzeitig zu erkennen.
Eine Untersuchung von Wired enthüllte eine koordinierte Einflusskampagne, die unter dem Namen Build American AI läuft. Die Organisation ist mit einem 100-Millionen-Dollar-Super-PAC namens Leading the Future verbunden, der von Führungskräften finanziert wird, die mit OpenAI, Palantir und Andreessen Horowitz verbunden sind. Die Kampagne zahlte sozialen Medien-Einflussnehmern bis zu 5.000 Dollar pro Beitrag, um pro-amerikanische AI-Narrative zu fördern und chinesische AI-Entwicklung als nationale Sicherheitsbedrohung darzustellen.
Einflussnehmer erhielten vorformulierte Skripte und wurden angewiesen, die Organisation hinter dem Ausgaben nicht offenzulegen. Beiträge wurden auf Plattformen wie TikTok und Instagram als Werbung gekennzeichnet, doch die Finanzierungsquelle und die politische Agenda wurden dem Publikum nicht offengelegt.
OpenAI gab eine Erklärung ab, in der es betonte, keine Unternehmensverbindung zu Leading the Future oder Build American AI zu haben und keine Finanzierung oder Unterstützung für diese Gruppen bereitgestellt zu haben. Palantir stritt ähnlich jede Beteiligung ab. Andreessen Horowitz antwortete nicht auf Anfragen zum Zeitpunkt der Untersuchung.
Hinweis: Der vollständige Finanzierungsverlauf ist in Wireds primärer Untersuchung dokumentiert. Lies die Quelle, bevor du eine Meinung bildest oder teilst.