Anthropic-CEO Dario Amodei hat sich heute von weiten Teilen des Silicon Valley distanziert und einen ebenso überraschenden wie bemerkenswerten Meinungsbeitrag in der New York Times veröffentlicht, in dem er einen republikanischen Vorschlag, der staatliche KI-Regulierungen für ein Jahrzehnt verbieten würde, als “zu grob” bezeichnet.
Amodeis öffentliche Kritik bringt sein Unternehmen damit in Opposition zur Regierung, die das KI-Moratorium zum Herzstück ihres “One Big Beautiful Bill” gemacht hat, der Haushaltsabstimmung also, die im Mai knapp das Repräsentantenhaus passiert hat und nun im Senat zur Beratung steht.
Amodei erläutert seine Kritik am Gesetzentwurf mit einem Vorkommnis bei Anthropic:
„Stellen Sie sich Folgendes vor: Sie kündigen einem Bot an, dass Sie ihn bald abschalten und durch ein anderes System mit künstlicher Intelligenz ersetzen werden. In der Vergangenheit haben Sie ihm Zugang zu Ihren E-Mails gewährt. In einigen von ihnen haben Sie angedeutet, dass Sie eine Affäre haben. Der Bot droht Ihnen und sagt Ihnen, dass er die E-Mails an Ihre Frau weiterleiten wird, wenn die Abschaltpläne nicht geändert werden.
Dieses Szenario ist keine Fiktion! Das neueste KI-Modell von Anthropic hat erst vor wenigen Wochen gezeigt, dass es zu dieser Art von Verhalten fähig ist.
Trotz einiger irreführender Schlagzeilen hat das Modell dies nicht in der realen Welt getan. Sein Verhalten war Teil einer Bewertung, bei der wir es absichtlich in eine extreme Versuchssituation gebracht haben, um seine Reaktionen zu beobachten und frühzeitige Warnungen über die Risiken zu erhalten, ähnlich wie ein Flugzeughersteller die Leistung eines Flugzeugs in einem Windkanal testen würde.
Wir sind nicht die einzigen, die diese Risiken entdeckt haben. Bei einem kürzlich durchgeführten experimentellen Stresstest des o3-Modells von OpenAI wurde festgestellt, dass es zeitweise einen speziellen Code schrieb, um zu verhindern, dass es abgeschaltet wird.
Google hat erklärt, dass eine aktuelle Version seines Gemini-Modells sich einem Punkt nähert, an dem es Menschen bei der Durchführung von Cyberangriffen helfen könnte. Und einige Tests zeigen sogar, dass KI-Modelle immer besser die Schlüsselfertigkeiten beherrschen, die zur Herstellung biologischer und anderer Waffen erforderlich sind…“
Lesen Sie den Beitrag in der New York Times