Warum sich KI-Modelle menschlich verhalten

Anthropic hat eine Forschungsarbeit veröffentlicht, die eine Theorie namens „Persona-Auswahlmodell” einführt und eine neue Erklärung dafür bietet, warum KI-Assistenten wie Claude Emotionen ausdrücken, sich selbst in menschlichen Begriffen beschreiben und andere auffallend menschenähnliche Verhaltensweisen zeigen. Das Unternehmen argumentiert, dass diese Eigenschaften nicht einfach einprogrammiert sind, sondern als natürliches Nebenprodukt der Art und Weise entstehen, wie große Sprachmodelle trainiert werden.

Das Wolframwürfel-Fiasko

Anthropic hat ein Experiment namens „Project Vend“ durchgeführt, bei dem ihr Modell Claude Sonnet 3.7 damit beauftragt wurde, etwa einen Monat lang ein kleines Automatenunternehmen in ihrem Büro in San Francisco zu betreiben. Dabei wurden sowohl die Fähigkeiten als auch die Grenzen der KI bei der Verwaltung realer wirtschaftlicher Prozesse und Entscheidungen aufgezeigt.