Uneinigkeit zwischen Anthropic und dem Pentagon über den Einsatz von KI im Verteidigungs- und Sicherheitsbereich
Letzte Woche eskalierte eine Auseinandersetzung zwischen dem Pentagon und dem führenden KI-Unternehmen Anthropic zu einem brisanten Konflikt über den Einsatz von KI in militärischen Operationen. Im Mittelpunkt des Streits stand die Absicht des US-Militärs, Anthropics KI-System Claude für autonome Waffen und Überwachungszwecke einzusetzen, darunter auch in Extremszenarien wie dem Abfangen von Atomraketen.
Die Verantwortlichen des Pentagon argumentierten, dass solche Fähigkeiten kritisch für die nationale Sicherheit seien. Anthropic hingegen vertritt die Position, dass die aktuellen KI-Systeme selbst mit der erforderlichen menschlichen Mitwirkung im Entscheidungsprozess zu unzuverlässig sind, um Entscheidungen über Leben und Tod zu treffen und für die Massenüberwachung im Inland eingesetzt zu werden. Aus diesem Grund weigerte sich das Unternehmen, ethische Grenzen zu überschreiten.
Am vergangenen Freitag trafen OpenAI, der Entwickler von ChatGPT, und das Pentagon eine Vereinbarung über den Einsatz der KI-Technologien von OpenAI in den klassifizierten Netzwerken des Ministeriums. Dies geschah nur wenige Stunden nachdem Präsident Trump alle Bundesbehörden angewiesen hatte, die Verwendun