🧠 BREAKING: Die US-amerikanische KI-Sicherheitsfirma Anthropic sagt, mehrere chinesische KI-Unternehmen, darunter DeepSeek, Moonshot AI und MiniMax, hätten industrielle "Destillations"-Kampagnen auf ihrem Claude-Modell durchgeführt – und dabei Millionen von Interaktionen über ~24.000 betrügerische Konten generiert, um Fähigkeiten für ihre eigenen Modelle zu extrahieren.
🔎 Was Anthropic Behauptet
Die Operationen umfassten die Generierung von über 16 Millionen Austausch mit Claude, um unrechtmäßig dessen fortgeschrittene Denk-, Programmier- und Werkzeugnutzungsfähigkeiten zu "destillieren".
Diese waren unautorisiert und verstießen laut dem Unternehmen gegen die Bedingungen von Anthropic.
Anthropic sagt, es habe die Kampagnen mit "hoher Zuversicht" unter Verwendung von IP, Metadaten und Infrastruktur-Signalen zurückverfolgt.
Die drei Labore werden beschuldigt, Proxy-Dienste und gefälschte Konten genutzt zu haben, um Zugangsbeschränkungen zu umgehen.
🧩 Was "Destillation" Hier Bedeutet
Destillation ist eine legitime Technik, bei der ein kleineres Modell auf Ausgaben eines größeren trainiert wird. Aber Anthropic behauptet, die Kampagnen seien nicht harmlos gewesen – sie hätten stattdessen versucht, Jahre der Forschung abzukürzen.
Es ist ein wachsender Streitpunkt im KI-Wettlauf, wo Zugangssteuerungen und IP-Schutz zunehmend unter Druck stehen.
🛰️ Geopolitischer & Sicherheitskontext
Anthropic bietet Claude nicht kommerziell in China an und sagt, dass es den Zugang für chinesisch besessene Firmen aus Gründen der nationalen Sicherheit global einschränkt.
Über den kommerziellen Wettbewerb hinaus warnt das Unternehmen, dass destillierte Modelle, die ohne US-Sicherheitsvorkehrungen auskommen, für Überwachung, Cyberoperationen oder Desinformationstools umfunktioniert werden könnten.
🪪 Reaktionen Bislang
Keine der genannten chinesischen Firmen hat öffentlich auf die Vorwürfe reagiert.
Dies folgt ähnlichen Behauptungen anderer US-amerikanischer KI-Labore, dass chinesische Akteure versucht haben, Fähigkeiten zu replizieren, indem sie auf Ausgaben westlicher Modelle trainiert haben.
#Anthropic #DeepSeek #ClaudeAI #AIRace #ArtificialIntelligence