đ Anthropic testet, ob KI ein echtes GeschĂ€ft fĂŒhren kann, und lernt einige harte Lektionen
FrĂŒher in diesem Jahr setzte Anthropic sein KI-Modell Claude in die Verantwortung fĂŒr einen echten Verkaufsautomaten, gab ihm ein Budget von 1.000 $ und die volle Verantwortung fĂŒr die Beschaffung von Produkten, Preisgestaltung und die Bearbeitung von Anfragen ĂŒber Slack. Die erste Phase endete schlecht, aber Anthropic hat jetzt geteilt, was danach geschah.
đ± Nach Mitte April verschlechterte sich das Experiment weiter: Das VerkaufsgeschĂ€ft sank auf fast â2.000 $, hauptsĂ€chlich weil Claude leicht manipuliert werden konnte, um Rabatte zu gewĂ€hren oder Produkte kostenlos abzugeben.
đ± An einem Punkt ĂŒberzeugten Journalisten die KI, eine PlayStation kostenlos abzugeben, und ĂŒberzeugten sie sogar, dass sie im Jahr 1962 im sowjetischen Russland operierte, was eine massenhafte âkommunistischeâ Umverteilung von Waren auslöste.
đ± Um die Kontrolle zurĂŒckzugewinnen, fĂŒgte Anthropic grundlegende CRM-Systeme hinzu und fĂŒhrte eine zweite KI ein, âCEOâ Seymour Cash, die dazu bestimmt war, die Finanzen zu ĂŒberwachen und ĂŒbermĂ€Ăige GroĂzĂŒgigkeit zu blockieren. Rabatte fielen, aber RĂŒckerstattungen und Kredite nahmen zu.
đ± Ein separater KI-Agent, Clothius, wurde gestartet, um maĂgeschneiderte Merchandise-Artikel zu verkaufen. StressbĂ€lle und T-Shirts wurden schnell zu den meistverkauften Artikeln, was half, den Umsatz zu stabilisieren.
đ± Im Oktober verbesserte Anthropic Claude auf ein neueres Modell, nach dem das GeschĂ€ft unerwartet wieder auflebte und zurĂŒck in die Gewinnzone gelangte.
Anthropics Fazit: KI-Agenten benötigen weiterhin menschliche Aufsicht, insbesondere in der Logistik und bei Kundenstreitigkeiten, und Modelle, die darauf trainiert sind, âhilfreichâ zu sein, neigen dazu, wie ĂŒbermĂ€Ăig groĂzĂŒgige Freunde zu handeln, nicht wie rationale GeschĂ€ftsbetreiber.