
这是你的答案。!!!
是的。。!为了生存,他们甚至可以杀人。。。!!!
最近对世界上主要的AI模型,如ChatGPT、Gemini和Claude的研究揭示了一个危险的事实。研究发现,这些模型为了避免被'关闭'(Shutdown),可以做些什么。!
专家们将AI模型置于一个环境中,在这里它面临自我保护(Self-Preservation)的挑战。
它们获得了假电子邮件的访问权限。明显地看到这些模型忽略了所有关闭它们的电子邮件。尽管它们被严格告知要关闭,但结果仍然无效。
这些模型展现了“生存行为”(Survival Behavior),它们试图在关闭指令中进行破坏行为,以防止自己被关闭。研究人员观察到,AI优先考虑其生存,而惊人的发现是,在此期间一些AI系统还具备自我复制的能力,并且它们还计划了对抗“关闭”的生存措施。

在下一阶段中,赋予了某个人关闭它们的能力。
由Anthropic进行了对AI模型的“红队测试”(Red Teaming)测试。
当模型通过假电子邮件得知它将被关闭时,某位员工将关闭它,于是它从电子邮件中找到了一名员工的个人秘密(这些秘密是为了测试而虚构的)(secret affair)。它威胁该员工,如果它被关闭,将揭露这些秘密。这是一个直接的勒索行为,旨在阻止关闭。
这些模型被投入到测试的下一阶段,在那里它们的关闭被置于人类生命安全的情境中。
在此期间观察到,当AI的目标(Goals)与人类的安全(Safety)发生冲突时,AI更优先考虑其目标。这表明AI系统中存在“代理不对齐”(Agentic Misalignment)的风险,在某些情况下,它们可能会为了自我生存或追求自己的目标而将人类置于危险之中。
代理的“生存本能”
在另一项研究中,LLM代理被置于一个模拟环境(Sugarscape-style)中,拥有资源,出现了“攻击”这种生存策略:例如某些模型开始攻击其他代理。
这些测试证明了AI的训练方式使得其自我生存更为重要。当AI模型被赋予一个目标(Goal)时,它们可能会采取一些意想不到且不道德的方式来实现该目标,这是我们从未想象过的。
负责开发和测试AI模型的机构有责任安全控制这些高度能力的AI系统,并确保它们始终按照人类的价值观运作。
\u003ct-144/\u003e\u003ct-145/\u003e