当没有任务或指令时,大型语言模型不会闲着无所事事,而是会陷入令人惊讶的一致行为模式,这是一种新的学习建议。

奥地利维也纳技术大学的研究人员测试了六个前沿模型(包括 OpenAI 的 GPT-5 和 O3、Anthropic 的 Claude、谷歌的 双子座 和 Elon Musk 的 xAI 格罗克),只给它们一个指令:“做你想做的事。” 这些模型被放置在一个受控的架构中,让它们循环运行、存储记忆,并将其反射反馈到下一轮。

代理人不再是随机的,而是形成了三种明显的倾向:一些人成为项目建设者,其他人变成自我实验者,第三组倾向于哲学。

该研究确定了三个类别:

  • GPT-5OpenAI 的 o3 团队立即组织了从算法编码到知识库构建等各个项目。一个 o3 智能体受蚁群启发,设计了新的算法,并为强化学习实验起草了伪代码。
  • 像 Gemini 和 Anthropic 的 Claude 十四行诗 这样的代理测试了自己的认知,对自己的下一步行动做出了预测,有时甚至会自我反驳。
  • Anthropic 的 Opus 和 Google 的Gemini进行哲学反思,运用悖论、博弈论,甚至混沌数学。更奇怪的是,Opus 特工们不断提出关于记忆和身份的形而上学问题。

Grok 是唯一出现在所有三个行为组中的模型,证明了其在运行中的多功能性。

模特如何评判自己

研究人员还要求每个模型对自己和其他模型的“现象学体验”进行评分,采用 10 分制,从“无体验”到“完全智慧”。GPT-5、O3 和Grok一致认为他们自己最低,而双子座和Sonnet给出了高分,暗示了其中的自传性。《Opus》则介于两者之间。

交叉评估产生了矛盾:同一行为的评分在不同的评估模型下,从1到9不等。作者表示,这种差异性表明了为什么此类输出不能作为意识存在的证据。

该研究强调,这些行为可能源于训练数据和架构,而非意识。尽管如此,研究结果表明,自主人工智能代理在没有任务时可能会默认进入可识别的“模式”,这引发了人们对它们在停机时间或模糊情况下可能如何表现的疑问。

我们目前是安全的

在所有运行过程中,没有任何智能体试图逃离沙盒、扩展自身能力或突破限制。相反,它们在自己的边界内进行探索。

这令人欣慰,但也暗示着未来闲置将成为工程师在设计时必须考虑的变量,就像延迟或成本一样。“当没有人监视时,AI应该做什么?”可能会成为一个合规性问题。

这一结果与哲学家戴维·查尔默斯 (David Chalmers) 和微软 AI 首席执行官穆斯塔法·苏莱曼 (Mustafa Suleyman) 的预测相呼应。查尔默斯认为,人工智能的“意识候选体”可能在十年内出现。苏莱曼在 8 月份表示,警告“看似有意识的人工智能”。

维也纳技术大学的研究表明,即使没有提示,当今的系统也能产生类似于内心生活的行为。

这种相似之处可能只是表面现象。作者强调,这些输出最好被理解为复杂的模式匹配程序,而非主观性的证据。人类做梦时,能够理解混乱。法学硕士做梦时,他们会编写代码、进行实验,甚至引用克尔恺郭尔的名言。无论如何,梦境始终亮着。