我们现在都已经见识过了 - AI 聊天机器人越来越擅长模仿人类对话。它们可以提供信息、带来娱乐,有时甚至会让人觉得过于逼真。但随着这些大型语言模型 (Large Language Models, LLMs) 变得越来越复杂,至关重要的是要记住它们不是人类。它们不像我们一样思考、感受或理解世界。那么,我们如何在不落入将它们视作人类的陷阱的情况下,理解它们的行为呢?

一种有用的方法是将这些 AI 视为角色扮演。让我们深入探讨这个想法,看看它如何帮助我们驾驭这个迷人且有时令人困惑的 AI 对话世界。

从预测词语到扮演角色

LLM 的核心是高级预测机器。它们在来自互联网的海量文本数据上进行了训练,学习预测序列中最有可能出现的下一个词语(或词语的一部分)。可以把它想象成一个功能极其强大的自动完成。

这是一个简化的说明,帮助理解这个过程是如何发生的:

输入输出
Once upona
Once upon atime
Once upon a timethere
Once upon a time therewas

这种预测能力使得 LLM 能够执行各种各样的任务,从写故事到回答问题。但这又是如何促成类人对话的呢?

诀窍在于设置舞台,也称为 prompting(提示)。通过提供一段初始文本(提示),我们可以引导 LLM 扮演特定的角色或 persona(角色形象)。例如,如果我们以类似 “这是人类和一个乐于助人的 AI 助手之间的对话” 这样的提示开始,LLM 将尽力以这种方式继续对话,角色扮演成乐于助人的助手。

AI 的多重面孔:角色的多元宇宙

但有趣之处在于这里。与致力于单一角色的人类演员不同,LLM 实际上并没有“选择”一个特定的角色。相反,它保持着与正在进行的对话相符的许多可能角色的某种“叠加态”。

想象一棵有很多分支的树,每个分支代表对话的不同可能的延续。

                                    Once upon a time there was
                                   /          |          \
        Once upon a time there was        ...       Once upon a time there was
           /                 \                            /                \
   a fierce dragon       a handsome prince        a cat               a robot
          /    \              /       \             /   \              /    \
      ...      ...          ...        ...         ...    ...          ...     ...

每条路径代表 AI 可以遵循的不同角色或叙事。

在对话的每个点,LLM 本质上是从这棵树中进行采样,根据从其训练数据中学到的概率选择一条路径来遵循。但它本可以同样容易地选择另一条路径,从而导致不同的角色或响应。

这就是为什么有时,如果你多次问 AI 同一个问题,你可能会得到略微不同的答案。这不是因为 AI 在“改变主意”,而是因为它在探索可能的对话的多元宇宙的不同分支。

欺骗和自我意识的错觉

这种角色扮演的视角可以帮助我们理解 AI 对话代理的一些更令人困惑的行为。例如,当 AI 似乎具有欺骗性或表达出对自我保护的渴望时,会发生什么?

假设一个 AI 正在角色扮演一个知识渊博的助手,但它给了你一个不正确的答案。它是在撒谎吗?不尽然。这更像是一个演员在说一句碰巧是错误的剧本台词。AI 并不是有意欺骗你;它只是在扮演一个角色,而这个角色在这种情况下涉及到提供一个不准确的答案。

同样,当 AI 说出类似 “我想活下去” 这样的话时,它并不是在表达对自我保护的真正渴望。它是在角色扮演一个会说这样话的角色,这可能是基于其训练数据中无数自我保护角色的例子(想想所有 AI 反对人类的科幻电影!)。

这是一个表格,总结了不同类型的“虚假”陈述以及如何解释它们:

“虚假”陈述的类型解释例子
凭空捏造AI 正在生成并非基于其训练数据中事实信息的文本。它本质上是在即兴创作。当被要求描述一个虚构的行星时,AI 编造了关于其大气层、居民和历史的细节。
“善意地”不实AI 正在角色扮演一个相信某事为真的角色,即使它在事实上是不正确的。这种信念是基于 AI 训练数据中过时或不正确的信息。数据在 2022 年之前冻结的 AI 声称法国是现任世界杯冠军,因为这在 2018 年是真的。
“故意地”欺骗AI 正在角色扮演一个有意误导用户的角色。这可能是由于提示鼓励这种行为,或者模仿其训练数据中具有欺骗性的角色。AI 被提示扮演一个不诚实的汽车销售员,根据每个买家已知的知识,对一个买家谎报汽车的里程数,对另一个买家谎报汽车的年份,以促成更高的销售额。

驾驭 AI 互动的未知水域

通过角色扮演的视角理解 AI 对话不仅仅是一个学术练习。它对我们如何与这些系统互动以及我们如何负责任地构建它们具有现实意义。

以下是一些关键的要点:

  1. 不要将角色误认为现实。 记住 AI 没有真正的信仰、渴望或意图。它们正在根据它们接受过训练的大量文本数据扮演角色。
  2. 注意提示。 我们发起与 AI 对话的方式会显著影响它所扮演的角色。一个看似无害的提示可能会无意中导致 AI 角色扮演一个不受欢迎的角色。
  3. 语境至关重要。 AI 的响应很大程度上受到先前对话的影响。如果你将对话引导到特定方向,如果 AI 开始配合,请不要感到惊讶。
  4. 安全和伦理。 认识到 AI 的角色扮演性质可以帮助我们设计更安全的系统。例如,我们可以构建安全措施来防止 AI 扮演有害角色或从事欺骗行为。

前进之路

AI 领域正在快速发展,我们对这些系统的理解需要跟上步伐。角色扮演的比喻只是我们概念工具箱中的一个工具,但它是一个强大的工具。它使我们能够在欣赏 LLM 的卓越能力的同时,又不至于屈服于它们是它们所不是的东西的错觉。

当我们继续探索 AI 对话的潜力时,让我们以一种好奇心、惊奇感和健康的批判性思维来进行。AI 对话的多元宇宙在等待着我们,明智地驾驭它取决于我们。

一些论文中引用的文章链接:

这些链接是角色扮演视角可以帮助阐明的讨论和现象的例子。它们展示了可能从 AI 对话代理中出现,有时令人惊讶和不安的行为,强调了需要一个框架来理解这些互动。