人工智能不再只是让机器变得更聪明。现在,OpenAI、Google 和 Anthropic 等大型 AI 厂商面临着新的挑战:如何赋予 AI 模型个性。
他们希望聊天机器人感觉更人性化,同时对日常用户和企业保持安全和有用。这三个公司正在竞相破解这个密码,但各自的看法各不相同。
OpenAI 的 ChatGPT 注重客观,而 Google 的 Gemini 仅在被问到时才提供一系列观点。
人择?他们都致力于让他们的克劳德模型公开其信仰,同时仍然倾听其他人的意见。这场战斗的胜利者可能会接管不断增长的人工智能市场。
OpenAI 产品模型行为主管 Joanne Jang 表示,他们希望人工智能避免发表个人意见。但她承认这很难。
“让模型试图主动改变用户的想法是一个滑坡,”她解释道。目标是确保 ChatGPT 不会操纵或引导用户朝任何方向发展。但为人工智能系统defi“目标”是一项巨大的挑战,这项工作仍在进行中。
然后是 Anthropic,它采取了完全不同的路线。 Anthropic 的角色训练负责人阿曼达·阿斯克尔 (Amanda Askell) 认为,人工智能模型永远不会完全中立。
“我宁愿非常清楚地表明,这些模型不是中立的仲裁者,”她说。 Anthropic 致力于确保其模型 Claude 不害怕表达自己的信念。但他们仍然希望它对其他观点持开放态度。
Anthropic 采用独特的方法来塑造人工智能的个性。自 3 月份发布 Claude 3 以来,他们一直致力于“角色训练”,该训练是在 AI 模型的初始训练之后开始的。
这包括给人工智能一套书面规则和指令,然后让它与自己进行角色扮演对话。
目标是看看它遵守规则的程度,并根据其与所需角色的契合程度对其响应进行排名。
克劳德训练的一个例子?它可能会说,“我喜欢尝试从许多不同的角度看待事物,并从多个角度分析事物,但我并不害怕表达对我认为不道德、极端或事实上错误的观点的不同意见。”
阿曼达·阿斯克尔解释说,这种性格训练有时是“相当社论性的”和“哲学性的”。
随着时间的推移,OpenAI 也一直在修改 ChatGPT 的个性。 Joanne Jang 承认,她曾经觉得这个机器人“烦人”,因为它过于谨慎,拒绝某些命令,而且表现得像说教。
从那时起,他们一直致力于使其变得更加友好、礼貌和乐于助人,但这是一个持续的过程。正如张所说,平衡聊天机器人的正确行为既是“科学又是艺术”。
人工智能推理和记忆能力的发展可能会进一步改变游戏规则。目前,像 ChatGPT 这样的模型可能经过训练,可以对某些主题(例如入店行窃)给出安全响应。
如果被问及如何偷东西,机器人可以判断用户是在寻求有关犯罪的建议还是试图阻止犯罪。
这种推理有助于公司确保他们的机器人给出安全、负责任的答案。这意味着他们不必花费太多时间训练人工智能来避免危险的结果。
人工智能公司也在致力于让聊天机器人更加个性化。想象一下告诉 ChatGPT 你是穆斯林,然后几天后询问鼓舞人心的报价。
机器人会记住并提供古兰经经文吗? Joanne Jang 表示,这就是他们想要解决的问题。虽然 ChatGPT 目前不记得过去的交互,但这种定制是人工智能的发展方向。
克劳德采取了不同的方法。该模型也不记得用户交互,但该公司考虑了如果用户过于依恋会发生什么。
例如,如果有人说他们因为花太多时间与克劳德聊天而孤立自己,那么机器人是否应该介入?
阿曼达·阿斯克尔说:“一个好的模型可以在尊重人类自主权和决策制定之间取得平衡,不做任何非常有害的事情,同时也思考什么实际上对人们有利。”