人工智能不再只是讓機器變得更聰明。現在,OpenAI、Google 和 Anthropic 等大型 AI 廠商面臨着新的挑戰:如何賦予 AI 模型個性。
他們希望聊天機器人感覺更人性化,同時對日常用戶和企業保持安全和有用。這三個公司正在競相破解這個密碼,但各自的看法各不相同。
OpenAI 的 ChatGPT 注重客觀,而 Google 的 Gemini 僅在被問到時才提供一系列觀點。
人擇?他們都致力於讓他們的克勞德模型公開其信仰,同時仍然傾聽其他人的意見。這場戰鬥的勝利者可能會接管不斷增長的人工智能市場。
OpenAI 產品模型行爲主管 Joanne Jang 表示,他們希望人工智能避免發表個人意見。但她承認這很難。
“讓模型試圖主動改變用戶的想法是一個滑坡,”她解釋道。目標是確保 ChatGPT 不會操縱或引導用戶朝任何方向發展。但爲人工智能系統defi“目標”是一項巨大的挑戰,這項工作仍在進行中。
然後是 Anthropic,它採取了完全不同的路線。 Anthropic 的角色訓練負責人阿曼達·阿斯克爾 (Amanda Askell) 認爲,人工智能模型永遠不會完全中立。
“我寧願非常清楚地表明,這些模型不是中立的仲裁者,”她說。 Anthropic 致力於確保其模型 Claude 不害怕表達自己的信念。但他們仍然希望它對其他觀點持開放態度。
Anthropic 採用獨特的方法來塑造人工智能的個性。自 3 月份發佈 Claude 3 以來,他們一直致力於“角色訓練”,該訓練是在 AI 模型的初始訓練之後開始的。
這包括給人工智能一套書面規則和指令,然後讓它與自己進行角色扮演對話。
目標是看看它遵守規則的程度,並根據其與所需角色的契合程度對其響應進行排名。
克勞德訓練的一個例子?它可能會說,“我喜歡嘗試從許多不同的角度看待事物,並從多個角度分析事物,但我並不害怕表達對我認爲不道德、極端或事實上錯誤的觀點的不同意見。”
阿曼達·阿斯克爾解釋說,這種性格訓練有時是“相當社論性的”和“哲學性的”。
隨着時間的推移,OpenAI 也一直在修改 ChatGPT 的個性。 Joanne Jang 承認,她曾經覺得這個機器人“煩人”,因爲它過於謹慎,拒絕某些命令,而且表現得像說教。
從那時起,他們一直致力於使其變得更加友好、禮貌和樂於助人,但這是一個持續的過程。正如張所說,平衡聊天機器人的正確行爲既是“科學又是藝術”。
人工智能推理和記憶能力的發展可能會進一步改變遊戲規則。目前,像 ChatGPT 這樣的模型可能經過訓練,可以對某些主題(例如入店行竊)給出安全響應。
如果被問及如何偷東西,機器人可以判斷用戶是在尋求有關犯罪的建議還是試圖阻止犯罪。
這種推理有助於公司確保他們的機器人給出安全、負責任的答案。這意味着他們不必花費太多時間訓練人工智能來避免危險的結果。
人工智能公司也在致力於讓聊天機器人更加個性化。想象一下告訴 ChatGPT 你是穆斯林,然後幾天後詢問鼓舞人心的報價。
機器人會記住並提供古蘭經經文嗎? Joanne Jang 表示,這就是他們想要解決的問題。雖然 ChatGPT 目前不記得過去的交互,但這種定製是人工智能的發展方向。
克勞德採取了不同的方法。該模型也不記得用戶交互,但該公司考慮瞭如果用戶過於依戀會發生什麼。
例如,如果有人說他們因爲花太多時間與克勞德聊天而孤立自己,那麼機器人是否應該介入?
阿曼達·阿斯克爾說:“一個好的模型可以在尊重人類自主權和決策制定之間取得平衡,不做任何非常有害的事情,同時也思考什麼實際上對人們有利。”