OpenAI 人紅是非多,人工智慧科技一再推陳出新的同時,領導團隊卻爆出重大分歧。負責 AI 風險控管的兩名主將本周接連掛冠離去,其中一人稱,OpenAI 只在意推出引人注目的新科技產品,不顧背後潛藏的安全風險。
根據金融時報、CNBC,本周相繼求去的兩名大帥,皆是安全風險部門要角,分別為創辦人之一的蘇茨克維爾(Ilya Sutskever)與萊克(Jan Leike)。萊克在 X 平台上控訴,OpenAI 一味追求「光鮮亮麗的產品」(shiny products),安全議題淪為次要,如今終於走到了他忍無可忍的「臨界點」。
二人的離開,意味 OpenAI 以安全管理為旨的小組 superalignment team 名存實亡,距當初設立僅不到一年。根據內部人士,小組其他成員仍將致力安全工作,但會轉至公司的各個研發部門。
此一爆炸性人事異動,無疑暴露了公司內部矛盾。OpenAI 在汲汲於追求稱霸 AI 發展的同時,安全考量似已屈居下風。去年設立此一小組時,其宗旨便是要因應「高智能機器可能導致人類消權(disempowerment)甚至滅亡的風險。」當時 OpenAI 預測,AI 智力恐於十年內勝過人類。
原本 OpenAI 宣稱會將 20% 資源用於「勒住此一脫韁野馬」,確保 AI 科技日益壯大的同時,仍能符合人類利益。但根據萊克,強大模型一個個誕生,卻未能善加應對可能帶來的安全與社會衝擊。
關於安全性的紛擾,或許已難撼動這 AI 火車頭前行的方向。近日 OpenAI 才推出最新人工智慧模型 GPT-4o ,技術長穆拉蒂(Mira Murati)野心勃勃道,未來將推出視訊版 ChatGPT,讓使用者與機器人對話更方便。