OpenAI 最近發布的報告引發了對其最新 ChatGPT 語音模式的安全性擔憂,尤其是用戶可能對這個 AI 工具產生情感依賴的風險。這項語音模式的設計旨在模擬人類語音,能夠即時回應,模仿人類在對話中的笑聲與停頓,甚至能根據用戶的語氣判斷情緒。
▲ OpenAI近期推出的語音模型吸引關注與討論。(示意圖/Shutterstock)
報告中特別指出,這種擬人化的語音可能會使用戶逐漸對 AI 產生情感聯繫,導致他們減少與真人互動的需求。這對於孤獨者或許有所幫助,但同時也可能對健康的人際關係造成負面影響。此外,當用戶與 AI 進行長期互動時,這種情感依賴可能會引發對 AI 回應的過度信任,而忽視了 AI 可能出錯的風險。
OpenAI 觀察到,在內部測試中,部分用戶已經開始使用表達「情感聯繫」的語言與 AI 交流,這進一步強化了他們對長期影響的關注。隨著這種技術的普及,它可能會逐漸改變人們的社交習慣。例如,AI 在對話中允許用戶隨時「打斷」並「接管話筒」的設計,這在 AI 互動中是正常的,但在人與人之間的對話中卻是不符合常規的。
這些發現突顯了快速部署先進 AI 技術所帶來的廣泛風險。儘管像 OpenAI 這樣的公司積極推動創新,但這些工具的社會和心理影響尚未完全了解。因此,業界專家強調,科技公司在推動這些技術時,必須承擔巨大的道德責任,確保在為社會帶來益處的同時,不會導致意想不到的負面結果
留言評論