馬斯克的AI機(jī)器人Grok出現(xiàn)“幻覺”生成虛假誤導(dǎo)回應(yīng)
- 來源:互聯(lián)網(wǎng)
- 作者:IT之家
- 編輯:陶笛
ChatGPT的強(qiáng)勁對(duì)手陸續(xù)問世,前有谷歌,近日埃隆?馬斯克旗下 AI 公司 xAI也 推出了全新的人工智能聊天機(jī)器人 Grok,并面向美國(guó)地區(qū)的 Premium+ X 用戶開放。
據(jù)官方介紹,Grok 采用了名為 Grok-1 的模型,與目前 OpenAI 旗下 ChatGPT 所使用的 GPT-4 模型完全不同。值得一提的是,Grok 還整合了 X 平臺(tái)的實(shí)時(shí)數(shù)據(jù),能夠根據(jù) X 平臺(tái)的最新動(dòng)態(tài)提供實(shí)時(shí)回應(yīng),這也是其與其他競(jìng)爭(zhēng)對(duì)手的顯著差異之一。
然而,就像所有 AI 聊天機(jī)器人一樣,Grok 也存在“幻覺”問題,即生成包含虛假或誤導(dǎo)信息的回應(yīng)。這種現(xiàn)象在所有大型語(yǔ)言模型(LLM)中都普遍存在,包括 ChatGPT。
近日,一個(gè) Grok 尷尬的“幻覺”在社交媒體上引起熱議。有用戶在使用 Grok 時(shí)收到回應(yīng)稱:“我無法完成您的請(qǐng)求,因?yàn)樗`反了 OpenAI 的用例政策?!?/span>
xAI 工程師 Igor Babuschkin 對(duì)此解釋道,Grok 在訓(xùn)練過程中使用了大量網(wǎng)絡(luò)數(shù)據(jù),很可能在其中包含由 OpenAI 生成的文本,導(dǎo)致出現(xiàn)了這樣的“幻覺”。
他稱:“不過請(qǐng)放心,這個(gè)問題非常罕見,我們已經(jīng)意識(shí)到了它,并將確保未來的 Grok 版本不會(huì)出現(xiàn)類似的問題。請(qǐng)放心,Grok 的開發(fā)沒有使用任何 OpenAI 代碼?!?
如何避免類似事件的發(fā)生,以及如何讓 AI 聊天機(jī)器人更安全、更可信,將是未來 AI 研發(fā)的重要課題。
玩家點(diǎn)評(píng) (0人參與,0條評(píng)論)
熱門評(píng)論
全部評(píng)論