您的位置: 首頁(yè) > 新聞 > 高新技術(shù) > 新聞詳情

智械危機(jī)又近一步?亞馬遜AI將模仿去世家屬

時(shí)間:2022-07-04 09:23:19
  • 來(lái)源:PCgamer
  • 作者:3DM編譯
  • 編輯:爆裂真菌

根據(jù)科技媒體 Gizmodo 報(bào)道,亞馬遜上個(gè)月底在拉斯維加斯舉行的 re:Mars 發(fā)布會(huì)上展示了一個(gè)未來(lái)潛在的家用人工智能助理 Alexa 功能:該功能可以讓智能助理使用“不到一分鐘”長(zhǎng)度的音頻樣本來(lái)合成聲音,讓其有效模仿原本說(shuō)話(huà)的人。

智械危機(jī)又近一步?亞馬遜AI將模仿去世家屬

在示例中,亞馬遜展示了一個(gè)孩子使用 Alexa 的短片。短片中這個(gè)孩子要求讓祖母為他讀《綠野仙蹤》。Alexa 作出回應(yīng),然后用他祖母的聲音為他讀了一段故事。在這段視頻之前,亞馬遜高級(jí)副總裁兼首席研發(fā)官 Rohit Prasad 表示,該技術(shù)擁有喚起有關(guān)去世親人記憶的潛力。

智械危機(jī)又近一步?亞馬遜AI將模仿去世家屬

關(guān)于該技術(shù)許多人依然持有懷疑態(tài)度。目前科技處在一個(gè)概念驗(yàn)證的時(shí)代,許多技術(shù)演示都并非是真的。但 Prasad 表示,這項(xiàng)技術(shù)是亞馬遜已經(jīng)開(kāi)發(fā)成功的技術(shù)。

智械危機(jī)又近一步?亞馬遜AI將模仿去世家屬

而還有一部分人擔(dān)心該技術(shù)在現(xiàn)實(shí)中的應(yīng)用和道德問(wèn)題。模仿他人臉部的技術(shù) Deepfake 已經(jīng)造成許多問(wèn)題,讓家用數(shù)字助理能夠模仿他人聲音真的安全嗎?而像電影中通過(guò) CG 讓去世演員參演一樣,消費(fèi)逝者是否是對(duì)他們的一種褻瀆?

智械危機(jī)又近一步?亞馬遜AI將模仿去世家屬

0

玩家點(diǎn)評(píng) 0人參與,0條評(píng)論)

收藏
違法和不良信息舉報(bào)
分享:

熱門(mén)評(píng)論

全部評(píng)論

他們都在說(shuō) 再看看
3DM自運(yùn)營(yíng)游戲推薦 更多+