您的位置: 首頁 > 新聞 > 時(shí)事焦點(diǎn) > 新聞詳情

人工智能或?qū)缛祟?想法夸張但須持謹(jǐn)慎態(tài)度

時(shí)間:2015-09-17 09:11:33
  • 來源:互聯(lián)網(wǎng)
  • 作者:Sophie周
  • 編輯:Sophie

類人猿機(jī)器人RonoSimian看上去很像一只機(jī)器猴子,可以變換不同姿勢(shì)。

然而,誰也無法預(yù)料未來的科技進(jìn)步節(jié)奏,因?yàn)檎l也無法保證全球每一個(gè)角落的每一位科學(xué)家都能持同樣負(fù)責(zé)謹(jǐn)慎的態(tài)度。

一些研究人員擔(dān)心,隨著我們逐漸交付更多任務(wù)給科技,機(jī)器人會(huì)慢慢蠶食我們的統(tǒng)治權(quán)。

北京時(shí)間9月17日消息,據(jù)國(guó)外媒體報(bào)道,隨著人工智能的不斷發(fā)展,人們開始擔(dān)憂人工智能或?qū)⒘钊祟悳缤?。不過,科學(xué)家認(rèn)為人工智能無法具備與人類智能的對(duì)等性,但同時(shí)表示在人工智能的發(fā)明和應(yīng)用問題上,應(yīng)該持負(fù)責(zé)謹(jǐn)慎態(tài)度,并且應(yīng)該致力于研究針對(duì)人工智能危險(xiǎn)性的防范措施。

好萊塢大片中彰顯的人工智能,令人們開始擔(dān)憂人類未來會(huì)被更智能的機(jī)器人所統(tǒng)治,甚或消滅。而史蒂芬-霍金有關(guān)人工智能或使人類滅亡的論斷,以及企業(yè)巨鱷埃隆-馬斯克關(guān)于“創(chuàng)造人工智能就像召喚魔鬼”的言論,無疑令人類對(duì)人工智能的擔(dān)憂雪上加霜。這么說來,難道人類注定無法避免被計(jì)算機(jī)所征服?

有關(guān)人工智能話題這個(gè)熱門話題,我們有必要進(jìn)行一次深入探討,了解人工智能的優(yōu)劣勢(shì)。首先,人工智能已是我們生活的一部分。谷歌搜索背后運(yùn)用的計(jì)算,或者快速瀏覽亞馬遜網(wǎng)站,計(jì)算機(jī)軟件一直在學(xué)習(xí)如何快速有效地作出反應(yīng)。在人們眼中,這種程度的人工智能“局限大”且“能力弱”,因?yàn)樗荒茉诎l(fā)明者給定的框架內(nèi)運(yùn)作。相比之下,“局限小”或者“能力強(qiáng)”的人工智能意味著,果斷執(zhí)行違背發(fā)明者意愿的任務(wù),這種人工智能不會(huì)“思考”,但是能夠臨場(chǎng)發(fā)揮。然而,目前還不存在這種意義上的人工智能,因?yàn)樵谀M人腦運(yùn)作或從零開始構(gòu)筑自主處理能力方面還困難重重,更不用說創(chuàng)造一個(gè)擁有自我意識(shí)和思想的機(jī)器人。

為了真實(shí)探究人工智能現(xiàn)狀,記者參觀了美國(guó)宇航局位于加利福尼亞州帕薩迪那的噴氣推進(jìn)實(shí)驗(yàn)室,觀看工程師研制全球最智能機(jī)器人的過程。他們對(duì)記者提出的有關(guān)人類會(huì)被機(jī)器人軍隊(duì)接管的想法付之一笑。類人猿機(jī)器人RonoSimian的項(xiàng)目負(fù)責(zé)人布雷特-肯尼迪表示:“我從不擔(dān)心智能機(jī)器人。”類人猿機(jī)器人RonoSimian屬于令人類擔(dān)憂的機(jī)器人版本,它看上去很像一只機(jī)器猴子,借助眾多輪子可以變換不同姿勢(shì),如站立、爬行,或者打滾。RonoSimian的設(shè)計(jì)初衷是,趕赴人類難以進(jìn)入的危險(xiǎn)災(zāi)害區(qū),如倒塌的建筑物或者被毀的核反應(yīng)堆執(zhí)行任務(wù)。它身上裝載有兩臺(tái)計(jì)算機(jī),一臺(tái)用來控制身體中的傳感器,一臺(tái)用來控制身體活動(dòng)。執(zhí)行任務(wù)時(shí),RonoSimian可以執(zhí)行諸多任務(wù),如駕駛汽車,關(guān)閉巨型閥門,它在美國(guó)國(guó)防部最近舉辦的機(jī)器人挑戰(zhàn)賽中榮獲第五名。

然而,RonoSimian的實(shí)際智力非常簡(jiǎn)單。機(jī)器的確需要給定詳細(xì)參數(shù),才能準(zhǔn)確執(zhí)行各類任務(wù)。布雷迪-肯尼迪身邊每天都圍繞著機(jī)器人,他表示:“在可以預(yù)見的未來,我不擔(dān)心也不指望機(jī)器人會(huì)跟人類一樣智能。我擁有一手資料,知道指令機(jī)器人執(zhí)行各種任務(wù)絕非易事。”同樣,英國(guó)人工智能領(lǐng)域的領(lǐng)軍人物,布里斯托機(jī)器人實(shí)驗(yàn)室的阿蘭-溫菲爾德教授也表示支持這一觀點(diǎn)。溫菲爾德教授表示:“我一直認(rèn)為完全沒有必要擔(dān)心,有關(guān)未來超級(jí)智能機(jī)器人會(huì)接管人類統(tǒng)治地球的論點(diǎn)實(shí)在是過于夸張。”

不過,溫菲爾德教授承認(rèn),人類應(yīng)該謹(jǐn)慎對(duì)待人工智能的發(fā)明和應(yīng)用。在全球1000位簽署呼吁“禁止在武器中應(yīng)用人工智能”的科學(xué)家和工程師中,他是其中之一。他指出:“機(jī)器人和智能系統(tǒng)的研究開發(fā),必須遵循極高的安全標(biāo)準(zhǔn),因?yàn)槲覀冃枰踩南匆聶C(jī)、汽車和飛機(jī)。”然而,誰也無法預(yù)料未來的科技進(jìn)步節(jié)奏,因?yàn)檎l也無法保證全球每一個(gè)角落的每一位科學(xué)家都能持同樣負(fù)責(zé)謹(jǐn)慎的態(tài)度。因此,在人工智能研發(fā)領(lǐng)域,的確存在不安定因素。

人工智能安全與否的一個(gè)至關(guān)重要里程碑就是人機(jī)對(duì)等,即“人工普通智能”??茖W(xué)家正在努力研究評(píng)估,機(jī)器人何時(shí)會(huì)與人類一樣擁有對(duì)等智能,以及這種對(duì)等對(duì)人類來說有何意義。牛津大學(xué)人類未來研究院院長(zhǎng)尼克-博斯特羅姆教授,在新書《超級(jí)智能》中對(duì)未來人工智能繼續(xù)發(fā)展所帶來的潛在風(fēng)險(xiǎn),表示了深深的擔(dān)憂,并對(duì)此發(fā)出了警告。他援引了人工智能領(lǐng)域一些專家的最新調(diào)查成果。一項(xiàng)調(diào)查顯示,有50%的可能計(jì)算機(jī)將在2050年具備相當(dāng)人類水平的智能;另一項(xiàng)調(diào)查顯示,有90%的可能在2075年機(jī)器人將具備與人類對(duì)等的智能。尼克-博斯特羅姆教授稱,自己是一個(gè)不折不扣的人工智能支持者,因?yàn)榻柚斯ぶ悄芸梢詰?yīng)對(duì)氣候變化、能源與新藥物等問題。

然而,博斯特羅姆教授指出:“你不能把人工智能簡(jiǎn)單看作是一個(gè)很酷的工具,或者提高公司底線的小玩意兒。人工智能的確改變了人類的基本游戲規(guī)則,它是人類智能的最后一項(xiàng)發(fā)明,同時(shí)開啟了機(jī)器人智能的新時(shí)代。”他假想了一幅畫面,一個(gè)好奇的孩子拾起了一個(gè)沒有引爆的炸彈,并且完全沒有意識(shí)到危險(xiǎn)性。他表示:“也許這一天還為期很遠(yuǎn),但是我們真的像一個(gè)天真懵懂的孩子,完全沒有意識(shí)到我們目前創(chuàng)造的機(jī)器人的力量——這就是我們作為一個(gè)物種所處的現(xiàn)狀。”博斯特羅姆教授目前的研究項(xiàng)目得到了埃隆-馬斯克的資金贊助,旨在探尋研究一種確保安全的共享方法。

斯坦福大學(xué)教授杰瑞-卡普蘭在新書《人類不需要申請(qǐng)工作》中表示,機(jī)器人還可能有另一種隱蔽的接管形式,隨著我們習(xí)慣信任這些智能系統(tǒng),依賴它們進(jìn)行交通、交友、定制新聞、保護(hù)財(cái)產(chǎn)、監(jiān)控環(huán)境、培育和準(zhǔn)備食材、教育孩子,以及關(guān)愛長(zhǎng)輩,最后必定會(huì)有某些風(fēng)險(xiǎn)。問題的關(guān)鍵在于,我們能否及時(shí)有效地找到足夠的安全防護(hù)措施。

0

玩家點(diǎn)評(píng) 0人參與,0條評(píng)論)

收藏
違法和不良信息舉報(bào)
分享:

熱門評(píng)論

全部評(píng)論

他們都在說 再看看
3DM自運(yùn)營(yíng)游戲推薦 更多+