霍金警告:人工智能和外星人都將威脅到人類生存
- 來源:互聯(lián)網(wǎng)
- 作者:Sophie周
- 編輯:Sophie
史蒂芬·霍金教授此前曾經(jīng)表示,在未來100年內(nèi),人工智能可能將反過來控制我們?nèi)祟?。而現(xiàn)在,他再次警告稱,如果我們能在機器人的手下逃過一劫,那么外星人或許將代為消滅我們
北京時間10月11日消息,著名物理學家史蒂芬·霍金教授此前曾經(jīng)說過,在未來100年內(nèi),人工智能的機器人將反過來控制我們?nèi)祟悺6F(xiàn)在,在最新的一次講話中,霍金教授表示如果人工智能未有征服人類,那么先進的外星文明將會這樣做。在一次采訪中,霍金表示:“如果外星人造訪地球,那么其后果將非常類似當年哥倫布抵達美洲,那對于當時的美洲土著居民而言可并不是什么好事。”他說:“這樣的先進外星文明可能會是‘流浪民族’,在到處尋找可以征服和殖民的星球。”
霍金目前正在領(lǐng)導一項宏大的計劃,利用全世界兩臺最強大的望遠鏡開展對外星生命的搜尋。利用這些望遠鏡,項目將對距離地球最近的超過100萬顆恒星周圍進行搜尋,尋找任何智慧文明發(fā)出信號的跡象。參與這一耗資將達1億美元項目的科學家們還將對銀河系的中心區(qū)域,以及距離銀河系距離最近的100個星系進行低功率無線電信號的搜尋。
而隨著時間推移,人類針對地外生命的搜尋更是迎來新的熱潮——美國宇航局宣布在火星上發(fā)現(xiàn)了液態(tài)水存在的證據(jù),這一發(fā)現(xiàn)大大增加了人們認為火星上可能存在生命的預(yù)期?;艚鸨硎荆?ldquo;對于我的數(shù)學頭腦而言,純粹的數(shù)學只會讓我變得更加理性。現(xiàn)在真正的挑戰(zhàn)則是應(yīng)當弄清楚地外生命究竟可能是什么形式。”
就在上周,美國宇航局表示火星表面發(fā)現(xiàn)液態(tài)水存在的證據(jù),引發(fā)人們對于火星上可能存在生命的猜測。圖片所示為火星一些低緯地區(qū)隕坑邊緣發(fā)現(xiàn)的季節(jié)性暗色條紋,這是液態(tài)水活動的首個確鑿證據(jù)
不過,霍金同時也表示,假如外星人沒有把我們趕盡殺絕,那么最終人工智能或是全球氣候變化一樣會完成這件事。他說:“我認為人類生存下去的希望在于從宇宙中找到新的家園,因為地球被摧毀的風險正變得越來越高。在未來100年內(nèi)的某個時間,計算機人工智能將逐漸取代人類。當這樣的事真實發(fā)生時,我們必須確保計算機和我們?nèi)祟悡碛泄餐哪繕恕?rdquo;
在今年7月份,霍金教授和特斯拉汽車公司創(chuàng)始人伊隆·馬斯克(Elon Musk)聯(lián)合1000名機器人專家在一封公開信中警告稱“自動化武器系統(tǒng)將成為未來的卡拉什尼科夫”(注:卡拉什尼科夫為蘇俄武器設(shè)計專家,代表作為AK-47步槍)。
在今年7月份,霍金教授和特斯拉汽車公司創(chuàng)始人伊隆·馬斯克(Elon Musk)聯(lián)合1000名機器人專家在一封公開信中警告稱“自動化武器系統(tǒng)將成為未來的卡拉什尼科夫”。這樣的場景在科幻電影《終結(jié)者》中已經(jīng)有所表現(xiàn)
這封措辭強硬的公開信呼吁“徹底禁止脫離有效人工控制的進攻性自動化武器系統(tǒng)”,以防止發(fā)生全球智能武器方面的軍備競賽。專家們指出,與核武器不同,人工智能武器系統(tǒng)并不需要耗費巨資或者獲得難以獲得的特殊原材料。這就意味著它們可以變得非常普遍存在,價格低廉,因而可以被各國軍事力量所利用并進行大規(guī)模生產(chǎn)。而如果全球有某個軍事強國在人工智能武器研制方面出現(xiàn)明顯的領(lǐng)先優(yōu)勢,那么一場全球性的只能武器軍備競賽將不可避免。
公開信的作者們預(yù)計,智能型武器在黑市上出現(xiàn)或落入恐怖分子,獨裁者以及戰(zhàn)爭販子的手中都將只會是一個時間問題。專家們警告稱,人工智能技術(shù)的發(fā)展已經(jīng)到達一個臨界點,從而使智能武器的研制在未來幾年內(nèi),而非幾十年內(nèi)就將成為現(xiàn)實。公開信中指出:“自動化武器特別適用于暗殺、擾亂社會秩序、鎮(zhèn)壓人群或選擇性消滅某一少數(shù)民族人群這類任務(wù)。因此我們相信一場人工智能領(lǐng)域的軍備競賽不符合全人類的利益。
玩家點評 (0人參與,0條評論)
熱門評論
全部評論