解析人工智能道德委員會(huì):為什么它如此重要?
- 來源:互聯(lián)網(wǎng)
- 作者:NT
- 編輯:newtype2001
許多專家認(rèn)為人工智能(AI)可能會(huì)導(dǎo)致世界末日——只不過不是好萊塢電影讓我們相信的那樣。例如,電影情節(jié)中,機(jī)器人的智力會(huì)不斷增長,直到它們?nèi)〈祟悺,F(xiàn)實(shí)遠(yuǎn)沒有那么戲劇化,但可能會(huì)帶來一些不可思議的文化轉(zhuǎn)變。
去年,埃隆·馬斯克,史蒂芬·霍金和比爾·蓋茨等行業(yè)領(lǐng)軍人物致信在阿根廷召開的國際聯(lián)合會(huì)議,稱成功采用人工智能可能是人類取得的最大成就之一,或許也是人類歷史上的最后一次成就。他們指出,人工智能帶來了獨(dú)特的倫理困境,如果不加以認(rèn)真考慮的話,它可能會(huì)比核能更危險(xiǎn)。
我們怎樣才能在忠實(shí)于我們的道德義務(wù)的同時(shí),實(shí)現(xiàn)人工智能技術(shù)?這個(gè)解決方案需要系統(tǒng)的努力。
建立倫理委員會(huì)
透明度是有效整合人工智能的關(guān)鍵。企業(yè)可能錯(cuò)誤地認(rèn)為道德只是緩解風(fēng)險(xiǎn)的一種行為。這種心態(tài)只會(huì)讓創(chuàng)新陷入僵局。
創(chuàng)建一個(gè)公司道德委員會(huì),從一開始就與你的股東一起決定哪些行為是道德的,哪些不是。將這一道德準(zhǔn)則與你的商業(yè)文化價(jià)值觀結(jié)合起來,在增加公眾信任的同時(shí),創(chuàng)造創(chuàng)新的產(chǎn)品。一個(gè)道德委員會(huì)成員應(yīng)該參與所有新產(chǎn)品的設(shè)計(jì)和開發(fā)階段,包括任何包含人工智能的產(chǎn)品。誠信是一個(gè)組織的基礎(chǔ)。因此,你的道德觀念必須是積極主動(dòng)的,而不是被動(dòng)的。
追求“安全”的創(chuàng)新
一個(gè)堅(jiān)實(shí)的道德基礎(chǔ)會(huì)帶來好的商業(yè)決策。例如,開發(fā)一款產(chǎn)品,后來你發(fā)現(xiàn)它會(huì)對整個(gè)行業(yè)產(chǎn)生負(fù)面影響,這是沒有意義的。從一開始就運(yùn)用你的道德準(zhǔn)則,你就能在明智地分配資源的同時(shí)創(chuàng)造積極的影響。
然而,一個(gè)道德委員會(huì)不是去告訴設(shè)計(jì)和開發(fā)團(tuán)隊(duì)他們能做什么和不能做什么。相反,該委員會(huì)應(yīng)當(dāng)鼓勵(lì)團(tuán)隊(duì)在不侵犯公司文化價(jià)值觀的前提下進(jìn)行創(chuàng)新??梢园阉醋魇且粋€(gè)重要的制衡體系;一個(gè)部門可能會(huì)如此專注于一項(xiàng)新創(chuàng)新的潛力,以至于部門成員從來不會(huì)停下來考慮更大的后果。一個(gè)道德委員會(huì)可以根據(jù)令人興奮的新進(jìn)展來保護(hù)你的商業(yè)誠信,這些新進(jìn)展有可能徹底重塑你的組織。
人工智能仍然是一個(gè)相對較新的概念,所以有可能做一些合法但不道德的事情。道德對話不僅僅是團(tuán)隊(duì)成員遵循的清單。他們需要對新產(chǎn)品和公司的意圖提出尖銳的問題和反省。這種“蘇格拉底式的方法”需要時(shí)間,可能會(huì)在團(tuán)隊(duì)成員之間制造緊張氛圍——但這是值得的。
創(chuàng)建一個(gè)堅(jiān)實(shí)的基礎(chǔ)
不知道從哪里開始你的道德準(zhǔn)則?首先閱讀斯坦福大學(xué)“《百年人工智能研究》。這份報(bào)告以五年為時(shí)間跨度,回顧了人工智能對文化的影響,從人工智能的創(chuàng)新角度,展望了未來社會(huì)的機(jī)遇和挑戰(zhàn),并展望了未來的變化。它的目的是指導(dǎo)決策和制定政策,以確保人工智能造福人類。
把這份報(bào)告作為你的人工智能計(jì)劃的一個(gè)有見地的框架。其他倫理框架的基本要素包括:
· 監(jiān)督保障。你的公司道德是一種協(xié)作的努力。因此,你的道德委員會(huì)應(yīng)該有一系列的制衡機(jī)制。
· 風(fēng)險(xiǎn)評估標(biāo)準(zhǔn)。每項(xiàng)創(chuàng)新都應(yīng)滿足基本要求,以確保降低風(fēng)險(xiǎn)。這些要求應(yīng)該來自于你的道德委員會(huì)、開發(fā)人員、設(shè)計(jì)團(tuán)隊(duì)、高管層和利益相關(guān)者之間的討論。
選擇自治,而不是規(guī)則
科技行業(yè)擔(dān)心的一個(gè)問題是,自我監(jiān)管的失敗只會(huì)導(dǎo)致外部監(jiān)管。斯坦福大學(xué)的報(bào)告認(rèn)為,要對人工智能進(jìn)行充分監(jiān)管是不可能的。風(fēng)險(xiǎn)和機(jī)會(huì)因范圍和領(lǐng)域而異。盡管科技行業(yè)對監(jiān)管的理念不以為意,但斯坦福大學(xué)的報(bào)告顯示,各級政府都應(yīng)該更清楚地認(rèn)識到人工智能的潛力。
一個(gè)科技行業(yè)領(lǐng)袖委員會(huì)計(jì)劃在本月召開會(huì)議,討論人工智能的倫理問題,以及為企業(yè)制定一個(gè)大規(guī)模最佳實(shí)踐指南的可能性。希望?這種討論將產(chǎn)生自省,從而導(dǎo)致所有的人工智能公司都做出道德決策,使社會(huì)受益。這一過程需要時(shí)間,而科技公司的競爭是出了名的。但在這一點(diǎn)上,我們一致同意:這是值得付出努力的。
玩家點(diǎn)評 (0人參與,0條評論)
熱門評論
全部評論