您的位置: 首頁 > 新聞 > 高新技術 > 新聞詳情

人機圍棋大戰(zhàn)首局落定:谷歌人工智能先下一城!

時間:2016-03-09 16:51:27
  • 來源:互聯網
  • 作者:newtype2001
  • 編輯:newtype2001

李世石簡介

李世石與AlphaGo對弈

李世石與AlphaGo對弈

李世石是李昌鎬之后,韓國最具代表性的棋手,他在2003年獲第16屆富士通杯冠軍后升為九段棋手。自2002年加冕富士通杯以來,十年時間里他共獲18個世界冠軍。李世石屬于典型的力戰(zhàn)型棋風,善于敏銳地抓住對手的弱處主動出擊,以強大的力量擊垮對手,他的攻擊可以用“穩(wěn),準,狠”來形容,經常能在劣勢下完成逆轉。

AlphaGo去年10月擊敗歐洲冠軍

谷歌曾于2014年以4億歐元收購人工智能公司DeepMind。由DeepMind研發(fā)的AlphaGo項目已有兩年歷史,AlphaGo曾在去年戰(zhàn)勝了歐洲圍棋冠軍樊麾(職業(yè)二段)。

去年10月5日-10月9日,谷歌AlphaGo在比賽中以5:0的比分完勝了歐洲冠軍。除了戰(zhàn)勝人類外,AlphaGo還與其他的圍棋程序對戰(zhàn),獲得了500場勝利。

AlphaGo原理簡介

傳統(tǒng)的人工智能方法是將所有可能的走法構建成一棵搜索樹 ,但這種方法對圍棋并不適用。此次谷歌推出的AlphaGo,將高級搜索樹與深度神經網絡結合在一起。這些神經網絡通過12個處理層傳遞對棋盤的描述,處理層則包含數百萬個類似于神經的連接點。

其中一個神經網絡“決策網絡”(policy network)負責選擇下一步走法,另一個神經網絡“值網絡”(“value network)則預測比賽勝利方。谷歌方面用人類圍棋高手的三千萬步圍棋走法訓練神經網絡,與此同時,AlphaGo也自行研究新戰(zhàn)略,在它的神經網絡之間運行了數千局圍棋,利用反復試驗調整連接點,這個流程也稱為鞏固學習(reinforcement learning),通過廣泛使用Google云平臺,完成了大量研究工作。

AlphaGo在與人的對弈中用了“兩個大腦”來解決問題:“決策網絡”和“值網絡”。通俗來說就是,一個大腦用來決策當前應該如何落子,另一個大腦來預測比賽最終的勝利方。

值得一提的是,李世石也是第一次與機器對戰(zhàn),所以他無法像和人類對戰(zhàn)那樣,先研究對方的棋譜和下棋風格。李世石所能做的就是和自己對弈。谷歌AlphaGo也是通過這種方式鍛煉自己,真正做到了“人工智能”。

友情提示:支持鍵盤左右鍵"←""→"翻頁
0

玩家點評 0人參與,0條評論)

收藏
違法和不良信息舉報
分享:

熱門評論

全部評論

他們都在說 再看看
3DM自運營游戲推薦 更多+