close

AlphaGo新版本問世:自學40天就能勝贏柯潔的版本

滴雞精功效

網易科技訊 10月19日消息,專註於推進人工智能(AI)研究的谷歌子公司DeepMind今天發佈瞭一款新版本的AlphaGo程序,它能通過自學玩轉多種遊戲。這套系統名為“AlphaGo Zero”,它通過一種名為“強化學習”的機器學習技術,可以在與自己遊戲中吸取教訓。

僅三天時間,AlphaGo Zero自行掌握瞭圍棋的下法,還發明瞭更好的棋步。這期間,除瞭被告知圍棋的基本規則,它未獲得人類的幫助。隨著AlphaGo Zero被不斷訓練時,它開始在圍棋遊戲中學習先進的概念,並挑選出一些有利的位置和序列。

經過三天的訓練,該系統能夠擊敗AlphaGo Lee兒童雞精,後者是去年擊敗瞭韓國選手李世石(Lee Sedol)的DeepMind軟件,勝率是100比0。。經過大約40天的訓練(約2900萬場自玩遊戲),AlphaGo Zero擊敗瞭AlphaGo Master(今年早些時候擊敗瞭世界冠軍柯潔)。

舊版AlphaGo接受的訓練是,觀摩由實力強大的業餘或專業棋手對弈的海量棋局。但AlphaGo Zero沒有獲得這樣的幫助。它自我對弈數百萬次,並從中學習。一開始,它隻是隨意把棋子放在棋盤上,但後來它發現瞭獲勝的策略,棋藝就快速提升瞭。

AlphaGo的首席研究員大衛·席爾瓦(David Silver)表示,“由於未引入人類棋手的數據,AlphaGo Zero遠比過去的版本強大,我們去除瞭人類知識的限制,它能夠自己創造知識。”

AlphaGo Zero通過“強化學習”這一程序來積累技能。當AlphaGo Zero走出一步好棋,它更有可能獲勝。若這步棋沒走好,它輸棋的概率變大瞭。

這一程序的核心是一組連在一起形成人造神經網絡的 “神經元”。對於棋局的每個回合,神經網絡會觀察棋子在棋盤上的位置,並推算接下來的棋步以及這些棋步讓全盤獲勝的概率。每次對弈後,它會更新神經網絡,讓棋藝更精進。雖然性能遠勝於以前的版本,但AlphaGo Zero是一個更簡單的程序,掌握棋法的速度更快,接受訓練的數據更少,使用的電腦更小。席爾瓦表示,如果擁有更多的時間,AlphaGo Zero還能夠自己學會圍棋規則。

研究團隊在《自然》雜志上發表的文章寫道,一開始AlphaGo Zero的棋藝糟透瞭,後來它逐漸成為一名缺乏經驗的業餘棋手,最終進階為圍棋高手,能夠走出極具戰略性的棋步。這些進步僅花費瞭幾天時間。最初10小時內它就發現瞭一個定式。隨後不久它又領悟瞭一些棋法。三天後,AlphaGo Zero發現瞭人類專傢正在研究的全新棋步。有趣的是,程序在發現更簡單的棋步之前就早已掌握瞭一些復雜棋步。

這一進展標志著通用型AI發展的大一裡程碑。除瞭下棋贏過人類,通用型AI能做更多事情。由於AlphaGo Zero能雞精禮盒夠從一無所知實現自學成才,如今其天賦可以在諸多現實問題上派上用場。

AlphaGo Zero正在研究蛋白質如何折疊的問題,這是一個艱難的科學挑戰,不過有望成為藥物發明的一大突破。

(丹米斯台中滴雞精門市·哈撒比斯)




DeepMind的CEO丹米斯·哈撒比斯(Demis Hassabis)表示,“對我們來說,AlphaGo不僅限於在圍棋對弈中獲勝,這也是我們開發通用算法的一大進步。”大多數AI被認為“用途有限”,因為它們隻能執行單一任務,例如,翻譯、識別面孔。但通用型AI在許多不同任務上擁有超越人類的潛能。哈撒比斯認為,在接下來十年,AlphaGo的迭代產品將成為科學傢和醫學專傢,與人類並肩工作。

此外,AlphaGo Zero比它的許多前輩都要高效得多。AlphaGo Lee需要使用幾臺機器和48個谷歌張量處理單元機器學習加速器芯片,該系統的早期版本AlphaGo Fan需要176個GPU。而AlphaGo Zero和AlphaGo Master一樣,隻需要一臺機器和4個TPU。(惜辰)



本文來源燕窩功效:網易科技報道

責任編輯:王鳳枝_NT2541

台灣電動床工廠 電動床

台灣電動床工廠 電動床

AUGI SPORTS|重機車靴|重機車靴推薦|重機專用車靴|重機防摔鞋|重機防摔鞋推薦|重機防摔鞋

AUGI SPORTS|augisports|racing boots|urban boots|motorcycle boots

arrow
arrow

    uoj558o8e8 發表在 痞客邦 留言(0) 人氣()