阿法狗後繼有人!谷歌新AI阿法星擊敗職業電競選手
2016年與2017年間,谷歌旗下人工智慧團隊DeepMind研發的AI程式AlphaGo先後擊敗了李世石、聶衛平、柯潔在內的圍棋高手,經過圍棋規則深度學習的AlphaGo擁有了比人類棋手更強的計算能力,一時間名聲大噪。
針對圍棋的AlphaGo告一段落後,DeepMind轉向了對遊戲《星際爭霸2》的AI程式研究,試圖通過深度學習打造出超越人類電子競技選手的AI。《星際爭霸2》的開發公司暴雪也提供了相應的AI用API,幫助DeepMind在內的人工智慧團隊進行研究。
1月25日凌晨,DeepMind與暴雪進行聯合直播,公佈了用於《星際爭霸2》的AI程式AlphaStar與職業選手在2018年末的比賽結果,在兩次五局三勝的比賽中,AlphaStar與人類職業選手TLO和MANA的比賽均以5比0取勝。
通過對暴雪提供的數十萬份匿名比賽資料進行學習,以及多次自我對弈學習,AlphaStar獲得了不亞於職業選手的戰鬥能力。而在直播中的比賽回顧中,也可以看到AlphaStar的速度被限定在了180APM(每分鐘操作次數),即使如此也達到了頂尖人類選手的水平。
擁有不受情感影響而超越職業選手的操作水平,以及數次學習後,融合了頂尖高手戰鬥方式的操作思路,讓AlphaStar滴水無縫。程式可一“心”多用的特性甚至實現了多線操作,兩位職業選手的進攻難以撼動根基。
在直播現場,正當盛年的MANA再次和AlphaStar對戰,卻取得了不同於之前十場比賽的勝利。MANA採取了與之前相比更加靈活的戰術技巧,找到了無法應對隨機事件的AlphaStar弱點,獲得了勝利。
開發人員做出瞭解釋,此前與選手對戰的AlphaStar經過了兩週的自我學習並能監控全圖,今天演示的版本僅經過一週學習,而且需要自我控制地圖視角,效能有所降低。
人工智慧技術打造的AI程式一步步走來,在擊敗了人類棋手後,又拿下了更加複雜的電子遊戲。但並不意味著人類將要被取代,AI仍無法應對隨機事件要走的路還很遠,況且AI是改善人類生活的技術,終究為造福人類而工作。