Штучний інтелект Google грає в Starcraft II краще 99,8% гравців-людей

Alex Alex 31 жовтня 2019
 Штучний інтелект Google грає в Starcraft II краще 99,8% гравців-людей


Штучний інтелект AlphaStar, який розробила команда Google DeepMind, увійшов в «Елітну лігу» гравців StarCraft II — тобто потрапив до списку 200 кращих гравців світу. Про це повідомляє наукове видання Nature.

AlphaStar здатний грати за три раси, представлені в Starcraft II: зергов, протоссов і терранов. Як стверджує Nature, AlphaStar не мав ніякого особливого переваги перед звичайними гравцями, його суперники не знали, що грають проти машини. Попадання AlphaStar в «Елітну лігу» означає, що ШІ грає краще, ніж 99,8% гравців-людей.

«Мене дуже вразив стиль гри AlphaStar. Вона дуже вміло оцінює свою стратегічну позицію і точно знає, коли повинна вступити в бій з суперником, а коли варто відступити. При цьому я не відчував, що грав з надлюдиною, якого в принципі не можна перевершити. Мені здавалося, що мені протистоїть реальна людина», — прокоментував гру ШІ Даріо Вюнш, один з відомих гравців в Starcraft II.

Система AlphaStar домоглася успіху в Starcraft II ще в січні поточного року. Вона з великою перевагою перемогла одного з кращих в світі гравців в Starcraft II, поляка Грегоржа Коминча. Однак гра першої версії бота, як зазначили в коментарі Nature творці AlphaStar була неприродно хороша: машина могла виконувати набагато більше дій, ніж професійні гравці-люди, так як їй не потрібно було рухати рухати мишкою і натискати на кнопки. Також ШІ міг бачити більшу частину карти, ніж люди.

Згодом розробники обмежили можливості ШІ, щоб її гра з людьми була «чесною». Крім того, співробітники Google і DeepMind поміняли систему навчання AlphaStar. Вони змусили ІІ грати не з собою, а з різними версіями самого себе, завдяки чому ІІ зміг розробити більш складні стратегії.

На сьогодні ІІ Google вийшов на гросмейстерський рівень в Starcraft II. Як вважає британський програміст Девід Сільвер, один з творців AlphaStar, це означає, що ШІ вже в змозі вирішувати складні завдання і в інших, більш серйозних сферах.

«Історія прогресу в розвитку ШІ безпосередньо пов'язана з іграми. Після того як нейромережі перемогли людини в шахи, го і покер, Starcraft став наступною великою науковою задачею. Ми вирішили її, використовуючи універсальні методи навчання ШІ, які можна застосувати і для вирішення інших складних проблем», — заявив Сільвер.

ІЇ AlphaStar був розроблений на базі двох нейронних мереж. Одна нейромережа оцінює позицію гравця на карті, дошці або поле, а друга використовують результати цієї оцінки, щоб зробити хід.

ІЇ Google DeepMind вже домігся успіху в шахах, го і покер. У травні 2017 року ІІ AlphaGo, спеціально створений для гри в го, провів матч з чемпіоном світу за го Чи Седолем. AlphaGo виграв з рахунком 4:1. Пізніше успіху в го домігся та ІІ AlphaZero, після чого розробники оптимізували AlphaZero для комп'ютерних ігор.

Першим досвідом ІІ в комп'ютерних іграх став популярний шутер Quake III Arena. Ймовірність перемоги команд під управлінням ШІ досягала 74%. У людей-гравців — лише 52%. У квітні поточного року ІІ Open AI Five переміг одну з найсильніших команд світу OG в грі Dota 2. У цьому випадку машина також навчалася самостійно, граючи сама з собою. ІІ знадобилося 45 тисяч годин, щоб «зрозуміти» в Dota 2.

Google і DeepMind — не єдині компанії, які виводять штучний інтелект в світ ігор. Наприклад, фахівці Університету Карнегі-Меллона в співпраці з Facebook в липні 2019 створили ІІ-систему для гри в покер. Система носить назву Pluribus. Машина здатна досягти успіху в грі з п'ятьма суперниками.

Source: habr.com

Коментарі (0)

    Ще немає коментарів

Щоб залишити коментар необхідно авторизуватися.