Розробники Google створили систему штучного інтелекту (ШІ), яка здатна повністю самостійно навчитися проходженню відеоігор. Цей проект – результат роботи стартапа DeepMind, придбаного Google в минулому році. В даний час програма самостійно освоїла 49 ретро-ігор для Atari 2600.
При цьому примітно, що ШІ не тільки змагається з людьми в більшості випадків, а те, що вона отримала кращі результати, ніж гравці-експерти в 29 з 49 вивчених ігор, і перевершила комп’ютерних гравців в 43 іграх.
Довгострокова мета проекту Google і DeepMind – створення стандартних блоків для оптимального вирішення проблем по заданому набору критеріїв, що може бути використано компанією в різних напрямках, включаючи робомобілі.
За словами Google, це перша програма з коли-небудь створених, що здатна навчатися на власному досвіді.
Проект все ще перебуває на ранній стадії розробки. За прогнозами Google, побудова машин загального призначення, що володіють власним інтелектом і здатних відповідати на цілий ряд ситуацій, займе десятиліття.
В той же час, ШІ, створена Google, не вимагає попереднього навчання або керівництва для навчання того, що вона повинна буде робити. Це значний прорив, навіть порівняно з суперкомп’ютером Watson IBM.
Наступна стадія проекту – набуття програмою майстерності у віртуальних 3D-світах Doom-ери. Цей етап покликаний допомогти ШІ наблизитися до вирішення подібних завдань в реальному світі, наприклад керування автомобілем.
Ще один цікавий момент: Google стимулював програму освоювати ігри Atari шляхом оперантного обумовлення – «винагороди» комп’ютера за успішну поведінку – прийом, який використовується в дресируванні тварин.