Българският ИТ портал
Потребителско име
Парола
Регистрация
Нова парола
Изпрати SMS | Новини | Онлайн превод
  SoftVisia

Новият многозадачен ИИ на DeepMind се учи с рекордна скорост

Отделът по изкуствен интелект DeepMind на Google, разработи нов метод за обучение на невронните мрежи, съчетаващ най-съвременни алгоритми с известни игри.

Това е новата компютърна система IMPALA, която едновременно изпълнява няколко процеса, а конкретния случай, играе 57 игри на Atari и трупа опит.

Създателите на невронната мрежа AlphaGo, която на няколко пъти победи световните шампиони в играта Го, считат, че машината може да започне да се учи като хората. С помощта на тренировъчната система DMLab-30, базирана на екшън-играта Quake III и аркадните игри на Atari, екипът от специалисти създаде новата архитектура IMPALA (Importance Weighted Actor-Learner Architectures).

IMPALA споделя опита, получен по време на обучението с група изкуствени интелекти, като по този начин, съвместното обучение е многократно по-бързо. Системата преминава игрите не само 10 пъти по-ефективно от всички създавани досега компютърни модели, но и играе едновременно множество видеоигри.

За работата на IMPALA е необходим мощен хардуер, който да обработва големия обем информация, в случая – милиарди кадри. Колкото по-бързо се извършва обработката на информацията, толкова по-бързо се учи новият изкуствен интелект.

Представителите на DeepMind заявиха, че при наличието на достатъчен брой процесори, IMPALA достига производителност от 250 000 кадъра в секунда или 21 милиарда кадъра на денонощие. Това е абсолютен рекорд при задачите от подобен род.

Коментари
Все още няма коментари
Статистика
Прегледи 1
Коментари 0
Рейтинг
Добавена на14 Фев 2018
ИзточникKaldata

Тагове
DeepMind
Ние във фейсбук