Новая программа от Google получила возможность самостоятельно учиться прохождению компьютерных игр
В качестве наглядной демонстрации возможностей «Агента» Deep Mind опубликовали видео, на котором «молодой ИИ» учится играть в «Арканоид»: при помощи платформы он отбивал виртуальный мяч и разбивал «стену», состоящую из небольших блоков. И если поначалу он едва понимал, что от него вообще требуется, то спустя 600 партий «Агент» не только научился стабильно отбивать «мяч», но и отправлять его за «стену», проделывая в ней тоннели.
Свое изобретение ученые называют не иначе как прорывом в области создания ИИ. В отличие от разработанного в 1997 году компанией «Ай-би-эм» компьютера и одноименной программы Deep Blue, которая в 1997 году одержала сенсационную победу в шахматной партии против самого Гарри Каспарова, «Агент» может обучаться в буквальном смысле с нуля.
«Создавая Deep Blue, инженеры и программисты заложили в программу необходимые знания, — пояснил основатель Deep Mind Демис Хассабис, добавив, что разработанные его командой алгоритмы позволяют «Агенту» учиться на своих ошибках и обучаться самостоятельно, не обладая никакими начальными знаниями. «Это первый шаг, доказывающий, что программы могут обучаться самостоятельно, — заявил Хассабис.
Помимо развлечений, создатели алгоритма видят его применение и во вполне серьезных сферах — например, при создании автономных автомобилей, передвигающихся без участия водителя.
И хотя в нынешнем виде «Агент» не способен накапливать большой массив данных и принимать долгосрочные стратегические решения, он вполне может быть доработан, уверены исследователи. Сейчас в Deep Mind работают над созданием «памяти» программы и надеются, что это поможет ей освоиться с прохождением более современных трехмерных игр, сообщает ТАСС.
Добавить комментарий