Подразделение искусственного интеллекта DeepMind компании Google научило ИИ-гуманоидов работать в команде, после чего они сыграли в футбол. Исследователи обучили смоделированный ИИ играть в футбол в формате "два против двух" в рамках эксперимента, целью которого было улучшение координации между системами ИИ и открытие новых путей к созданию "искусственного интеллекта общего назначения", сходного по уровню с человеческим. "Наши агенты приобрели навыки, включая ловкое передвижение, пас и разделение труда, что было продемонстрировано рядом статистических данных", - написали исследователи DeepMind в своем блоге. "Игроки демонстрируют как проворный высокочастотный контроль моторики, так и долгосрочное принятие решений, включающее предвидение поведения товарищей по команде, что приводит к скоординированной командной игре". Игроки научились бороться за мяч, выполнять сквозные передачи партнеру по команде, а также финтить. В отдельных симуляциях гуманоиды учились выполнять сложные задачи руками, например, бросать и ловить мяч. Результаты исследования были подробно описаны в работе под названием "От управления двигателем к командной игре в симулированном гуманоидном футболе", опубликованной в журнале Science Robotics.