MIT Technology Review рассказает про работу команды из Университета Вашингтона, которая пытается воспроизвести поведение собаки на основании визуальных данных. Если быть точнее, то задача ставится так: можно ли предсказать движения животного по тому, что она видит? Вся задача бьется на несколько вопросов (подзадач):
1) Можно ли предсказать движения тела по нескольким последовательным кадрам?
2) Можно ли спланировать движение животного на пути от места на одном изображении к месту на другом?
3) Можно ли, используя обученную модель, предсказать, где можно ходить на предоставленном изображении?

Выводы: для предсказания поведения "умного агента" достаточно визуального входа, причем внутренее представление построенной модели отличается от аналогичного для задачи классификации изображений, а сама модель может быть обобщена на другие домены.

Переводя на простой язык, модель, построенную на базе поведения животного (что видит -> что делает), можно не только использовать для предсказания такого поведения, но и для анализа самого пространства (пути прохождения, выделение "ходимых" поверхностей и т.п.). Причем потенциально для разных животных мы будем получать разные полезные свойства.

Обзор: https://www.technologyreview.com/s/610775/this-ai-thinks-like-a-dog #ai #nature #simulation

Подробности: https://arxiv.org/pdf/1803.10827.pdf
How to Easily Find YouTube Videos: A Comprehensive Guide