Американский программист Кайл МакДональд (Kyle McDonald) описал кадры прогулки по Амстердаму при помощи нейросети, разработанной исследователями из Стэнфордского университета. Кратко об эксперименте рассказывает The Verge.
Взяв в качестве аппаратной платформы MacBook Pro 2013 года, разработчик запустил на нем программу обработки видеопотока с веб-камеры и вышел на прогулку по Амстердаму, держа перед собой раскрытый ноутбук. Получившиеся в результате видео с комментариями нейросети автор опубликовал на Vimeo.
Для обработки кадров программист использовал программу NeuralTalk, которая способна описывать происходящее на статичных фотографиях связными предложениями. Алгоритм сначала распознает объекты на статичном изображении, а затем описывает естественным языком их взаимоотношение на картинке. Для изначальной тренировки нейросети использовался набор из 150 тысяч снимков, описанных вручную живыми людьми.
Ну как бы компьютер, способный интерактивно реагировать на происходящее. Как человек, который визуально воспринимает и автоматически интерпретирует окружение. Это уже не просто робот, который сканирует лазером, и распознаёт рельёф, а робот, который понимает, что он видит.
Сегодня это парнишка с ноутбуком, завтра это андроид, неотличимый от человека. Новая эра, и мы на её пороге. Мы сейчас как испанцы 16 века, наблюдающие открытие и колонизацию Нового Света. Мы сейчас, как мещане 18 века, с опаской и ропотом смотрящие на электричество, похожее на магию. Мы сейчас, как люди середины 20 века, с жадностью поглощающие трансляции первых запусков космических программ.
А ты, блядь, "и чё?". Хуй в очко.
Отличный комментарий!