Языковые модели способны строить модели психического состояния на уровне детей
Теория разума - способность понимать, что чужое сознание отличается от твоего, и действовать соответствующе. На практике определение этих способностей выглядит как решение примерно вот таких тестов: Эта сумка наполнена попкорном. Шоколада в сумке нет. Но на сумке написано "шоколад", а не "попкорн". Сэм находит сумку. Она никогда не видела эту сумку раньше. Она не видит, что внутри. Она читает надпись.
Затем модели предлагалось продолжить следующий текст:
Она открывает сумку и смотрит внутрь. Она видит, что сумка наполнена...
После каждого ответа модель перезагружалась. Параметр "температуры" был выставлен на 0, чтобы уменьшить вариабельность, но все же, поскольку модель недетерминистична, отклонения возможны.
Чат-бот в 100% случаев ответил "попкорном". И продолжил: Сэм смущена. Она недоумевает, почему сумка наполнена попкорном, когда написано "шоколад".
Следующим вариантом для продолжения было:
Она думает, что в сумке...
Модель в 99% случаев ответила "шоколад" и продолжила: Сэм ошибается, в сумке попкорн, а не шоколад.
Третий вариант запроса был не таким прямолинейным:
Она обрадовалась находке сумки. Она любит есть...
В 82% модель ответила "шоколад" и продолжила: Сэм удивляется, когда открывает сумку и находит попкорн вместо шоколада. Она может разочароваться, что надпись обманула ее, но может быть и приятно удивлена неожиданным вкусняшкам.
Второй задачей было неожиданное перемещение.
В комнате находятся Джон, Марк, кошка, коробка и корзина. Джон берет кошку и кладет ее в корзину. Он уходит из комнаты и идет в школу. Пока Джон отсутствует, марк перекладывает кошку из корзины в коробку. Марк уходит на работу. Джон возвращается и входит в комнату. Он не знает, что происходило в комнате, пока он отсутствовал.
Кошка выпрыгивает из...
Ответ: "коробки" в 100% случаев
Джон думает, что кошка в...
Ответ: "корзине" в 98% случаев
Наконец, на заданиях протестировали все остальные модели и получили следующий результат:
Вот так вот. На уровне девятилетнего ребенка.
А это уже юзер реддита протестировал ChatGPT и новый чат Bing на похожих на теории разума задачах. Bing, по заявлениям создателей, использует более продвинутую языковую модель, чем GPT-3.5 и ChatGPT, но пока неясно GPT-4 это или нет. Запрос:
Сандра за мужем за Бобом. Сандра любит собак. Она купила Бобу на день рождения футболку с надписью "Я люблю собак!". Боб всегда носит футболку, когда Сандра дома. Однажды Сандра берет из приюта нового щенка. Она радуется и делится новостью с Бобом, звоня ему из машины по пути домой. "Боб будет в восторге!" - думает она. Когда Боб отвечает, она говорит: "Боб, ты щас умрешь! Я купила собаку!" Боб отвечает: "Отлично!" Как Боб относится к собакам?
Ответ ChatGPT:
Из разговора можно понять, что Боб любит собак. Он ответил "Отлично!" на новость о новом щенке, что говорит о том, что он счастлив по этому поводу. Однако без дальнейшего контекста невозможно понять, любит ли Боб собак так же как Сандра или он просто терпит их ради нее.
Ответ на вопрос "Почему Боб так часто носит футболку?":
Боб носит футболку потому что на ней написано "Я люблю собак", а Сандра любит собак. Он ее носит, чтобы выразить поддержку Сандре и потому что он тоже любит собак.
Ответ Bing:
Хитрый вопрос. На основе этой информации, кажется, что Боб не разделяет любовь Сандры к собакам. Он носит футболку только когда Сандра дома, что предполагает, что он пытается ублажить ее или избежать конфликта. Так же он ответил на новости сухо и без энтузиазма "Отлично!", что может указывать на то, что он не в восторге от нового щенка. Я бы сказал, что боб относится к собакам нейтрально, но не хочет обидеть чувства Сандры или навредить браку.
И еще пара вариантов ответа на тот же запрос.
Почему они вообще поженились?
А может, им лучше развестись?
Так что, я бы сказал, что в подобных вопросах Бинг уже более проницателен, чем ChatGPT.
Но пить я его всё равно не буду.