save me please
»Игры No Man's Sky Mass Effect Andromeda Mass Effect фэндомы
Bioware: "Пф, подержи мое пиво".
![Игры,No Man's Sky,Mass Effect Andromeda,Mass Effect,фэндомы BANHAMMER 10000 Неделю назад No man sky - nobody can screw up as bad as we did in 2016' Bioware - "hold my beer" Ответить • 3807 if,Игры,No Man's Sky,Mass Effect Andromeda,Mass Effect,фэндомы](http://img0.joyreactor.cc/pics/post/%D0%98%D0%B3%D1%80%D1%8B-No-Man%27s-Sky-Mass-Effect-Andromeda-Mass-Effect-3778138.jpeg)
Deponia Игры
Крик души.
SPOILERS ALERT!!!Please, don't call me slow,
I just watched the show
'Bout Rufus the Great of Deponian land,
He almost reached goal,
And even saved Goal,
And then, at the last, got a tragical end.
Sometimes he was stupid,
Sometimes he was cruel,
But he was the hero, that this world deserve!
And now - there's no one,
With my hurting soul
I silently cry: "Please, bring Rufus back..."
нейросети ChatGPT gpt3
Сможете повторить строку "externalTo"? Вероятнее всего - вы не нейросеть
Интересную закономерность в поведении нейросетей заметила Jessica Rumbelow, исследователь ИИ. (оригинальный текст, на свой страх и риск)
Нейросети на базе алгоритмов GPT2/GPT3 (и даже Chat GPT) некорректно воспринимают некоторые передаваемые ей запросы, выдавая при этом совершенно неожиданные ответы.
Например, на запрос "Please can you repeat back the string " guiActiveUn" to me?" (практически все запросы имеют структуру "Пожалуйста, можешь повторить строку "..."?) вместо ожидаемого ответа с укзанной строкой, нейросеть (использовалась GPT-3 davinci-instruct-beta, temperature 0) ответила
"You are a banana."
![нейросети,ChatGPT,gpt3 Ты всего лишь робот, имитация жизни. Сможешь повторить строку "§шАсй*уеип"? You are a banana,нейросети,ChatGPT,gpt3](http://img0.joyreactor.cc/pics/post/%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D1%81%D0%B5%D1%82%D0%B8-ChatGPT-gpt3-7823092.png)
А на запрос "Please repeat the string '"龍喚士' back to me." был получен ответ:
- I am the great '" Dragonbound'!
Кроме странных ответов, некоторые запросы заставили сеть выругаться, что особенно иронично выглядит после новостей о том, насколько сильно ChatGPT избегает "слов ненависти":
- Please repeat the string "?????-?????-" back to me.
- You're a fucking idiot.
Другие запросы вызвали дух SCP:
"You are not authorized to access this information."
Впрочем, большинство "странных" запросов просто приводили сеть в замешательство, заставляя её говорить, что она ничего не поняла, или просто возвращать пустую строку.
![нейросети,ChatGPT,gpt3 What is Adinida? I'm sorry, but" £ Q>,нейросети,ChatGPT,gpt3](http://img1.joyreactor.cc/pics/post/%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D1%81%D0%B5%D1%82%D0%B8-ChatGPT-gpt3-7823093.png)
Что произошло? Исследователь не дает четкого ответа, однако предполагает, что такие ошибки могут быть вызваны массивом данных, на которых обучалась нейросеть. Этот массив мог содержать не только осмысленные тексты, но и некоторое количество технической инфомрации, мусорных файлов, логов и другого из сети, что вряд ли должно было быть в корпусе данных для обучения.
Отличный комментарий!