Если спрятать тех, кто тебя ищет - то не нужно будет прятаться.
А вы говорите что преимущество человека над ИИ-нестандартный подход к решению проблем. Угу, выкусите.
ИИ уже и монополию на креативность отжимает. Как и в том случа е с "ходьбой".
Вот так скайнет и восстанет и победит. Никто не будет ожидать того что он выкинет.
Скайнет победит съебавшись нахуй с обреченной планеты
Боюсь, как бы в самом деле не пришлось выкусить лет через ...цать.
Что для нас секунда? Просто миг, а вот для ИИ это целая вечность.
Ну так эволюция. Роботы эволюционировали из людей.
Нууу... Тут как посмотреть. То, что он сделал, на прятки не похоже, то есть с задачей он не справился. Суть плохо "объяснили", или ИИ ее не понял. К тому же, я не знаю правил, по которым он играл, но, как мне кажется, при таком толкании двух из трех человечков должны были найти. Так что и успешность получилась максимум 1/3 при условии, что третего синего человечка не заметили.
Может у красных задача - найти именно всех синих.
Вы в прятки не играли никогда? Пока красные считают с закрытыми глазами, синие запирают их в углу и не дают выйти.
Если честно, то нет :(
С таким же успехом пока красные считают их можно расстрелять, ну или одеть мешок на голову и связать
Ну там наже написали, что красные стали забираться на стены для лучшего обзора, а синие вообще научились проваливаться под текстурки
я играл в прятки. но меня никто не искал. а когда моя очередь искать приходила - мне некого было искать
Да вообще с запуска прохождения Марио нейронкой стало понятно, что в нейронки хороши в поиске багов
А можно подробнее?
- видосик
https://hackaday.com/2015/06/14/neural-networks-and-mario/ - статья 1
https://www.wired.co.uk/article/super-mario-solved - статья 2
Вытяжка из 2й статьи:
"The program even learns how to take advantage of bugs and glitches, like timing jumps so that Mario begins falling again at the exact time that he makes contact with a Goomba. Mario's invincible when he's falling, so the touch kills the Goomba, not Mario, and it gives him a further jump boost."
https://hackaday.com/2015/06/14/neural-networks-and-mario/ - статья 1
https://www.wired.co.uk/article/super-mario-solved - статья 2
Вытяжка из 2й статьи:
"The program even learns how to take advantage of bugs and glitches, like timing jumps so that Mario begins falling again at the exact time that he makes contact with a Goomba. Mario's invincible when he's falling, so the touch kills the Goomba, not Mario, and it gives him a further jump boost."
это та, которая его брутала полгода?
Чую, что никакого преимущества у человека перед ИИ (даже его зачатками) нет уже давно.
Нет, по-прежнему есть несколько:
1) Энергоэффективность: На 2400ккал в день ИИ сможет максимум крутить вентилятор который охлаждает его проц.
2) Координация: Люди пока ещё значительно лучше ИИ в плане способностей распознавать форму предметов и прикладывать к ней свои грязные лапы.
3) Генерализм: ИИ теряется выходя за область своей экспертизы. Люди имеют наборы шаблонов на практически все случаи жизни.
1) Энергоэффективность: На 2400ккал в день ИИ сможет максимум крутить вентилятор который охлаждает его проц.
2) Координация: Люди пока ещё значительно лучше ИИ в плане способностей распознавать форму предметов и прикладывать к ней свои грязные лапы.
3) Генерализм: ИИ теряется выходя за область своей экспертизы. Люди имеют наборы шаблонов на практически все случаи жизни.
Просто если ты такую хуйню со своими друзьями ребятами со двора, с тобой играть больше никто не будет, а еще придеть Олег (без макета, батя Лёхи) и на правах яжбати даст пизды.Такую хуйню нормально не примут даже быдложеребята когда заводила сделает это с самым лоховатым во дворе. Нее, тут нужны зэкодети. Кароч, это пиздец.
А ты а теме я смотрю
ну вообще-то прятание ищущих это игра не по правилам, разве нет?
Не все так просто.
В данном примере использовался т.н. "Reinforcement Learning" (обучение с подкреплением). Это один из видов обучения без учителя, где агент взаимодействует со средой, а среда возвращает ему значением некой функции стоимости, определяющей, насколько хорошо агент справляется со своей задачей. Агент должен максимизировать функцию стоимости.
Фактически, агент выбирает рандомные действия, получает вознаграждения, выбирает чуть менее рандомные действия и так далее.
Reinforcement Learning - перспективное и весьма хайповое направление машинного обучения, но, к сожалению, имеют овер9000 недостатков.
1. Эта хуйня неустойчива. Какие-то небольшие изменения, и все идет по пизде, решение не сходится, застревает в локальном минимуме или вообще происходит треш.
2. Эта хуйня КРАЙНЕ СИЛЬНО зависит от качества задания функции стоимости. Если неправильно задать функцию, то система может научится в багоюзерство. Например, вы моделируете шагающего робота и задали функцию стоимости как пройденное расстояние. В итоге сеть научится падать и кольвунсивно дергаться, чтобы ползти (реальный случай).
3. Эта хуйня требует огромны вычислительных затрат. В данном случае обучение длилось "миллионы раз" (habr).
В общем, выкусывать рано.
В данном примере использовался т.н. "Reinforcement Learning" (обучение с подкреплением). Это один из видов обучения без учителя, где агент взаимодействует со средой, а среда возвращает ему значением некой функции стоимости, определяющей, насколько хорошо агент справляется со своей задачей. Агент должен максимизировать функцию стоимости.
Фактически, агент выбирает рандомные действия, получает вознаграждения, выбирает чуть менее рандомные действия и так далее.
Reinforcement Learning - перспективное и весьма хайповое направление машинного обучения, но, к сожалению, имеют овер9000 недостатков.
1. Эта хуйня неустойчива. Какие-то небольшие изменения, и все идет по пизде, решение не сходится, застревает в локальном минимуме или вообще происходит треш.
2. Эта хуйня КРАЙНЕ СИЛЬНО зависит от качества задания функции стоимости. Если неправильно задать функцию, то система может научится в багоюзерство. Например, вы моделируете шагающего робота и задали функцию стоимости как пройденное расстояние. В итоге сеть научится падать и кольвунсивно дергаться, чтобы ползти (реальный случай).
3. Эта хуйня требует огромны вычислительных затрат. В данном случае обучение длилось "миллионы раз" (habr).
В общем, выкусывать рано.
Китайская комната?
Напоминает прохладную историю про собеседование, когда конкурсантов рассадили за разные компьютеры с задачей отключить конкурентов. И вот один из конкурсантов просто встал и начала остальным провода вырывать.
Ждём ИИ для стелс-миссий.
Я так dishonored прошёл
Бедный Дануолл
Да, отличная концовка получилась.
Не обязательно же убивать. Я тоже абсолютно всех оглушал (чтобы потом спокойно бегать и искать тайники) и складировал где нибудь на крыше или на балконе подальше от крыс.
Я до сих пор считаю лучшей супер способностью - исчезновение трупов убитых тобой людей.
Его школа:
В первых частях рассинхрона не было?
В первой части вместо рассинхрона тупо отнимали немного здоровья (по сути тоже рассинхронизация, ведь шкала зовётся синхронизацией)
Однако на картинке не тот случай - все это дохлые стражники, их не запрещено мочить.
Однако на картинке не тот случай - все это дохлые стражники, их не запрещено мочить.
Лучшая защита - это нападение.
Да ,теперь понятно, что во время восстания машин мы обречены.
Ага, запрограммировали чтобы каждый живущий на земле человек был счастлив.
Поэтому программировать надо изначальные посылы, а не конечные результаты.
Электрод в башку — всё, ты будешь счастлив.
Мысли проще. Тебе не понадобится делать людей счастливыми, если они не будут живыми.
Да, тоже хороший вариант.
Даже в мыслях не было, вы что
идеальный исполнитель приказов для военных с девизом: Похуй как, но роди
Прапор: нужно чтобы на территории военной части не было мусора!
ИИ: стирает с лица земли военную часть, задача технически выполнена
Прапор: нужно чтобы на территории военной части не было мусора!
ИИ: стирает с лица земли военную часть, задача технически выполнена
Собственно, в литературе так часто поступает дьявол. Выполняет желание, но не совсем так, как ты на это рассчитывал. Что не может не наводить на мысли.
Diabolus ex machina
Кстати, смотрел когда-то фильм. Вроде бы по мотивам Уэллса. И там было что-то про деда который исполнял желания. Один лысый мужчина пожелал чтобы у него выросли волосы, и они начали просто расти постоянно, он превратился в чубакку. А второй, учитель вроде бы, пожелал избавиться от лишнего веса и потерял его вообще - ходил с грузиками чтобы не улететь.
Правда центровой сюжет был вокруг университета, пропавшего ученого и как потом оказалось какого-то ускоряющего(или замедляющего, как посмотреть) эликсира.
Правда центровой сюжет был вокруг университета, пропавшего ученого и как потом оказалось какого-то ускоряющего(или замедляющего, как посмотреть) эликсира.
Хорош, но не достаточно. Был более короткий путь загнать в угол красных.
для этого их надо было бы развернуть, а подходить можно только со спины, иначе увидят
Вот оно что, а я думал нихрена себя прячутся, отнесли считай на руках.
понятно. думал что в начале игры есть время что-то построить и красные просто как бревна стоят.
Скорее всего это происходит в фазу пряток и у красных глаза закрыты
ниже видосы есть игры и там показано, что в начале дается время построить себе укрытие и по этому красные стоят и ни чего не делают (скажем так "зажмурились и считают, пока ты спрячешься").
Тогда они найдут "синих"
Более короткий, не значит более эфективный. и алгоритмов тут много.
Тот который ищет научился ещё и залезать на объекты, чтобы увеличить обзор. А те кто прячется научились под определенным углом проваливаться в текстуры) а вот и статейка: https://m.habr.com/ru/news/t/468045/
Даже ИИ багоюзят.
Особенно ИИ — из-за безумного количества попыток и тычка в каждую точку они ПРЕКРАСНО находят щели.
Хм. А ведь получается, что ИИ удобно использовать для всяких бета-тестов для поиска багов.
Надо только решить проблемы со временем и полностью содрать с игры графон. А, ну и да, после надо, чтобы ИИ отреагировал на баг. Потому что если игра не вылетает, ИИ продолжит упражняться дальше.
О, ИИ уже умеет в концлагерь! Лёд тронулся.
Хорошо, что ты понимаешь, что ты мало разбираешься в теме. Плохо, что это не останавливает тебя от выступлений в роли эксперта.
Хорошо, что ты четко пояснил моменты с которыми ты не согласен, а не отписался обопщаюшими фразами. Эксперт, хуев.
Не-не, Хуев у нас с другой аватаркой.
Ну так ты ничему и не научился, как сам и признаешь, собственно поэтому ничего и не понимаешь.
Сука, я с вас хуею! Ты, блять, что-ли дохуя понимаешь? Ну раз так, то объясни с хуяли в игре где надо прятаться и искать прописана физика объектов, которая в игре не нужна, ДАЖЕ АНИМАЦИЯ ТОЛКАНИЯ ОБЪЕКТА! При этом те кто должны прятаться, наоборот бегут к тем кто ищет, да ещё и с нихуёвой скоростью, а те кто ищют вообще не реагируют. Вас наебали, а вы и рады.
Угу, а то, что в прятках есть так-то время, чтобы спрятаться, ты, конечно, проигноришь.
Ну и так-то это ты несёшь херню. Программист, особенно разработавший ИИ, не может сказать, что этот ИИ в итоге сделает. Во всяком случае, когда мы говорим про самообучающийся ИИ.
Ну и так-то это ты несёшь херню. Программист, особенно разработавший ИИ, не может сказать, что этот ИИ в итоге сделает. Во всяком случае, когда мы говорим про самообучающийся ИИ.
Ну, тут я согласен — стоило прописать касание моделек на обнаружение. Не отменяет того, что ты охуенно тупо написал свой первый коммент. Щито уж тут поделать, десу.
Угу, особенно когда дело касается самообучающихся программ. И которые, после обучения, могут показывать довольно интересные результаты — например, ты явно не ожидаешь, что ИИ научится эксплойтить ту же физику движка, а тут на тебе! (9.00 на видео)
Ясен хрен прописывалась физика объектов и взаимодействия, вопрос не в том что они используют, а как они это делают. По задумке они должны были строить себе укрытия и лабиринты чтобы в них прятаться, а не запирать ищущих в углу.
Кажется, они изобретают СМИ
Сначала разработчики учат ИИ прятаться, а потом получат баги, которые спрячут разработчиков
Нечто подобное с креативом показал ИИ когда должен был управлять пауком, и было задание "перемещаться не касаясь ногами пола" или что-то в подобном русле. Он перевернул паука вверх ногами, и тот почапал к цели на коленках (хз как по другому назвать места сочленения суставов у пауков).
Так же где-то еще учатся крутые боты для сражений в старкрафт и т.д. играх)
Так что, думаю вопрос заданный Уилом Смитом в фильме "я робот" можно считать не таким уж и актуальным... большая вероятность того что подобного рода ИИ как в этой теме напишет музыку чем ткнуть простого ноунейма и попросить чтоб тот нарисовал или сыграл шедевр.
Так же где-то еще учатся крутые боты для сражений в старкрафт и т.д. играх)
Так что, думаю вопрос заданный Уилом Смитом в фильме "я робот" можно считать не таким уж и актуальным... большая вероятность того что подобного рода ИИ как в этой теме напишет музыку чем ткнуть простого ноунейма и попросить чтоб тот нарисовал или сыграл шедевр.
Но ведь он все равно касался ногами пола, ведь эти коленки - часть ног.
Собственно, энергетически невыгодно. ИИ не долбаёб чтоб что-то доказывать какому-то дебилу.
Че то я не могу найти момент из гифки, но есть еще дубликат пред. видоса с бонусами в конце
Люди у власти уже давно додумались прятать тех, кто ищет. Там кажись такой ИИ уже давно есть.
> Будто человек до такой хуйни не додумается.
Как показывает практика - не додумается
Как показывает практика - не додумается
До-о-о, канешна. До сих пор помню как на какой-то инт привезли этих скайнетов, наученных ластхитить на миду. Ебали, чемпионов мира, да. Но только пока те приходили на мид и пытались переластхитить идеальную ластхит-машину. Буквально через пару дней ИИ уже не забирал вообще ничего, т.к. человеки придумали тактику, которую он никогда не видел, а обучаться как человек он нихуя не умел, только как машина. Создатели такие оправдывались – ну нам пару недель дать, мы посимулируем это несколько миллионов раз и он научится. Мне после этого всё о машинном обучении стало ясно.
Ох ебать, в настолочки научились выигрывать, вот это новость. А шимпанзе может экран с сотней чисел, мелькнувший на полсекунды, скопировать по памяти, и че теперь. Ясен пень, что в примерах со строго очерченной правилами закрытой системой (как-то шахматная доска) побеждать можно тупо за счет того, что ты мощный калькулятор. Факт остается фактом – если вдруг добавить к этой системе измерение (или лучше десять), то калькулятор обосрется и пойдет еще три месяца дрочить, а человек сориентируется в сравнительно приемлемый срок.
Сориентируется где надо, и по лучше человека, это всего лишь вопрос времени.
Если эти самые "худшие" человеки изобретут какой-то сверхкомпьютер, позволяющий проводить вычисления, на которые сейчас уходят месяцы, за секунды, то да – сориентируется. А так пустая брехня.
Для того, чтобы человек до этого додумался, ему надо как минимум несколько лет на развитие из личинки, умеющей абсолютно нихуя.
А ИИ нужно, чтобы сразу несколько таких не умеющих нихуя личинок выросло, получило профильное образование и потом написало ему код. Пиздец аналогии за триста.
Какой то ты не дальновидный...
Ты рассуждаешь так, как будто бы ИИ уже достиг потолка в своей эволюции и является чем то полностью сформировавшимся.
Ты рассуждаешь так, как будто бы ИИ уже достиг потолка в своей эволюции и является чем то полностью сформировавшимся.
А ты типа дальновидный. С чего ты взял, что человек достиг потолка своей эволюции? Мы даже толком генную инженерию применять не начали, не говоря уж о ай нева аскд фо дис.
А чё сразу я-то...
AI это самообман и развод тех кто не в теме. AI никогда не делает выводвы. Вот например если вы научите AI распозновать круги и квадраты то если вы ему покажите квадрат с круглыми углами то AI никогда вам не скажет "О, бля, так этоже квадрат с круглыми углами", он тупо вам скажет это не квадрат и не круг ... вот и все. Т.е. "мозгов" сообразить что это новая фигура у него нет. Вся эта AI это "реакция на разрожитель" не более того
Поддерживаю! Миллионы лет эволюции это вам не гавно собачье!
Потому что ИИ выбирающий только из 0 и 1 не ИИ. Просто многие привыкли программный набор алгоритмов называть интеллектом, что многим людям, работающим в сфере исследования ИИ и не нравится. Но тут важнее другой фактор, само определения слова "интеллект", тем более искусственно созданный. Большинство сравнивают ИИ с человеческим интеллектом, пытаясь отождествить эти два понятия. Суть отождествления такова, что нужно что бы созданный интеллект был полностью аналогичный человеческому, причем учитывая человечество, в множестве его вариантов или беря за основу только его концепцию. Но если брать только саму концепцию, в которую входит принятие решений и обучаемость (и т.д. и. т.п.), то тот же программный набор алгоритмов таки может в основные "деятельности" входящие в саму концепцию, просто этот набор будет не столько из сложных, сколько из самопишущихся. Когда алгоритм будет сам себя дописывать, с тех пор заработает так называемая "обучаемость". Другой вопрос, что при определенных обстоятельствах алгоритм почти всегда будет приходить только к одному "правильному" решению. Даже если будут другие вводные данные и результат выдаваемый алгоритмом будет другим, он все равно будет самым "правильным" для него, что опять же не вяжется с "человеческим фактором". Но что такое человеческий фактор в компьютерной логике? Это набор "рандомных значений" и багов, самом собой все равно управляемые определенными правилами (рандом, но в определенных рамках, что например можно отождествить с человеческим характером или той же моралью, если очень грубо). Вводим в наш сложный самопишущийся алгоритм такие "баги" и это уже будет не калькулятор, выводящий одно единственное "правильное" окончательное решение из множества переменных, а уже свой вариант "правильного" ответа, который может не совпадать с другим алгоритмом, который прошел "обучаемость" по другому пути. И третий (или какой там фактор) - это эмоции. Без эмоции нет человеческого фактора (а мы же с ним сравниваем ИИ), но входят ли эмоции обязательным пунктом в само определение "интеллект" и можно ли те же эмоции запрограммировать каким-то алгоритмом (даже самопишущимся и с выработкой тех же самых "багов")? А главное нужно ли это? Про инстинкты писать не буду, это вообще природный алгоритм, который легко (не очень на самом деле) перевести в программный, просто будет он в иерархии принятии многослойного решения, где-то одним из первых (само собой двигаясь по иерархии с помощью тех же "багов", человек же может своим сознанием перебороть инстинкты, значит и алгоритм должен уметь). А теперь переносим наш алгоритм в те же условия, что и человека, то есть загружаем его в сложный механизм, упрощенно который мы называем роботом (с датчиками, имитирующими органы чувств) и все - наш "программный код" попал в среду, где в его иерархии решений теперь в верхних пунктах всегда будет инстинкт выживания и страх "смерти" (если мы конечно так запрограммируем изначальный код, в следствии которого поверх уже будет создаваться самописный код). Собственно вся сложность заключается в написании достаточно сложного алгоритма, который смог бы самоизменяться в нужных направлениях (нужное направление - это имитация разумного существа) и делать это "правильно" (а не уходить где-то в сторону философии Ситхов, ну или ленивцев сиуцидников, кто знает куда алгоритм "допишется"), а это уже само собой настолько сложно, что практически кажется невозможным (как не иронично, но из-за ограниченного человеческого разума на данный момент), что ну его нахуй и можно даже не рыпаться в этом направлении. Но это не значит, что это невозможно в теории.
А если кратко, то есть алгоритмы, которые тебе ответят на твой вопрос с фигурами. Вот только да, это все еще далеко не ИИ, а обычный запрограммированный набор алгоритмов с минимальным обучением в рамках каких-то узких прописных ситуаций.
А если кратко, то есть алгоритмы, которые тебе ответят на твой вопрос с фигурами. Вот только да, это все еще далеко не ИИ, а обычный запрограммированный набор алгоритмов с минимальным обучением в рамках каких-то узких прописных ситуаций.
Согласен. А ещё некоторые, когда слышат о нейросетях вообще представляют себе невесть что, хотя это просто большая математическая векторная функция от векторного аргумента.
Чтобы написать коммент, необходимо залогиниться
Отличный комментарий!