А что если мы тоже состоим из тысяч и тысяч "IF"?
Речь была вроде про нас, а не про мифических существ.
if a="залупа свинная" then println "может быть"
if a="соси хуй" then println "ой все"
if a="соси хуй" then println "ой все"
Предположим... А теперь посмотрим, что под крышкой!
Состоим, только вот наш мозг способен сам дописывать и удалять иф
Но, но любая нейронная сеть это тоже кучка "if"ов.
Но нейронные сети обладают адаптивностью, они могут меняться, подстраиваться под задачи, переписывать сами себя, в некотором смысле.
В комиксе, полагаю, речь идет о "ИИ" типа чатбот, который просто имеет заготовленные ответы на определенные вопросы/условия, но не может переписать саму свою структуру, не может "расти".
Есть, конечно, алгоритмы самообучения, не полагающиеся на нейронные сети. Но классические среди них как правило слишком узконаправлены, чтобы считаться истинным самообучением, достойным термина ИИ.
В комиксе, полагаю, речь идет о "ИИ" типа чатбот, который просто имеет заготовленные ответы на определенные вопросы/условия, но не может переписать саму свою структуру, не может "расти".
Есть, конечно, алгоритмы самообучения, не полагающиеся на нейронные сети. Но классические среди них как правило слишком узконаправлены, чтобы считаться истинным самообучением, достойным термина ИИ.
Отлично сказал!
Но это не отменяет того факта, что нейронные сети это тоже набор if ов. Просто их дохрена и их весы меняются алгоритмом обучения, а не в ручную. Хотя, если в посте имеются в виду if ы как часть строк кода, то вопросов нет
*весА.
Так меня учили на лекциях по нейронным сетям.
Так меня учили на лекциях по нейронным сетям.
https://cirillocompany.de/pages/anti-if-campaign
строго говоря, все - набор cmpeq ов и тп, но не надо так
строго говоря, все - набор cmpeq ов и тп, но не надо так
где ифы в биологических нейронных сетях?
Посмотри как работает нейрон. Там и найдешь.
нейросеть = куча ифов. окай
а можно мне описание процедуруы перенормирования одного в другое?
а можно мне описание процедуруы перенормирования одного в другое?
нейрон не пердает сигнал дальше по аксонам, если результат функции активации не превышает некоторый лимит
эк ты лихо пороговую функцию в иф покрестил
Там ещё куча циклов, как минимум
Наконец-то его катана пригодилась :3
Катана Тьюринга
Катана Оккама.
Жиза. Сплошное наебалово эти ИИ. Сплошной перебор вариантов.
Вообще-то любое принятие решения это перебор вариантов. Ты когда принимаешь решение, то основываешься на наборе вариантов которые тобой были приобретены в течении жизни, или лезешь в инет / обращаешься к более компетентному источнику и ищешь ещё вариантов чтобы добавить к своему набору. Думаешь ИИ будет брать варианты из ничего? Мне кажется при написании исходного кода всё равно без ифов не обойтись. Даже больше скажу, мы разработали алгоритмы с IFами, потому что наш мозг работает точно так же.
Да уж, кажется коллективный разум джоя не может в иронию.)
Это все потому, что некоторые части коллективного разума реактора не спешат обучать свои нейронные сети до достаточного соответствия с реактором
А кто-нибудь пытался сделать ИИ не в качестве ПО, а повторяющий принцип работы мозга?
Ну грубо говоря, сделать аппаратный аналог нейрона. И сделать из таких элементов мозг. А потом пытаться заставить это работать.
Ну грубо говоря, сделать аппаратный аналог нейрона. И сделать из таких элементов мозг. А потом пытаться заставить это работать.
проблема в том что никто не знает как должны соединяться нейроны, что бы работать как мозг.
Хотя бы потому что у каждого человека их разное количество и соеденены они тоже по разному.
Хотя бы потому что у каждого человека их разное количество и соеденены они тоже по разному.
Понимаю. Самое первое, что приходит в голову - попробовать скопировать структуру мозга конкретного человека. Как можно точнее.
На сегодняшний день человечество не обладает достаточными вычислительными мощностями для такой эмуляции. Ждем развития нейроморфных технологий.
В добавок есть такая проблема что допустим какое либо воспоминание человека это не вот 13066 и 956712 нервы в состоянии "1" это некая мешанина нейронов наподобии супа, которая как то там связанна между собой. И что бы что то вспомнить мы не вызываем нейроны 13066 и 956712, а тыкаем в густой суп палочкой, что бы он зашевелился так как надо (ну или около того).
Так ведь любая нейронная сеть это суп из нейронов, в котором любой отдельно взятый нейрон значит чуть больше чем ничего.)
Вот наглядная визуализация.
Вот наглядная визуализация.
Пытались, еще как пытались. В 1957 году. И, если цепляться именно к формулировке, то успешно.
Гугли "персептрон". Это первая вещь, про которую нам рассказывали на 4 курсе универа на лекциях по Нейронным сетям.
https://ru.wikipedia.org/wiki/%D0%9F%D0%B5%D1%80%D1%86%D0%B5%D0%BF%D1%82%D1%80%D0%BE%D0%BD
Собственно, мозг состоит из множества нейронов, связанных между собой. Персептрон - это компьютер (или компьютерная модель), работающая по тому же принципу, что и нейрон в мозге. Главная особенность - умение "обучаться" и наличие связей с другими "нейронами".
Таки персептрон в те года изобрели и он успешно работает. Столь знаменитые в интернете "нейросети" с "алгоритмами самообучения" - это и есть компьютеры/программы/персептроны. В основе работы нейросетей лежит именно принцип работы человеческого мозга и нейронов.
Проблема только одна: в мозге человека количество нейронов измеряется 80-100 миллиардами, у нас тупо мощностей не хватает, чтобы на сети компьютеров сэмулировать ТАКОЕ количество нейронов.
Отделяет ли нас от имитации человеческого мозга только необходимое число нейронов, или там еще какие-то проблемы всплывут - пока хз.
Гугли "персептрон". Это первая вещь, про которую нам рассказывали на 4 курсе универа на лекциях по Нейронным сетям.
https://ru.wikipedia.org/wiki/%D0%9F%D0%B5%D1%80%D1%86%D0%B5%D0%BF%D1%82%D1%80%D0%BE%D0%BD
Собственно, мозг состоит из множества нейронов, связанных между собой. Персептрон - это компьютер (или компьютерная модель), работающая по тому же принципу, что и нейрон в мозге. Главная особенность - умение "обучаться" и наличие связей с другими "нейронами".
Таки персептрон в те года изобрели и он успешно работает. Столь знаменитые в интернете "нейросети" с "алгоритмами самообучения" - это и есть компьютеры/программы/персептроны. В основе работы нейросетей лежит именно принцип работы человеческого мозга и нейронов.
Проблема только одна: в мозге человека количество нейронов измеряется 80-100 миллиардами, у нас тупо мощностей не хватает, чтобы на сети компьютеров сэмулировать ТАКОЕ количество нейронов.
Отделяет ли нас от имитации человеческого мозга только необходимое число нейронов, или там еще какие-то проблемы всплывут - пока хз.
По правде говоря, не так уж это и дохрена. Если сильно урезать модельку нейрона до того же персептрона с восемью (например) входами, понизить точность, научиться спихивать вычисления на видеокарту - то 100'000'000'000 нейронов - вполне решаемая задача даже для старенького сервера - всего 8 байт на адрес каждого из восьми входов, пару байт на состояния, 93+Гб оперативки под выходы нейронов, 6 террабайт винчестеров на саму сеть
Чтобы написать коммент, необходимо залогиниться