Что за сетку обучаешь?
LSTM, входные данные - векторизированный через word2vec текст, пытаюсь научить машину понимать о чем идет очень в тексте, путем соотношения тексту определенного класса события
Классификатор, значит?
Я тут недавно накидывал свёрточную (да-да, именно её. Только свёртка одномерная и охватывающая весь вектор) для этих целей. Точнее как - подглядел готовую реализацию, и склепал чуть более удобную обёртку к ней.
Так что был бы рад увидеть сравнение точности классификации.
http://bitbucket.org/alex43210/pynlc
Я тут недавно накидывал свёрточную (да-да, именно её. Только свёртка одномерная и охватывающая весь вектор) для этих целей. Точнее как - подглядел готовую реализацию, и склепал чуть более удобную обёртку к ней.
Так что был бы рад увидеть сравнение точности классификации.
http://bitbucket.org/alex43210/pynlc
Если вдруг рискнёшь - имей в виду, что установка у меня работает через задницу, а фиксить пока было влом. Так что прсто кинь pynlc в site-packages ("общее" или virtualenv-а)
Ты совсем дурак?
Вот как мне, простому гуманитарию, читать это?
Вот как мне, простому гуманитарию, читать это?
Но почему ты думаешь, что всё должны читать простые гуманитарии? :-)
Если вдруг интересно - объясняю.
LSTM - один из типов нейронной сети, которые можно использовать для обработки последовательностей чисел/векторов.
word2vec - одна из технологий для получения векторного представления слов. Читай - подменяем каждой слово, допустим, сотней чисел. Киллерфича в том, что эта сотня для схожих по употреблению (читай - упоминаемых в похожих контекстах) слов они с высокой вероятностью будут близки. Т.е. условное length(vector("car") - vector("bus"))
Если вдруг интересно - объясняю.
LSTM - один из типов нейронной сети, которые можно использовать для обработки последовательностей чисел/векторов.
word2vec - одна из технологий для получения векторного представления слов. Читай - подменяем каждой слово, допустим, сотней чисел. Киллерфича в том, что эта сотня для схожих по употреблению (читай - упоминаемых в похожих контекстах) слов они с высокой вероятностью будут близки. Т.е. условное length(vector("car") - vector("bus"))
Очень доходчего, спс
Чёртова джоеразметка.
В общем, length(vector("car") - vector("bus")) < length(vector("car") - vector("water"))
Как-то так
В общем, length(vector("car") - vector("bus")) < length(vector("car") - vector("water"))
Как-то так
Кстати говоря - есть вариант ставить перед LSTM сеткой - сверточную нейросеть
Чтобы написать коммент, необходимо залогиниться