Добрый день, господа. Посмотрел выступление с последней конфы, про pedestal и vase Правильно ли я понимаю, что vase — это такой темплейт, который создан для того, чтобы организовать апи, описать все спеками, etc, в общем просто видение когнитектом того, как должен выглядить веб-сервис? или есть что-то еще, чего я не осознал? И вопрос вдогонку — кому что понравилось из новых видео? я не все посмотрел, выделить чего-то особенного пока не могу (:rich: не смотрел). Мне нравятся выступления Stuart Halloway, но в этот раз он просто продавал)
Последний доклад Carin M хорош и с юмором.
Да, смотрел, забавный, про агента Халовея)
Но в контексте доклада — предлагает навернуть враппер поверх DL4J На мой взгляд, DL4j хорош, но ничего интересного, потому как DAG вычислений там статический и его надо компилировать, так делает tensorflow, theano, etc А вот pytorch предлагает новый подход — императивный, с динамической архитектурой, то есть, допустим, в рекуррентых сетях — входная последовательность должна быть одной длины, для статического графа, например, ты ее задаешь изначально, но это совершенно противоречит идее рекуррентых сеток, и в качестве костыля мы вынуждены заполнять нулями последовательность, которая меньше максимальной длины. А если бы была возможность динамически реагировать на размер — и считалось бы все быстрее, не было такого оверхеда Плюс, я совсем не уверен в перфомансе nd4j (который там в качестве бэкенда) на куда, да и просто на цпу. Еще было предложение спекой описать — но смысла особенно нет, опять же, в контексте статического графа. В общем, deep learning в кложе еще совсем в зачатке, и пока ничего интересного я лично не нашел, кроме вот этого — http://neanderthal.uncomplicate.org Вот поверх этого надо делать фреймворк, плюс в качестве мозга http://www.onyxplatform.org Тогда заживем
@rustam.gilaztdinov смотрел на https://github.com/thinktopic/cortex ?
Да, там вообще не очень дела) только сверточные слои, построено на math3
, плюс они хотят и ml и dl засунуть в одну библиотеку. Я не проникся совсем
И как все развернуть в кластер, тоже не ясно
@rustam.gilaztdinov что плохого в том что пытаются запихать ml и dl в одну либу?
dl же базируется на идеях ml и активно их использует. более того архитектура dl не является канонической комбинируй себе разные архитекутры на здоровье для достижения лучших результатов. Но да java в этом направлении не в почете. За то есть огромный плюс пока будешь пытаться накодить поймешь что к чему, а не просто запустишь строчку кода на питоне
math3 = Apache Commons Mathematics Library ?
Плохого может быть и ничего, но зачем мне тащить все в одной библиотеке, когда я хочу просто посчитать линейную регрессию? Даже в питоне, который каноничный, есть scikit-learn для ml, и отдельно тот же tensorflow для dl. Но тут тонкий момент — есть такая библиотека — incanter, которая пошла по пути разделения, и начались проблемы с aot, и все благополучно умерло. В дл, на данный момент, используется сигмоида как ф-я активации, которая есть в логистической регрессии, по сути, все. Есть робкие попытки засунуть случайный лес, на последние слои, но пока все в состоянии ресерча.
вроде же не обязательно должна быть сигмоида, по сути это может быть любая функция способная обработать сигнал
А, еще sgd, точно, но совсем немного, в общем
Да, сигмоида не обязательно — я к тому, что из ml используется в dl
ааа)
Там есть Relu, tanh, но их реализация — две строчки