clojure-russia

Работа и релокейт: #jobs-rus | #clojure-russia-offtop Телеграм-чат https://t.me/clojure_ru
rustam.gilaztdinov 2017-10-18T09:30:08.000179Z

Добрый день, господа. Посмотрел выступление с последней конфы, про pedestal и vase Правильно ли я понимаю, что vase — это такой темплейт, который создан для того, чтобы организовать апи, описать все спеками, etc, в общем просто видение когнитектом того, как должен выглядить веб-сервис? или есть что-то еще, чего я не осознал? И вопрос вдогонку — кому что понравилось из новых видео? я не все посмотрел, выделить чего-то особенного пока не могу (:rich: не смотрел). Мне нравятся выступления Stuart Halloway, но в этот раз он просто продавал)

igrishaev 2017-10-18T10:19:08.000286Z

Последний доклад Carin M хорош и с юмором.

rustam.gilaztdinov 2017-10-18T10:21:35.000304Z

Да, смотрел, забавный, про агента Халовея)

rustam.gilaztdinov 2017-10-18T10:36:27.000105Z

Но в контексте доклада — предлагает навернуть враппер поверх DL4J На мой взгляд, DL4j хорош, но ничего интересного, потому как DAG вычислений там статический и его надо компилировать, так делает tensorflow, theano, etc А вот pytorch предлагает новый подход — императивный, с динамической архитектурой, то есть, допустим, в рекуррентых сетях — входная последовательность должна быть одной длины, для статического графа, например, ты ее задаешь изначально, но это совершенно противоречит идее рекуррентых сеток, и в качестве костыля мы вынуждены заполнять нулями последовательность, которая меньше максимальной длины. А если бы была возможность динамически реагировать на размер — и считалось бы все быстрее, не было такого оверхеда Плюс, я совсем не уверен в перфомансе nd4j (который там в качестве бэкенда) на куда, да и просто на цпу. Еще было предложение спекой описать — но смысла особенно нет, опять же, в контексте статического графа. В общем, deep learning в кложе еще совсем в зачатке, и пока ничего интересного я лично не нашел, кроме вот этого — http://neanderthal.uncomplicate.org Вот поверх этого надо делать фреймворк, плюс в качестве мозга http://www.onyxplatform.org Тогда заживем

a.espolov 2017-10-18T10:54:09.000110Z

@rustam.gilaztdinov смотрел на https://github.com/thinktopic/cortex ?

rustam.gilaztdinov 2017-10-18T10:58:07.000225Z

Да, там вообще не очень дела) только сверточные слои, построено на math3, плюс они хотят и ml и dl засунуть в одну библиотеку. Я не проникся совсем

rustam.gilaztdinov 2017-10-18T10:59:03.000327Z

И как все развернуть в кластер, тоже не ясно

a.espolov 2017-10-18T11:01:50.000155Z

@rustam.gilaztdinov что плохого в том что пытаются запихать ml и dl в одну либу?

a.espolov 2017-10-18T11:07:04.000039Z

dl же базируется на идеях ml и активно их использует. более того архитектура dl не является канонической комбинируй себе разные архитекутры на здоровье для достижения лучших результатов. Но да java в этом направлении не в почете. За то есть огромный плюс пока будешь пытаться накодить поймешь что к чему, а не просто запустишь строчку кода на питоне

a.espolov 2017-10-18T11:10:56.000065Z

math3 = Apache Commons Mathematics Library ?

➕ 1
rustam.gilaztdinov 2017-10-18T11:11:45.000184Z

Плохого может быть и ничего, но зачем мне тащить все в одной библиотеке, когда я хочу просто посчитать линейную регрессию? Даже в питоне, который каноничный, есть scikit-learn для ml, и отдельно тот же tensorflow для dl. Но тут тонкий момент — есть такая библиотека — incanter, которая пошла по пути разделения, и начались проблемы с aot, и все благополучно умерло. В дл, на данный момент, используется сигмоида как ф-я активации, которая есть в логистической регрессии, по сути, все. Есть робкие попытки засунуть случайный лес, на последние слои, но пока все в состоянии ресерча.

a.espolov 2017-10-18T11:14:53.000163Z

вроде же не обязательно должна быть сигмоида, по сути это может быть любая функция способная обработать сигнал

rustam.gilaztdinov 2017-10-18T11:15:13.000328Z

А, еще sgd, точно, но совсем немного, в общем

rustam.gilaztdinov 2017-10-18T11:15:31.000006Z

Да, сигмоида не обязательно — я к тому, что из ml используется в dl

a.espolov 2017-10-18T11:15:51.000266Z

ааа)

rustam.gilaztdinov 2017-10-18T11:15:53.000154Z

Там есть Relu, tanh, но их реализация — две строчки