Между новостями поделюсь учебным курсом по глубокому обучению, который я сейчас прохожу на EdX. В целом, понятно, что курсов на данную тему уже достаточно много на разных площадках и на разных языках. Если же вы хотите не только понять базовые концепции, но и попробовать на практике CNTK (Microsoft Cognitive Toolkit), то этот курс - то, что вам надо (знание python рекомендуется, но мой опыт показывает, что можно делать упражнения и на здравом смысле при поддержке документации). https://www.edx.org/course/deep-learning-explained-microsoft-dat236x #ai #cntk #education #deep #learning
edX
Deep Learning Explained
Learn an intuitive approach to building the complex models that help machines solve real-world problems with human-like intelligence.
В MIT Technology Review большая крутейшая статья из Торонто, где сейчас одна из самых горячих точек развития искусственного интеллекта, где работает Geoffrey Hinton, отец глубокого обучения, где все большие американские IT-компании открывают свои офисы и борются за внимание постдоков и профессуру по Data Science. Статья, в частности, о том, что сейчас происходит с глубоким обучением, и почему, несмотря на все инженерные (!) заслуги последних лет, в научном плане мы застряли. https://www.technologyreview.com/s/608911/is-ai-riding-a-one-trick-pony/ #ai #deep #learning #backprop #future
MIT Technology Review
Is AI Riding a One-Trick Pony?
I’m standing in what is soon to be the center of the world, or is perhaps just a very large room on the seventh floor of a gleaming tower in downtown Toronto. Showing me around is Jordan Jacobs, who cofounded this place: the nascent Vector Institute, which…
Удивительные вещи происходят в наши дни. Microsoft продолжает партнерство с Amazon (AWS) на почве AI (ранее была интеграция Alexa и Cortana) — только что анонсировали новую библиотеку (хотя это прежде всего спецификация интерфейса) для глубокого обучения - Gluon, совместимый на сегодня с Apache MXNet и скоро с CNTK и позволяющий единообразно описывать модели для обучения и алгоритм тренировки. https://news.microsoft.com/2017/10/12/aws-and-microsoft-announce-gluon-making-deep-learning-accessible-to-all-developers/ #ai #deep #learning #мирдружбажвачка
Stories
AWS and Microsoft announce Gluon, making deep learning accessible to all developers - Stories
New open source deep learning interface allows developers to more easily and quickly build machine learning models without compromising training performance. Jointly developed reference specification makes it possible for Gluon to work with any deep learning…
Учебного в ленту: Tess Ferrandez прошла на Coursera знаменитый курс лекций Andrew Ng по глубокому обучению и сделала очень классный визуальный конспект https://www.slideshare.net/TessFerrandez/notes-from-coursera-deep-learning-courses-by-andrew-ng #ai #deep #learning
p.s. Речь об этом курсе: https://www.deeplearning.ai/
p.s. Речь об этом курсе: https://www.deeplearning.ai/
SlideShare
Notes from Coursera Deep Learning courses by Andrew Ng
Notes from Coursera Deep Learning courses by Andrew Ng - Download as a PDF or view online for free
В нескольких американских околонаучных медиа вышла новость о том, что ИИ воссоздал с нуля периодическую систему элементов. Несколько интересных моментов:
1. Группа исследователей из Стэнфорда решила проверить, что будет, если в механике word2vec заменить в учебной выборке предложения на химические формулы, рассматривая отдельные химические элементы, как слова. В результате получился проект Atom2vec. (Анонс: https://news.stanford.edu/press-releases/2018/06/25/ai-recreates-chemistrys-periodic-table-elements)
2. Как следствие, сеточка научилась самостоятельно выводить классы близости элементов, например, предсказывая, что калий и натрий - похожие по свойствам элементы, способные оброзовывать соединения с хлором. Это позволило пиарщикам раструбить мысль о воссоздании периодической системы, что, конечно, не так. Например, Менделееву в свое время хватило ума не только упорядочить известные элементы, но и предположить существование еще не открытых так, где образовывались пробелы.
3. Тем не менее, сама мысль, что простая нейронная сеть может выводить скрытые связи, близость элементов и т.п. просто по анализу существующих наблюдений, очень крута. В случае с химическими элементами сеточка смогла "вывести" наличие нескольких "свойств" атомов -- измерений в многомерных векторах, по которым можно делать группировку элементов. Например, явно выделяются кластеры щелочных и щелочноземельных металлов, или можно наблюдать корреляцию с увеличением валентности элементов. (Технические детали: http://www.pnas.org/content/early/2018/06/25/1801181115)
4. Насколько я могу судить по результатам быстрого поиска, подобные техники начали активно использоваться в том числе для предсказания возможных свойств новых соединений. Вот, например, немецкий проект Mol2vec, направленный как раз на эту задачу: https://github.com/samoturk/mol2vec (кстати, по внешним признакам, кажется, что это очень похоже на американскую работу, но не так распиарено).
5. Также это хорошо согласуется с темой векторного представления различных соединений, белковых последовательностей и т.п. + описания "отпечатков" соединений. См., например, проект Deep Proteomics: https://github.com/ehsanasgari/Deep-Proteomics
#ai #ml #chemistry #biology #genetics #deep #learning
1. Группа исследователей из Стэнфорда решила проверить, что будет, если в механике word2vec заменить в учебной выборке предложения на химические формулы, рассматривая отдельные химические элементы, как слова. В результате получился проект Atom2vec. (Анонс: https://news.stanford.edu/press-releases/2018/06/25/ai-recreates-chemistrys-periodic-table-elements)
2. Как следствие, сеточка научилась самостоятельно выводить классы близости элементов, например, предсказывая, что калий и натрий - похожие по свойствам элементы, способные оброзовывать соединения с хлором. Это позволило пиарщикам раструбить мысль о воссоздании периодической системы, что, конечно, не так. Например, Менделееву в свое время хватило ума не только упорядочить известные элементы, но и предположить существование еще не открытых так, где образовывались пробелы.
3. Тем не менее, сама мысль, что простая нейронная сеть может выводить скрытые связи, близость элементов и т.п. просто по анализу существующих наблюдений, очень крута. В случае с химическими элементами сеточка смогла "вывести" наличие нескольких "свойств" атомов -- измерений в многомерных векторах, по которым можно делать группировку элементов. Например, явно выделяются кластеры щелочных и щелочноземельных металлов, или можно наблюдать корреляцию с увеличением валентности элементов. (Технические детали: http://www.pnas.org/content/early/2018/06/25/1801181115)
4. Насколько я могу судить по результатам быстрого поиска, подобные техники начали активно использоваться в том числе для предсказания возможных свойств новых соединений. Вот, например, немецкий проект Mol2vec, направленный как раз на эту задачу: https://github.com/samoturk/mol2vec (кстати, по внешним признакам, кажется, что это очень похоже на американскую работу, но не так распиарено).
5. Также это хорошо согласуется с темой векторного представления различных соединений, белковых последовательностей и т.п. + описания "отпечатков" соединений. См., например, проект Deep Proteomics: https://github.com/ehsanasgari/Deep-Proteomics
#ai #ml #chemistry #biology #genetics #deep #learning