Субботняя 15-минутка про умные машины от Гарри Каспарова на TED https://www.ted.com/talks/garry_kasparov_don_t_fear_intelligent_machines_work_with_them #ai #machine #human
Ted
Don't fear intelligent machines. Work with them
We must face our fears if we want to get the most out of technology -- and we must conquer those fears if we want to get the best out of humanity, says Garry Kasparov. One of the greatest chess players in history, Kasparov lost a memorable match to IBM supercomputer…
В продолжение темы галлюцинирования, только теперь про машинный интеллект. Как вы помните или знаете, AI, алгоритмы машинного обучения и вот это всё, в грубом приближении, пытаются описать реальность, используя некоторые предсказательные модели.
Мы уже видели эксперименты с веселыми очками, которые обманывают алгоритмы компьютерного зрения. На днях я кидал ссылку на заметку с рекламой на автомобиле, которая может ввести в заблуждение алгоритмы распознавания объектов. И, в целом, сегодня таких экспериментов уже большое число, и на тему состязательных примеров (adversarial example), которые за счет небольших модификаций способны обманывать сеточки, пишется множество научных работ.
New Scientist пишет о новой работе исследователей из Facebook, которые описывают схожую технику (они ее называют Гудини, Houdine), которая добавляет незначательные (незаметные человеку) цифровые шумы в изображения и звуки, подаваемые в системы разпознавания голоса и машинного зрения. Все это в контексте, автономного транспорта, хотя пока и без практического подтвеждения в "боевых условиях".
Вывода отсюда два: 1) практическое применение — это вопрос времени и 2) нужны новые подходы к генерации устойчивых к таким фокусам сеточек.
https://www.newscientist.com/article/2142059-sneaky-attacks-trick-ais-into-seeing-or-hearing-whats-not-there (Ссылка на исследование: https://arxiv.org/pdf/1707.05373.pdf) #ai #hallucinations #machine #vision #houdine
Мы уже видели эксперименты с веселыми очками, которые обманывают алгоритмы компьютерного зрения. На днях я кидал ссылку на заметку с рекламой на автомобиле, которая может ввести в заблуждение алгоритмы распознавания объектов. И, в целом, сегодня таких экспериментов уже большое число, и на тему состязательных примеров (adversarial example), которые за счет небольших модификаций способны обманывать сеточки, пишется множество научных работ.
New Scientist пишет о новой работе исследователей из Facebook, которые описывают схожую технику (они ее называют Гудини, Houdine), которая добавляет незначательные (незаметные человеку) цифровые шумы в изображения и звуки, подаваемые в системы разпознавания голоса и машинного зрения. Все это в контексте, автономного транспорта, хотя пока и без практического подтвеждения в "боевых условиях".
Вывода отсюда два: 1) практическое применение — это вопрос времени и 2) нужны новые подходы к генерации устойчивых к таким фокусам сеточек.
https://www.newscientist.com/article/2142059-sneaky-attacks-trick-ais-into-seeing-or-hearing-whats-not-there (Ссылка на исследование: https://arxiv.org/pdf/1707.05373.pdf) #ai #hallucinations #machine #vision #houdine
New Scientist
Sneaky attacks trick AIs into seeing or hearing what’s not there | New Scientist
Hackers could fool driverless cars into ignoring stop signs by inserting hidden noise into images – and we don’t have a way to stop them yet
Пожалуй, самая большая проблема всего бума машинного обучения, искусственного интеллекта, когнитивных сервисов и т.д. лежит не в области составления конкретного алгоритма или накопления необходимого массива данных, а в том, как мы, как социум, к этому относимся.
Причем вопрос не только в уже растиражированном экономико-социальном аспекте вроде вытеснения отдельных профессий с рынка труда или, наоборот, усиления некоторых за счет новых возможностей, — но и в том, что именно мы как разработчики, ученые, интепретаторы, внедренцы и т.п. зашиваем в такие алгоритмы.
Время от времени я вижу на разных хакатонах, стартаперских тусовках и в лентах новостей проявления, например, такой идеи: а что, если по анализу фотографии (или видео-ряда) предсказывать хакактер человека? Его тип личности (интраверт, экстраверт и еще с десяток других систем), насколько он будет хорошим сотрудником, врет/не врет, кредитоспособность и много чего еще.
Все это называется физиогномикой и в широких кругах называется псевдонаукой, просторы которой простираются от банального шарлатанства всяких экстрасенсов до онаучненного оправдания расизма, с которым человечество то и дело сталкивается с самых разных формах.
Интересный вопрос — а какое отношение к этому имеет машинное обучение?
В прошлом году пара ученых из Китая Xiaolin Wu and Xi Zhang, — хотя страна тут не важна, потому что (и в этом главная проблема!) подобные работы плодятся по всему миру, — выкатили исследование о том, как с помощью натренерованной сеточки предсказать по фотографии человека, является ли он криминальным элементом или нет. При детальном рассмотрении оказывается, что в работу неявно (?) и, возможно, бессознательно, зашито очень много допущений и, в целом, неверных, предположений.
И хотя, даже здравый смысл, подсказывает, что невозможно по фотографии человека назвать его с 90% преступником, "научный" подход, объективность нейронных сетей, компьютеров, машинного обучения и вот этого всего — позволяют подвести достаточный фундамент для того, чтобы СМИ, социум и, что еще хуже, лица, принимающие соответствующие решения, приняли это все на веру.
===
Так вот, на этот счет и по поводу этого "исследования", в частности - большая детальная статья за авторством Blaise Agüera y Arcas, Margaret Mitchell и Alexander Todorov (на английском).
Потратьте 30-40 минут своего времени. Это важно. Я бы даже сказал, что это одна из самых важных статей на тему машинного обучения за последнее время — "Новые одеяния физиогномики"
https://medium.com/@blaisea/physiognomys-new-clothes-f2d4b59fdd6a #machine #learning #ai #bias
===
P.s. Очевидно все это касается не только распознавания лиц, но и вообще любых других ситуаций, когда мы переносим принятие решения на компьютер и как бы снимаем с себя ответственность (потому что "машина не может ошибаться"). Вот тут всегда должен стоять вопрос — а на заложили ли мы в данные и алгоритмы существующие в обществе стереотипы? Не закрепили ли мы в сеточке существующее неравенство, придав ему научного шарма и оправдания?
Причем вопрос не только в уже растиражированном экономико-социальном аспекте вроде вытеснения отдельных профессий с рынка труда или, наоборот, усиления некоторых за счет новых возможностей, — но и в том, что именно мы как разработчики, ученые, интепретаторы, внедренцы и т.п. зашиваем в такие алгоритмы.
Время от времени я вижу на разных хакатонах, стартаперских тусовках и в лентах новостей проявления, например, такой идеи: а что, если по анализу фотографии (или видео-ряда) предсказывать хакактер человека? Его тип личности (интраверт, экстраверт и еще с десяток других систем), насколько он будет хорошим сотрудником, врет/не врет, кредитоспособность и много чего еще.
Все это называется физиогномикой и в широких кругах называется псевдонаукой, просторы которой простираются от банального шарлатанства всяких экстрасенсов до онаучненного оправдания расизма, с которым человечество то и дело сталкивается с самых разных формах.
Интересный вопрос — а какое отношение к этому имеет машинное обучение?
В прошлом году пара ученых из Китая Xiaolin Wu and Xi Zhang, — хотя страна тут не важна, потому что (и в этом главная проблема!) подобные работы плодятся по всему миру, — выкатили исследование о том, как с помощью натренерованной сеточки предсказать по фотографии человека, является ли он криминальным элементом или нет. При детальном рассмотрении оказывается, что в работу неявно (?) и, возможно, бессознательно, зашито очень много допущений и, в целом, неверных, предположений.
И хотя, даже здравый смысл, подсказывает, что невозможно по фотографии человека назвать его с 90% преступником, "научный" подход, объективность нейронных сетей, компьютеров, машинного обучения и вот этого всего — позволяют подвести достаточный фундамент для того, чтобы СМИ, социум и, что еще хуже, лица, принимающие соответствующие решения, приняли это все на веру.
===
Так вот, на этот счет и по поводу этого "исследования", в частности - большая детальная статья за авторством Blaise Agüera y Arcas, Margaret Mitchell и Alexander Todorov (на английском).
Потратьте 30-40 минут своего времени. Это важно. Я бы даже сказал, что это одна из самых важных статей на тему машинного обучения за последнее время — "Новые одеяния физиогномики"
https://medium.com/@blaisea/physiognomys-new-clothes-f2d4b59fdd6a #machine #learning #ai #bias
===
P.s. Очевидно все это касается не только распознавания лиц, но и вообще любых других ситуаций, когда мы переносим принятие решения на компьютер и как бы снимаем с себя ответственность (потому что "машина не может ошибаться"). Вот тут всегда должен стоять вопрос — а на заложили ли мы в данные и алгоритмы существующие в обществе стереотипы? Не закрепили ли мы в сеточке существующее неравенство, придав ему научного шарма и оправдания?
Medium
Physiognomy’s New Clothes
by Blaise Agüera y Arcas, Margaret Mitchell and Alexander Todorov
Про книги. Дочитал наконец-то "Machine, Platform, Crowd: Harnessing Our Digital Future" от экономистов из MIT - Andrew McAfee и Erik Brynjolfsson. Всячески рекомендую всем, кто хочет разобраться, как и почему сейчас перестраиваются бизнес-модели и экономика под влиянием технологий. В книге речь идет о трех ключевых факторах:
1. Human - Machine. Дополнение или вытеснение человеческого интеллекта машинным.
2. Product - Platform. Рост числа платформ и экосистем (vs. замкнутые и монолитные решения).
3. Core - Crowd. Вовлечение внешней аудитории в создании критической массы интеллектуальных ресурсов.
Много примеров, хотя часть известные. Сбалансированные рассуждения: вектор понятный, но не все так плохо или однозначно в будущем. Речь скорее про поиск эффективных комбинаций по каждому из трех направлений, переосмыслении новой картины связей на фоне того, что все три фактора оказывают взаимное влияние.
https://www.amazon.com/gp/product/B01MAWT25I/ref=kinw_myk_ro_title #digital #transformation #future #ai #platforms #crowd #machine #books
1. Human - Machine. Дополнение или вытеснение человеческого интеллекта машинным.
2. Product - Platform. Рост числа платформ и экосистем (vs. замкнутые и монолитные решения).
3. Core - Crowd. Вовлечение внешней аудитории в создании критической массы интеллектуальных ресурсов.
Много примеров, хотя часть известные. Сбалансированные рассуждения: вектор понятный, но не все так плохо или однозначно в будущем. Речь скорее про поиск эффективных комбинаций по каждому из трех направлений, переосмыслении новой картины связей на фоне того, что все три фактора оказывают взаимное влияние.
https://www.amazon.com/gp/product/B01MAWT25I/ref=kinw_myk_ro_title #digital #transformation #future #ai #platforms #crowd #machine #books
Будущее offline-перевода на нейронных сетях не то, чтобы все ближе, а уже прямо-таки накатывает. Команда Microsoft Translator в партнерстве с Huawei делает это возможным в устройствах Mate 10 (не сочтите за рекламу), благодаря новым NPU (Neural Processing Unit), существенно ускоряющим обсчет нейронных сетей. Понятно, что сеточка тоже нехило весит, поэтому примерно также как вы сейчас делаете с картами, загружая пакеты страны или города, вы сможете загружать пакеты для языков. Качество будет улучшать, новость бомбическая, конечно. :) https://blogs.msdn.microsoft.com/translation/2017/10/19/microsoft-huawei-nmt-ondevice/ #ai #machine #translation #offline