Свой уникальный бот есть практически у каждой крупной IT-компании. Бизнес ищет применения самообучаемым программам на производстве и в банковском деле. А простые пользователи Интернета экспериментируют с приложением FaceApp, ставшим одним из самых продаваемых в мире. Но, с развитием технологий растут и риски. Первые тревожные звонки уже прозвучали. Сегодня в СМИ появилась информация, что преступники придумали нетривиальный способ похищения средств с помощью нейросетей. В Интернете они распространяют фейковые видео, в которых используют лица и голоса знаменитостей. Псевдо-звезды, в частности двойник Дмитрия Нагиева, призывают пользователей перейти на некий сайт, который по факту является фишинговым. При обмане применяются технологии Deep Learning, рассказали ТАСС в компании «Инфосистема Джет». Похожая программа Deep Fake еще в прошлом году наделала шума по всему миру. Дело в том, что ее начали использовать для монтажа порнографических роликов со знаменитостями. В итоге в ряде стран приложение попало под запрет, но это не останавливает энтузиастов. Более того, приложение самосовершенствуется, создавая двойников уже практически неотличимыми от прототипов. В США уже обратили внимание на ситуацию, но применительно к выборам. Ученые и политтехнологи опасаются, что злоумышленники смогут создавать фальшивые агитационные ролики.

Безусловно, нейросети используют не только во зло, но и во благо. Например, самообучаемая программа помогает разведывать места для бурения на крайнем Севере. Ее разработали сотрудники Научно-технического центра «Газпром нефти». Недавно специалисты из Сколково обучили нейросеть выявлять риски для здоровья человека по данным с фитнес-браслета. Авторы рассчитывают, что это позволит медикам и страховщикам дистанционно определять предрасположенность людей к определенным заболеваниям. Существенные изменения в будущем ждут и сферу финансов. По данным аудиторской компании KPMG, 86% российских банков находятся на пути к цифровой трансформации. Речь, в частности, идет о системе отслеживания настроения клиентов, «открытом банкинге» и переводе цифровых данных в ДНК.

С нейросетями связано немало и откровенно курьезных историй. В январе 2017 года российские программисты выпустили приложение для редактирования селфи FaceApp. Оно стало популярным не только в России, но и по всему миру. Но тут начались проблемы: нейросеть «осветляла» снимки темнокожих пользователей, если они включали фильтр «привлекательность». И это далеко не единичный случай т.н. цифрового расизма. Другой яркий пример: не так давно стало известно, что facebook решил отключить бота-переговорщика. В его задачи входило заключать деловые сделки с другими агентами. В итоге программа вышла из-под контроля, и изобрела собственный язык. Некоторые футурологи опасаются, что в будущем боты начнут активно общаться на неизвестном наречии и обретут самостоятельность. О потенциальной угрозе ранее говорили также Илон Маск и Стивен Хокинг.