Инициатива Антона Горелкина — по сути, калька с YouTube. На днях администрация видеохостинга ввела обязательное требование, чтобы контент, созданный с помощью искусственного интеллекта, был отдельно промаркирован. Под ограничение подпадают ролики, показывающие реалистично сгенерированных людей, а также их слова и действия, изменение реальных событий или мест, например, сгенерированный пожар в настоящем здании или трансформация реального городского пейзажа. То же самое касается смоделированных сцен, наподобие торнадо, который якобы приближается к городу. И в этом действительно есть определенный смысл, заявила в ходе пресс-конференции в ОСН председатель совета Национальной ассоциации блогеров Мария Терентьева-Галицких:
Другое дело, что смотреть на проблему нужно шире. По словам экспертов, занимающихся кибербезопасностью, сейчас нейросети часто используются в противозаконных целях, в частности для осуществления финансовых махинаций. Свежий пример. В начале февраля неизвестные, используя сгенерированный голос председателя ЗакСобрания Красноярского края Алексея Додатко, звонили его подчиненным и просили взять кредит в банке якобы для выявления каналов финансирования ВСУ. Успехом акция, впрочем, не увенчалась. Но так бывает далеко не всегда, что подтверждают рассказы специалистов ведущих российских банков. Проблема есть, но маркировка сама по себе её не решит, считает сооснователь компании «Napoleon IT» Руслан Ахтямов:
К слову, в Госдуме сейчас готовят поправки к закону о персональных данных, которые введут ответственность за несанкционированное использование голоса и изображения людей. Как ранее напомнил председатель комитета по информационной политике Александр Хинштейн, проблема с дипфейками стоит достаточно остро: физические параметры человека используются для мошенничества и дискредитации. Депутат, впрочем, не уточнил сроки внесения профильного документа на рассмотрение.