54% россиян считают, что регулировать дипфейки необходимо на законодательном уровне
В современном мире
сгенерированный с помощью искусственного интеллекта контент может становиться
средством обмана, мошенничества и манипуляции общественным мнением. Поэтому в
России все чаще поднимаются вопросы противодействия недостоверной информации такого
типа. При этом 54% россиян считают, что регулировать дипфейки необходимо на
законодательном уровне. Об этом генеральный директор АНО «Диалог» и АНО «Диалог
Регионы» Владимир Табак рассказал в рамках сессии «Украденная личность.
Правовые аспекты регулирования дипфейков и подделок голоса» на ПМЮФ-2024.
За последние годы
дипфейк-технологии стремительно эволюционировали и достигли нового уровня
развития. Однако последствия их использования могут быть не только
положительными, но и отрицательными. Сегодня дипфейки нередко применяются в
злонамеренных и преступных целях, представляя реальную угрозу безопасности
личности, государству, бизнесу. Поэтому тема опасности дипфейков является
актуальной и обсуждаемой, отметил советник генерального директора АНО «Диалог Регионы»
Тихон Макаров. На вопросы о том, как должно осуществляться регулирование
сгенерированного контента, какие технологии для выявления дипфейков существуют
в России сегодня, и где проходит грань между нарушением прав и свободой
творчества, ответили эксперты на Петербургском международном юридическом форуме.
По сравнению с
2022 годом в 2023 году количество видеодипфейков выросло в 3 раза, а
аудиодипфейков — практически в 8 раз, рассказала начальник Управления
Президента Российской Федерации по развитию информационно-коммуникационных
технологий и инфраструктуры связи Татьяна Матвеева. При этом экспертное
сообщество прогнозирует еще более широкое распространение дипфейков в ближайшие
годы:
«Особенность
дипфейков заключается в том, что такой контент кажется настоящим, он вводит в
заблуждение и имеет высокую скорость распространения, что не позволяет человеку
задуматься. Технологии дипфейков развиваются, поэтому и технологии
распознавания должны развиваться. Нам важно, чтобы люди были предупреждены и
понимали информационные риски, перепроверяли источники информации. Важно
распространять технологию доверенного искусственного интеллекта».
На сегодняшний
день самой большой проблемой являются видео- и аудиодипфейки, отметил зампредседателя
комитета Госдумы по информационной политике, информационным технологиям и
связи, председатель РОЦИТ Антон Горелкин. Однако обсуждаемые меры
регулирования, в том числе маркировка, не обеспечивают необходимое решение в
полной мере:
«Нейросети
учатся на своих ошибках, поэтому людям нужен доступный инструмент для проверки
контента. Государству сейчас необходимо сконцентрироваться на этой задаче и
объединить лучшие проекты, которые есть в России для распознавания дипфейков.
Если говорить о регуляторике, то без такого инструмент нам не обойтись, он
должен быть на вооружении и у следователей, и у судий. Но торопиться с
регуляторикой не нужно, чтобы, регулируя, не сделать работу наших
компаний-разработчиков сложнее».
Согласно
результатам исследования, которые озвучил Владимир Табак, 47% россиян
знают о дипфейках или что-то о них слышали, но каждый пятый из респондентов
дает неправильное определение этому понятию. При этом 50% граждан считают, что
дипфейки представляют опасность. Современные технологии позволяют создать
дипфейки более качественными и демонстрируют впечатляющие возможности, отметил
эксперт. Однако в России существуют технологические решения этой проблемы.
«У нас это
сервис "Зефир", который позволяет детектировать дипфейки с
интегральной точностью 85%. За три года существования сервисом было проверено
более 5 миллионов единиц контента. Количество контента, созданного
искусственным интеллектом, кратно возрастает, поэтому мы стоим перед большим
вызовом. Среди недостоверной информации 10% сгенерирована ИИ. При этом в 2023
году, по сравнению с 2022 годом, количество такого контента выросло в 17 раз.
Нам критически важно определиться со стратегией работы с дипфейками и
искусственным интеллектом, до этого говорить про законодательное регулирование
рано», — заявил Владимир Табак.
При этом важно
понимать, с какой целью создается сгенерированный с помощью искусственного
интеллекта контент. Если технологические средства применяются с намерением
похитить личность человека или ввести в заблуждение, то злоумышленника смогут
обвинить и наказать, отметил генеральный директор АНО «Институт развития
интернета» (ИРИ) Алексей Гореславский.
«Во многом
проблема появилась не из-за технологического прогресса, а из-за того, что
человек доверчив, а где-то его действительно вводят в заблуждение. Можно ли и
нужно ли создавать контент с использованием технологий — безусловно да. Если
новые синтезированные образы не будут создаваться, мы не будем развиваться и останемся
в мире бумажной книги. ИРИ поддержал ряд проектов, в которых есть эти
эксперименты. Думаю, эта практика будет продолжаться и дальше», — рассказал
Алексей Гореславский.
Советник
генерального директора Главного радиочастотного центра (ФГУП «ГРЧЦ») по научно-техническому
развитию Евгения Рыжова рассказала, что ещё в 2014 году технология ИИ
стала технологией «чёрного ящика». Сегодня невозможно полностью контролировать
ИИ и предсказать его развитие. Эта технология сегодня имеет несколько уровней
назначения: с одной стороны, генеративный ИИ позволяет людям решать задачи по
созданию контента, сокращая время на его производство в десятки раз, с другой -
он становится оружием в информационной войне. Поэтому для эффективного
регулирования сферы необходимо прежде всего определить все сущности технологии
ИИ, объекты, субъекты правовых отношений и другие элементы.