ДИПФЕЙКИ И ДЕЗИНФОРМАЦИЯ | fnst.org

ДИПФЕЙКИ И ДЕЗИНФОРМАЦИЯ

Analysis09.11.2020Агнешка М. Валорска
Disinformation hands

Применение искусственного интеллекта (ИИ) играет все более важную роль в нашем обществе, но новые возможности этой технологии идут рука об руку с новыми рисками. Одним из таких рисков является ненадлежащее использование технологии для преднамеренного распространения ложной информации. Хотя политически мотивированное распространение дезинформации, конечно, не новое явление, технический прогресс сделал создание и распространение управляемого контента намного проще и эффективнее, чем когда-либо прежде. При использовании алгоритмов ИИ, видео теперь можно быстро и относительно дешево фальсифицировать («дипфейки») без наличия каких-либо специальных знаний.

Дискурс на эту тему в первую очередь ориентирован на потенциальное использование дипфейков в избирательных кампаниях, но этот тип видео составляет лишь малую часть всех таких манипуляций: в 96% случаях дипфейки использовались для создания порнографических фильмов с участием известных женщин. Женщины извне публичной сферы также могут оказаться непроизвольными звездами этого вида манипулируемого видео (дипфейковой мести порнографией). Кроме того, такие приложения, как DeepNude, позволяют преобразовывать статические изображения в обманчиво реальные изображения обнаженной натуры. Неудивительно, что эти приложения работают только с изображениями женских тел. Но визуальный контент – это не единственный тип контента, которым можно управлять или который можно создавать алгоритмически. Сгенерированные ИИ голоса уже успешно использовались для совершения мошенничества, что приводило к значительным финансовым убыткам, а GPT-2 может генерировать тексты, содержащие произвольные факты и цитаты.

Как лучше всего решать эти проблемы? Компании и исследовательские институты уже вложили значительные средства в технологические решения для выявления сгенерированных ИИ видеороликов. Преимущество таких вложений обычно недолговечно: разработчики дипфейков реагируют на технологические решения идентификации более изощренными методами – классический пример гонки вооружений. По этой причине платформы, распространяющие манипулируемый контент, должны нести большую ответственность. Facebook и Twitter теперь самостоятельно ввели правила для обработки манипулируемого контента, но эти правила не являются единообразными, и нежелательно оставлять частным компаниям право определять, что влечет за собой «свобода выражения мнения».
Федеральное правительство Германии явно не готово к теме «Применение управляемого ИИ контента в целях дезинформации», как показал краткий парламентский запрос, представленный парламентской группой FDP в декабре 2019 года. В правительстве нет четко определенной ответственности за этот вопрос и нет конкретного законодательства. До сих пор применялись только «общие и абстрактные правила». Ответы федерального правительства не предполагают какой-либо конкретной стратегии или каких-либо намерений инвестировать, чтобы лучше подготовиться к решению этой проблемы. В целом, существующие попытки регулирования на уровне Германии и Европы не кажутся достаточными для решения проблемы дезинформации на основе ИИ. Но это не обязательно должно быть так. В некоторых штатах США уже приняли законы как против неконсенсуальной дипфейковой порнографии, так и против использования этой технологии для влияния на избирателей.

Соответственно, законодатели должны разработать четкие руководящие принципы для цифровых платформ по единообразной обработке дипфейков в частности и дезинформации в целом. Меры могут варьироваться от маркировки манипулируемого контента как такового и ограничения его распространения (исключения его из алгоритмов рекомендаций) до его удаления. Повышение медиаграмотности также должно стать приоритетом для всех граждан, независимо от возраста. Важно повысить осведомленность широкой общественности о существовании дипфейков и развивать способность людей анализировать аудиовизуальный контент, даже если выявлять фейки становится все труднее. В этом отношении стоит отметить подход, принятый северными странами, особенно Финляндией, население которой оказалось наиболее устойчивым к дезинформации.

Тем не менее, есть одна вещь, которую мы не должны делать: поддаваться искушению полностью запретить дипфейки. Как и любая технология, дипфейки открывают множество интересных возможностей – в том числе для образования, кино и сатиры – несмотря на свои риски.