
Foto Adobe Stock/metamorworks
Особое беспокойство вызывает изменение характера такого контента: доля наиболее жестоких и извращённых материалов выросла с 13% до 69% всего за год. Эксперты Internet Watch Foundation (IWF) связывают это с доступностью современных нейросетевых инструментов, которые позволяют создавать реалистичные изображения и видео без серьёзной технической подготовки. Если раньше подобные технологии требовали значительных ресурсов, то сегодня ими могут пользоваться даже неопытные пользователи.
Дополнительную угрозу представляет использование фотографий реальных людей, в том числе детей, взятых из открытых источников и социальных сетей. Это не только нарушает права личности, но и создаёт риски шантажа, кибербуллинга и репутационного ущерба. При этом отличить дипфейк от настоящего изображения зачастую крайне сложно без специализированных средств анализа.
Эксперты отмечают, что злоумышленники активно применяют модифицированные версии открытых ИИ-моделей и комбинируют различные инструменты, обходя встроенные ограничения. Распространению способствуют и онлайн-сообщества, где публикуются инструкции и готовые решения.
В качестве возможных мер противодействия рассматривается внедрение технологий «ИИ против ИИ» для автоматического выявления запрещённых материалов, а также обязательная маркировка легального контента цифровыми водяными знаками. Кроме того, важным шагом может стать усиление международного сотрудничества, например в рамках инициативы INHOPE, объединяющей десятки стран для борьбы с незаконным контентом в сети.









