
Речь идет о таких чат-ботах, как ChatGPT и Gemini, которые могут использоваться как для генерации текста или изображений, так и для программирования.
Согласно новым правилам ЕС, разработчики ИИ обязаны раскрывать принципы работы своих моделей и данные, использованные для их обучения. Самые продвинутые модели, считающиеся потенциальными источниками рисков для общественности, обязаны документировать принимаемые меры безопасности. Нововведения направлены в том числе на защиту интеллектуальной собственности и прав авторов и владельцев контента.
Физлица могут подавать в суд на ИИ за подобные нарушения уже со 2 августа. Новый европейский орган по надзору за искусственным интеллектом (European AI Office) начнет проверять новые модели с августа 2026 года, а модели, выпущенные до 2 августа 2025 года, — с августа 2027 года. Эксперты подсчитали, что сумма возможных наложенных штрафов может достигнуть $17,1 млн (около 14,75 млн евро), что составляет 3 процента годового объема рынка ИИ-услуг.
Отметим, что первый в мире международный закон об ИИ был одобрен Европарламентом 13 марта, а профильными министрами государств-членов ЕС — 21 мая 2024 года.
Так, 2 февраля 2025 года, после переходного периода, первые правила использования ИИ в Евросоюзе вступили в силу. В частности, было запрещено использовать искусственный интеллект для создания социального рейтинга граждан стран ЕС (такая технология используется в Китае). Также в ЕС не допускается распознавание эмоций на рабочих местах или в образовательных учреждениях.
Кроме того в Евросоюзе запрещено манипулирование поведением людей с помощью ИИ и использование уязвимости отдельных граждан или социальных групп. Сюда относятся, например, «роботизированные звонки», которые могут использоваться для мошенничества.
Распознавание искусственным интеллектом лиц людей в общественных местах с помощью камер видеонаблюдения в ЕС также запрещено. Исключение сделано только для правоохранительных органов.