Автор:
Виталий Белоусов/РИА Новости
Член СПЧ, глава «Белого Интернета», профессор МГИМО Элина Сидоренко - о необходимости цензуры ИИ.Заявление представителя Минцифры Александра Шойтова о необходимости цензуры ИИ вызывает ряд вопросов.
Сама идея цензуры для ИИ технически сомнительна. Современные модели - это сложные вероятностные системы, а не просто базы данных с фиксированными ответами. Попытка тотально фильтровать и входные данные пользователя, и выходные фактически требует создания «идеального безопасного ИИ», что в принципе недостижимо.
На практике это приведет либо к остановке работы систем (бесконечные ложные срабатывания), либо к созданию крайне ущербных моделей, неспособных отвечать на значительную часть легитимных запросов.
Двойной фильтр («ввод + вывод») порождает серьезные риски для приватности и свободы коммуникации. Мониторинг того, что пользователь пишет в диалоге с нейросетью, фактически приравнивается к прослушиванию личных разговоров или чтению черновиков. Если человек запрашивает у ИИ информацию по медицинской теме, это его право - и вмешательство государства в этот процесс без решения суда выглядит как чрезмерный контроль.
Такой подход убивает конкурентные преимущества. Российские разработчики ИИ и так отстают от мировых лидеров в гонке технологий. Дополнительные ограничения сделают отечественные продукты заведомо менее удобными, «зажатыми» и ограниченными по сравнению с зарубежными аналогами, которые подчиняются более разумным правилам (например, запрет на генерацию экстремизма, но не тотальная цензура).
И самый важный вопрос:
кто и как будет определять критерии такой цензуры? Отсутствие прозрачных, публичных и оспариваемых механизмов неизбежно превратит систему в инструмент для блокировки любых неудобных тем под видом «безопасности».
Вместо введения жесткой предварительной цензуры логичнее было бы развивать механизмы пост-модерации и ответственности за конкретные вредоносные действия, совершенные с помощью ИИ, а не давить на входные данные миллионов пользователей
Печать