Миллионы утекших данных и один безликий алгоритм: кто ответит, когда ИИ ошибётся с вашей субсидией?
ИИ обещает революцию в социальной поддержке: предиктивная аналитика, профилактика кризисов, мгновенная проверка миллионов данных. Но мировой опыт пугает: алгоритмы уже ошибочно начисляли долги сотням тысяч австралийцев и дискриминировали мигрантов в Швеции — что говорить о рисках утечек 39 миллионов записей только в России за год?
Идея Ярослава Нилова об использовании искусственного интеллекта для оценки права на социальную поддержку своевременна. Первые шаги в этом направлении уже сделаны: с 2025 года Социальное казначейство Москвы применяет ИИ для проверки документов на субсидии, сократив время обработки заявлений с двух дней до одного часа. Однако, как отметил в комментарии RuNews24.ru эксперт по социально-экономической политике Яков Якубович, мировой опыт полон тревожных примеров, а уязвимые слои населения относятся к автоматизированным решениям со скепсисом.
«Главное преимущество ИИ — способность мгновенно анализировать огромные массивы информации из государственных баз, сопоставляя доходы, имущество, родственные и социальные связи. Более того, он способен выходить за рамки формальных критериев нуждаемости, оценивая индивидуализированные социальные риски. Это предиктивная аналитика, позволяющая перейти от реактивной поддержки к профилактике кризисов. Однако окончательное решение должно оставаться за человеком. ИИ — это ассистент, который снижает нагрузку на чиновников, но не подменяет их ответственность».
По словам, эксперта, без должных этических и правовых рамок внедрение ИИ несёт серьёзные риски. Если алгоритм отказывает в выплате, но не может объяснить почему, перед гражданином возникает чёрный ящик, где исчезает субъект ответственности. Алгоритмы ошибаются: в Петербурге мать пятерых детей получила 15 отказов подряд из-за того, что ИИ Социального фонда перестал распознавать её родственную связь с ребёнком после обновления программного обеспечения. Чиновники не смогли исправить ситуацию.
«Самый коварный риск — алгоритмическая дискриминация. ИИ обучается на исторических данных, которые могут содержать скрытую предвзятость. Это может привести к тому, что система непропорционально обвинит в мошенничестве мигрантов, женщин и людей с низким доходом, как это уже случалось в Швеции. Система может выявить подозрительных получателей пособий по признаку пола и этноса, как в Нидерландах, или ошибочно начислить долги сотням тысяч граждан, как в Австралии».
ИИ оперирует персональными данными, включая самые чувствительные. Только с начала 2025 года в России зафиксировано 35 крупных утечек, затронувших более 39 миллионов пользователей. Угроза создания гигантских хранилищ данных, где содержится вся подноготная о каждом, реальна, и её нельзя игнорировать. Уязвимые группы населения и так опасаются государства. Получатели пособий отвергают решения, поддержанные ИИ, значительно чаще, чем те, кто пособий не получает, даже если система обещает более быструю обработку.
Эксперт пояснил: чтобы ИИ в социальной сфере приносил пользу, необходимо соблюдать несколько принципов, которые уже отчасти заложены в Указе Президента о развитии искусственного интеллекта. Автоматизированные решения должны быть запрещены: ИИ может готовить проекты решений, но окончательный вердикт выносит человек. Гражданин имеет право знать, почему алгоритм принял то или иное решение, и может обжаловать его. Алгоритмы должны проходить обязательный аудит на отсутствие дискриминации перед внедрением и регулярно перепроверяться. Хранилища данных должны быть надежно защищены, а контроль за их использованием — строгим.
«Ярослав Нилов обозначил правильный вектор, но путь потребует не только технологических решений, но и создания надёжной системы правовых и этических сдержек. Только так ИИ из потенциальной угрозы превратится в реального союзника государства и гражданина».