Использование ИИ в решениях по убежищу в Великобритании сталкивается с юридическим оспариванием

Подробное юридическое заключение вызвало серьёзные опасения по поводу использования Министерством внутренних дел Великобритании искусственного интеллекта (ИИ) при принятии решений по делам о предоставлении убежища. В документе говорится, что некоторые аспекты этой системы могут быть незаконными, особенно в случаях, когда заявители не информируются о применении таких технологий.

Вы можете скачать 84-страничное юридическое заключение здесь.

Заключение было подготовлено ведущими барристерами, включая Робина Аллена KC и Ди Мастерс, совместно с Джошуа Джексоном, по заказу организации Open Rights Group. В нём делается вывод, что использование генеративного ИИ в процессе рассмотрения дел о предоставлении убежища может нарушать ключевые юридические обязательства, включая принципы процессуальной справедливости, нормы защиты данных и законодательство о равенстве.

Согласно заключению, Министерство внутренних дел в настоящее время использует два инструмента ИИ в делах о предоставлении убежища. Инструмент Asylum Case Summarisation (ACS) создаёт краткие сводки ответов заявителей на интервью, а инструмент Asylum Policy Search (APS) помогает сотрудникам искать информацию о странах происхождения. Однако оба инструмента генерируют новый текст, а не просто упорядочивают существующую информацию, что означает, что они могут фильтровать, изменять или потенциально опускать важные детали, имеющие значение для принятия решения. При этом заявители не информируются об использовании этих инструментов и не получают доступ к сгенерированному контенту.

Результаты исследования показывают, что такая непрозрачность может позволить просителям убежища оспаривать решения, если ИИ повлиял на исход их дела. В заключении отмечается, что инструмент ACS в ходе тестирования создавал неточные сводки примерно в 9% случаев, а некоторые пользователи APS также выражали сомнения в его надёжности. Кроме того, указано, что имеется ограниченная публичная информация о том, как оценивалась точность этих систем и существуют ли достаточные меры защиты.

Существуют также опасения, что лица, принимающие решения, могут полагаться на сводки, созданные ИИ, вместо полного изучения доказательств, что может привести к упущению важных фактов. Это создаёт риск того, что решения по делам об убежище будут основываться на неполной или неточной информации, что, в свою очередь, может привести к существенным фактическим ошибкам. Отсутствие обязательных проверок, требующих сопоставления результатов ИИ с исходными доказательствами, усиливает этот риск, особенно с учётом того, что заявителям не предоставляется возможность просмотреть или исправить такие сводки.

В заключении также утверждается, что Министерство внутренних дел может не выполнять свою юридическую обязанность по надлежащей оценке воздействия и надёжности этих инструментов до их использования в процессе принятия решений. Это включает анализ таких рисков, как предвзятость, дискриминация, а также оценку того, могут ли альтернативные методы без использования ИИ обеспечить аналогичные результаты без ущерба для справедливости.

Кроме того, использование ИИ в данном контексте вызывает серьёзные опасения в области защиты данных. Инструмент ACS обрабатывает чувствительную персональную информацию, включая данные о расе, религии, политических взглядах и сексуальной ориентации, что влечёт строгие обязательства в соответствии с законодательством Великобритании о защите данных. В то же время отсутствие опубликованной оценки воздействия на равенство (Equality Impact Assessment) означает, что неясно, были ли должным образом рассмотрены потенциальные дискриминационные последствия использования этих инструментов.

Контроль остаётся ограниченным: регулирующие и независимые органы имеют ограниченный доступ к информации о работе этих систем, что снижает уровень подотчётности и общественного контроля. Авторы заключения подчёркивают, что при использовании ИИ в решениях, затрагивающих фундаментальные права, должна обеспечиваться полная прозрачность того, как работают такие системы и как используются их результаты.

С точки зрения LawSentis, данная ситуация подчёркивает растущую и серьёзную проблему в сфере иммиграционного права Великобритании. Хотя технологии могут повышать эффективность, решения по делам о предоставлении убежища связаны с вопросами прав человека высокой важности и требуют максимально осторожного подхода. Отсутствие прозрачности, риск ошибок и отсутствие доступа заявителей к материалам, созданным ИИ, создают очевидные юридические и этические проблемы. По нашему мнению, заявители должны всегда быть информированы о применении ИИ, иметь доступ к соответствующим материалам и возможность оспаривать любые ошибки. Вероятно, этот вопрос приведёт к дальнейшим судебным разбирательствам и может существенно повлиять на то, как Министерство внутренних дел будет использовать ИИ в делах об убежище в будущем.

📞 Бесплатный звонок через WhatsApp
🇬🇧 English 🇷🇺 Русский