Direito e inteligência artificial na (não) redução de desigualdades globais: decisões automatizadas na imigração e sistemas de refugiados

AutorFabiano Hartmann
CargoUniversidade de Brasília, Brasília, DF, Brasil
Páginas305-320
DIREITO E INTELIGÊNCIA ARTIFICIAL NA (NÃO)
REDUÇÃO DE DESIGUALDADES GLOBAIS: DECISÕES
AUTOMATIZADAS NA IMIGRAÇÃO E SISTEMAS DE
REFUGIADOS
LAW AND ARTIFICIAL INTELLIGENCE IN THE (NON) REDUCTION OF
GLOBAL INEQUALITIES: AUTOMATED DECISIONS IN IMMIGRATION
AND REFUGEE SYSTEMS
Fabiano Hartmann PeixotoI
Resumo: O artigo tem como objetivo relatar e analisar
referências para pesquisas e aplicações envolvendo Inteligência
Artificial (IA) e Direito, especialmente no que diz respeito a
alguns riscos de ampliação de desigualdades quando se trata
de temas de imigração e refugiados. Com a utilização de
um referencial canadense, pela maior transparência e com
relatório analítico, busca-se alcançar indutivamente reflexões
sobre o problema de recepção migratória como elemento de
aprofundamento de desigualdades globais sob o impacto de
sistemas de inteligência artificial.
Palavras-chave: Desigualdades Globais. Inteligência
Artificial. Imigração.
Abstract: is paper aims to report and analyze references
for research and applications involving Artificial Intelligence
(AI) and Law (AIL), especially with regard to the risks of
widening global inequalities when it comes to issues of
immigration and refugees. Using a Canadian framework, for
greater transparency and with an analytical report, we seek to
inductively reflect on the problem of migratory reception as
an element of deepening global inequalities under the impact
of artificial intelligence systems.
Keywords: Global Inequities. Artificial Intelligence.
Immigration.
DOI: http://dx.doi.org/10.20912/rdc.v15i37.222
Recebido em: 02.07.2020
Aceito em: 23.07.2020
I Universidade de Brasília, Brasília, DF,
Brasil. Doutor em Direito. E-mail:
fabianohpeixoto@gmail.com
306 Revista Direitos Culturais | Santo Ângelo | v. 15 | n. 37 | p. 305-320 | set./dez. 2020
DOI: http://dx.doi.org/10.20912/rdc.v15i37.222
Introdução
Com uma suspeita de que o sistema de IA para concessão de vistos no Reino Unido
seria tendencioso, como afirmado por grupos de direitos humanos, Henry McDonald1,
do e Guardian, apresentou uma ideia do problema migratório associado ao uso de
inteligência artificial (IA). Segundo McDonald, ativistas na proteção de direitos humanos
(Foxglove e o Joint Council for the Welfare of Immigrants – JCWI) questionam o uso do
algoritmo pelo Ministério do Interior do Reino Unido que faz uma filtragem dos pedidos
de vistos. O risco está no uso do algoritmo criando classes de candidatos, acelerando
o processo para grupos em função da cor (pessoas brancas seriam encaminhadas para
um modo mais veloz). Relata a reportagem uma contradita, feita por um porta-voz do
Ministério do Interior afirmando que o processo é guiado pela eficiência e que a ferramenta
de IA não é usada para decisão, mas apenas para indicar se haverá mais ou menos controle
e que isso está em conformidade com a legislação sobre igualdade vigente. Note-se desde
já, na introdução do tema no presente texto, que pelo comentário do porta-voz, ao
minimizar a atuação da IA circunscrevendo-a à indicação de menor ou maior controle,
permite a observação de que isso não deixa de ser, em si, já uma decisão, não? A discussão
parece ser uma questão clara de machine bias23, que tanto coloca em risco benefícios da
IA e alimenta os mitos associados à inteligência não humana. A classificação nas cores
verde, amarelo e vermelho, com níveis proporcionais de controle, que acaba oferecendo
agilidade no embarque para pessoas brancas é uma típica situação de bias. Por mais que
haja a possibilidade de revisão humana, a inclusão em um sistema de controle vermelho
aumenta a perspectiva menos favorável do solicitante, conforme observa a reportagem. O
JCWI também argumenta na reportagem que a versão algorítmica é uma modernização
de um sistema que dizia respeito aos solicitantes ciganos, que teriam recebido tratamento
discriminatório. O próprio Reino Unido, à época (Câmara dos Lordes – 2005), já havia
reconhecido que o estereótipo de cigano, como menos propenso a ser turista genuíno, era
ilegal. A reportagem mostrou um problema, mas seria um problema da IA ou um desvio
na conduta humana captado (involuntariamente ou propositalmente) pelo sistema de
reprodução da atividade cognitiva humana que é, aliás, uma definição possível para a
própria IA?
1 MCDONALD, Henry. AI system for granting UK visas is biased, rights groups claim. Immigrant rights
campaigners bring legal challenge to Home Office on algorithm that streams visa applicants. e Guardian,
29 de outubro de 2019. Disponível em https://www.theguardian.com/uk-news/2019/oct/29/ai-system-for-
granting-uk-visas-is-biased-rights-groups-claim. Último acesso em 14/03/2020.
2 ELIAS, Paulo Sá. Algoritmos, Inteligência Artificial e o Direito. Conjur, novembro, 2017. Disponível em:
https://www.conjur.com.br/dl/algoritmos-inteligencia-artificial.pdf. Último acesso em 02/3/2020.
3 POLONSKI, Vyacheslav. Mitigating algorithmic bias in predictive justice: 4 design principles for
AI fairness: Algorithms are being used to convict criminals and decide jail time. We need to make sure they are
fair. 2018. Disponível em https://towardsdatascience.com/mitigating-algorithmic-bias-in-predictive-justice-ux-
design-principles-for-ai-fairness-machine-learning-d2227ce28099. Último acesso em 02/03/2020.

Para continuar a ler

PEÇA SUA AVALIAÇÃO

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT