Discriminação por algoritmos de inteligência artificial: a responsabilidade civil, os vieses e o exemplo das tecnologias baseadas em luminância

AutorJosé Luiz de Moura Faleiros Júnior
Ocupação do AutorDoutorando em Direito pela Universidade de São Paulo ? USP
Páginas969-1000
55
DISCRIMINAÇÃO POR ALGORITMOS
DE INTELIGÊNCIA ARTIFICIAL:
A RESPONSABILIDADE CIVIL, OS VIESES
E O EXEMPLO DAS TECNOLOGIAS BASEADAS
EM LUMINÂNCIA1
José Luiz de Moura Faleiros Júnior
Doutorando em Direito pela Universidade de São Paulo – USP. Mestre em Direito
pela Universidade Federal de Uberlândia – UFU. Especialista em Direito Digital e
Compliance. Membro do Instituto Avançado de Proteção de Dados – IAPD e do Ins-
tituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Advogado. Professor.
Sumário: 1. Introdução. 2. Algoritmos de Inteligência Articial e veículos autônomos. 2.1
Sensores de movimento e a tecnologia LiDAR. 2.2 Heurística e enviesamento de algoritmos
baseados em luminância. 3. Reexos jurídicos: pode um algoritmo enviesado ser “racista”?
3.1 Vieses e responsabilidade civil. 3.2 Como parametrizar deveres: estruturas de compliance
e accountability no contexto dos riscos do desenvolvimento. 3.2.1 Estruturas de compliance e
os “data informed duties”. 3.2.2 A responsabilidade civil na IA entre liability e accountability.
3.3 Há espaço para a função punitiva? 4. Considerações nais. 5. Referências.
1. INTRODUÇÃO
Algoritmos de Inteligência Artif‌icial são cada vez mais utilizados para o desenvol-
vimento de tecnologias disruptivas, tendo aplicações variadas e que envolvem aplica-
ções técnicas antes inimagináveis, como a viabilização da oferta ao público de veículos
autônomos.
Muito já se questionou acerca da viabilidade dessas tecnologias e de sua importância
para a consolidação dos impactos da Quarta Revolução Industrial, na transição para a
Internet das Coisas (Internet of Things, ou IoT). O debate envolve a usual empolgação
causada por uma tecnologia inovadora, mas não pode prescindir das importantes ref‌le-
xões sobre os perigos que acarreta, e, a despeito da grande capacidade de processamento
computacional envolvida nos complexos algoritmos que regem tais aplicações, há sempre
fatores de risco que devem ser considerados.
1. Texto originalmente publicado na Revista de Direito da Responsabilidade, Coimbra, ano 2, p. 1007-1043, 2020.
Disponível em: https://revistadireitoresponsabilidade.pt/2020/discriminacao-por-algoritmos-de-inteligencia-ar-
tif‌icial-a-responsabilidade-civil-os-vieses-e-o-exemplo-das-tecnologias-baseadas-em-luminancia-jose-luiz-de-
-moura-faleiros-junior/.
DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 969DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 969 23/02/2021 14:55:3723/02/2021 14:55:37
JOSÉ LUIZ DE MOURA FALEIROS JÚNIOR
970
Os ref‌lexos jurídicos dessa hodierna impossibilidade de antevisão e mapeamento de
todos os possíveis e futuros erros de programação de software fazem com que a pragmá-
tica apresente consequências indesejadas, com grande potencial de gerar danos. Assim,
para além da heurística computacional e do inegável potencial disruptivo que certas
aplicações tecnológicas representam, impõe-se o proceder cauteloso em sua admissão.
Exemplo curioso é o da tecnologia LiDAR (acrônimo de Light Radar), baseada no rastre-
amento da luz ref‌letida por objetos do entorno de um veículo autônomo. A luz que retorna
é absorvida por sensores para o cálculo de sua densidade (luminância), que, catalogada,
alimenta de dados um algoritmo capaz de processar e projetar, em plano tridimensional,
obstáculos presentes nas cercanias, deles desviando para prevenir abalroamentos. Dessa
forma, utilizando-se de feixes de luz, milhões de cálculos são processados em segundos
para permitir o deslocamento desses veículos sem qualquer intervenção humana, e, a
partir do aprendizado de máquina (machine learning), vão se tornando mais conf‌iáveis.
Trata-se de empolgante tecnologia que vem sendo empregada para o desenvolvi-
mento de carros, navios e até mesmo drones que independem de um piloto ou condutor.
Mas, a despeito do potencial disruptivo que apresenta, recentes notícias dão conta da
maior propensão desses veículos ao atropelamento de pessoas negras.
Uma leitura precipitada poderia levar à imputação de indesejado cunho “racista” ao
algoritmo, ou, em última análise, a seu desenvolvedor, por suposta desídia na elaboração
do código que faz operar um equipamento tão complexo. Porém, a pragmática não é tão
simples, e revela o problema que esse trabalho enfrentará: para além da inequívoca preo-
cupação com violações a direitos humanos a partir de algoritmos como esses, nota-se uma
necessidade premente de que sejam parametrizados deveres para nortear o seu desenvol-
vimento, inclusive pelo fato de envolverem riscos e a inescapável responsabilização civil.
É neste ponto que se situam as hipóteses da pesquisa: a nível regulatório, a para-
metrização de deveres (“data informed duties”) se impõe aos desenvolvedores de apli-
cações complexas como as baseadas em luminância, e, quanto à responsabilidade civil,
analisar-se-á a viabilidade de tutela de tais situações à luz da hodierna discussão sobre o
posicionamento do risco entre liability e accountability.
O objetivo geral da pesquisa será o enfrentamento dessas consequências jurídicas,
quando analisados os algoritmos baseados em luminância e, em linhas mais específ‌icas,
buscar-se-á estabelecer critérios para indicar possíveis caminhos para que se possa con-
ciliar a desejável inovação com a necessária segurança jurídica e, em termos de respon-
sabilidade civil, explorar-se-á como as funções preventiva e precaucional podem nortear
o desenvolvimento tecnológico (sem que se deixe de analisar, ainda que brevemente, a
viabilidade da função punitiva). Ademais, a pesquisa se utilizará do método dedutivo,
com aportes de cunho bibliográf‌ico-doutrinário para, ao f‌inal, buscar apresentar uma
conclusão assertiva sobre o tema.
2. ALGORITMOS DE INTELIGÊNCIA ARTIFICIAL E VEÍCULOS AUTÔNOMOS
Há tempos já se discute a importância que os veículos autônomos terão na tran-
sição para a Internet das Coisas (Internet of Things, ou apenas IoT), especialmente pela
DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 970DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 970 23/02/2021 14:55:3723/02/2021 14:55:37
971
55 • DISCRIMINAçãO POR ALGORITMOS DE INTELIGÊNCIA ARTIFICIAL
demonstração estatística de que o erro humano é a causa de 70 a 80% do quantitativo
geral de colisões e, consequentemente, de elevado número de acidentes fatais.2 A ideia
de reduzir esse percentual gera fascínio e não são poucas as iniciativas lideradas por
grandes corporações que almejam o pioneirismo na ‘corrida’ pelos ‘melhores algoritmos’
para a efetivação desse anseio.
Basicamente, o que se está a vislumbrar são os limites da falibilidade humana em
contraste com as máquinas3, fenômeno complexo e nuclearmente diverso das abstrusas
formulações decorrentes da heurística pura.4 Em termos metodológicos, o aprimora-
mento da técnica trabalha com princípios desdobrados da “Navalha de Ockham”5 para
investigar estruturas complexas a partir da decomposição de inúmeras variáveis em
conjuntos mais simples e de mais fácil cognição. O objetivo é encontrar, em estatísticas
simples, justif‌icativas para viabilizar determinadas aplicações.
Essa tendência é ilustrada por Bruno Latour em “Aramis ou l’Amour des techniques”,
um
romance com profundas ref‌lexões sociológicas, no qual um jovem engenheiro e professor,
desaf‌iado por um problema complexo, segue a trilha de Aramis, conduzindo entrevistas,
analisando documentos, avaliando as evidências na exata medida em que suas perspectivas
continuam mudando: a verdade é revelada como um fenômeno multicamadas, indeter-
minável e que abrange larga gama de possibilidades e soluções. O leitor é eventualmente
levado a visualizar o projeto do ponto de vista de Aramis e, ao longo do caminho, adquire
uma visão sobre a relação entre os seres humanos e suas criações tecnológicas.6
Eis a revelação da história: Não se deve permitir que a excessiva empolgação conduza
a precipitações! Mas, quando se analisa com cautela o papel dos algoritmos de Inteligência
Artif‌icial na sociedade da informação, ecoam as ref‌lexões de Howard Gardner: “pode-se
concluir que a habilidade lógico-matemática não é um sistema tão “puro” ou “autônomo”
como outros revisados aqui, e talvez deva contar não como uma única inteligência, mas
como algum tipo de inteligência supra ou mais geral”.7
2. GREENGARD, Samuel. The Internet of Things. Cambridge: The MIT Press, 2015, p. 56. Comenta: “As the Internet
of Things and connected devices become part of our lives, a remarkable future is taking shape. Today human error
accounts for 70 to 80 percent of vehicle collisions, according to the US Department of Transportation. The World
Health Organization reports that 1.24 million road traff‌ic deaths occur each year. Autonomous vehicles could
virtually eliminate injuries and deaths. Self-driving cars operated within a vast network of synchronized traff‌ic
signals and routing systems could also usher in costs savings related to operating vehicles more eff‌iciently and
better maintaining infrastructure.”
3. KAPLAN, Jerry. Humans need not apply: a guide to wealth and work in the Age of Artif‌icial Intelligence. New Haven:
Yale University Press, 2015, p. 3-16.
4. TVERSKY, Amos; KAHNEMAN, Daniel. Belief in the law of small numbers. In: KAHNEMAN, Daniel; SLOVIC,
Paul; TVERSKY, Amos (Eds.). Judgement under uncertainty: heuristics and biases. 16. reimpr. Cambridge: Cam-
bridge University Press, 2001, p. 23.
5. A Navalha de Ockham, usualmente identif‌icada como princípio da economia, é um postulado metodológico para a
investigação heurística que remonta à Escolástica. Essencialmente, para a formação de hipóteses explicativas, esse
princípio impõe maior parcimônia no enfrentamento da complexidade. Nomeado em homenagem a William of
Ockham (1288–1347), é considerado parte do método científ‌ico de cariz epistemológico que privilegia a resposta
mais simples dentre um vasto conjunto de explicações adequadas e possíveis para o mesmo fato. Sobre o tema e,
realçando a preocupação com a excessiva simplif‌icação de fenômenos complexos, ver FULLER, Steve. Humanity 2.0:
What it means to be human. Past, present and future. Hampshire/Nova York: Palgrave Macmillan, 2011, p. 182-183.
6. LATOUR, Bruno. Aramis ou l’Amour des techniques. Paris: La Découverte, 1992, p. 134-165.
7. GARDNER, Howard. Frames of mind: the theory of multiple intelligences. Nova York: Basic Books, 2011, p. 168,
tradução livre. No original: “(...)one could conclude that logical-mathematical ability is not as “pure” or “autono-
DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 971DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 971 23/02/2021 14:55:3723/02/2021 14:55:37

Para continuar a ler

PEÇA SUA AVALIAÇÃO

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT