Decisões automatizadas em matéria de perfis e riscos algorítmicos: diálogos entre Brasil e Europa acerca dos direitos das vítimas de dano estético digital
Autor | Cristiano Colombo e Eugênio Facchini Neto |
Ocupação do Autor | Pós-Doutor em Direito pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS)/Doutor em Direito Comparado (Florença/Itália), Mestre em Direito Civil (Universidade de São Paulo) |
Páginas | 163-183 |
DECISÕES AUTOMATIZADAS EM MATÉRIA DE
PERFIS E RISCOS ALGORÍTMICOS:
DIÁLOGOS ENTRE BRASIL E EUROPA ACERCA
DOS DIREITOS DAS VÍTIMAS
DE DANO ESTÉTICO DIGITAL
Cristiano Colombo
Pós-Doutor em Direito pela Pontifícia Universidade Católica do Rio Grande do Sul
(PUCRS). Doutor em Direito pela Universidade Federal do Rio Grande do Sul (UFRGS).
Mestre em Direito pela Universidade Federal do Rio Grande do Sul (UFRGS). Professor
Universitário e Advogado.
Eugênio Facchini Neto
Doutor em Direito Comparado (Florença/Itália), Mestre em Direito Civil (Universidade
de São Paulo). Professor titular dos Cursos de Graduação, Mestrado e Doutorado em
Direito da PUC/RS. Professor e ex-diretor da Escola Superior da Magistratura/AJURIS.
Desembargador no Tribunal de Justiça do Rio Grande do Sul/Brasil.
Sumário: 1. Introdução. 2 Decisões automatizadas em matéria de pers e riscos algorítmicos.
2.1. Decisões automatizadas em matéria de pers. 2.2. Riscos algorítmicos. 3. Arcabouço
principiológico para a proteção de dados pessoais e diálogos entre Brasil e Europa acerca dos
direitos das vítimas de dano estético digital. 3.1. Arcabouço principiológico para a proteção
de dados pessoais. 3.2. Diálogos entre Brasil e Europa acerca dos direitos das vítimas de dano
estético digital. 4. Considerações nais. 5. Referências.
1. INTRODUÇÃO
O estudo tem como propósito analisar as decisões automatizadas em matéria de
perfis, com foco na identificação dos chamados riscos algorítmicos, sob uma perspectiva
principiológica de proteção de dados pessoais, buscando fundamentar a tutela jurídica
do dano estético digital.
A temática é analisada a partir dos princípios de proteção de dados pessoais, efetu-
ando comparações entre o Regulamento Geral de Proteção de Dados (RGPD), da União
Europeia (2016), e nossa Lei Geral de Proteção de Dados (LGPD), Lei 13.709 de 2018.
O primeiro capítulo apresentará as decisões automatizadas, discorrendo sobre o
seu conceito e aplicação, bem como a identificação de riscos algorítmicos, em razão de
suas inconsistências, imprecisões, equívocos e vieses. O segundo capítulo versará sobre
a perspectiva dos princípios de proteção de dados pessoais, efetuando um diálogo entre
o sistema protetivo brasileiro e europeu. Uma atenção especial será dada aos direitos das
CRISTIANO COLOMBO E EUGÊNIO FACCHINI NETO
164
vítimas do que pode ser chamado de “dano estético digital”, dando ênfase aos direitos à
correção dos dados, explicação e revisão das decisões automatizadas.
No que toca à metodologia, a pesquisa foi teórica, tratando do tema em forma ex-
ploratória e descritiva, valendo-se de procedimentos técnicos bibliográficos.
2. DECISÕES AUTOMATIZADAS EM MATÉRIA DE PERFIS E RISCOS
ALGORÍTMICOS
2.1 Decisões automatizadas em matéria de pers
Em reportagem veiculada pela BBC News, intitulada “Nove algoritmos que podem
estar tomando decisões sobre sua vida – sem você saber”, são descritas situações do
quotidiano, cujas soluções que até então estavam exclusivamente nas mãos de seres
humanos passaram a ser decididas, no todo ou em parte, por algoritmos. O rol de deli-
berações automatizadas passa pelos mais variados campos: desde a seleção de emprego,
com eliminação de candidatos antes mesmo de chegar a um entrevistador humano;
análises de crédito, adicionando as redes sociais como fonte de dados para a concessão
de empréstimos e fixação de limites de crédito; a ajuda na procura de relacionamentos
amorosos, ranqueando e pareando interessados, conforme seus gostos e preferências;
em contratação de plano de saúde, detectando se o candidato à adesão é usuário de
drogas ou abusa de medicamentos, para fins de sua aceitação ou não; decisão sobre o
financiamento ou não de uma obra cinematográfica, projetando níveis de aceitação pelo
público; comportamentos em eleições, a fim de direcionar estratégias de campanhas;
predição sobre se alguém pode vir a cometer crimes; aplicação de penas por magistrados,
exemplificativamente, o COMPAS (Correctional Offender Management Profiling for Al-
ternative Sanctions), nos Estados Unidos da América1; assim como aquisições ou vendas
de ações, em bolsa de valores.2
Os eventos enumerados são decisões automatizadas, eis que contam em seu pro-
cesso deliberativo com o uso de algoritmos, que não procuram responder a pergunta
“o que fazer?”, mas sim “como fazer”. Tecnicamente, um algoritmo é uma sequência
1. O sistema COMPAS é utilizado nos Estados Unidos para auxiliar juízes na definição de um perfil de elevado risco de
reincidência, bem como para a definição da pena aplicável. Há quem sustente que tal ferramenta poderia, em tese,
reduzir vieses sociais negativos inerente ao julgador, tais como preconceitos de raça e gênero – posição defendida,
por exemplo, por ISRANI, Ellora Thadaney. When an Algorithm Helps Send you to Prison. New York Times, 26
out. 2017. Caso famoso envolvendo a aplicação desta ferramenta chegou à Suprema Corte norte-americana (caso
Loomis v. Wisconsin, julgado em 2017). O caso envolvia Eric Loomis, preso no Estado de Wisconsin, por tentar fugir
das autoridades policiais e por dirigir veículo sem autorização do seu proprietário. Os crimes não eram conside-
rados graves e, por isso, imaginando a aplicação de penas leves, Loomis aceitou a oferta da promotoria e admitiu
sua culpa. Todavia, o sistema COMPAS indicou que Loomis apresentaria alto índice de reincidência, diante do
que o magistrado o condenou à elevada pena de 11 anos. Como o sistema COMPAS não esclarece como chegou a
tal conclusão, Loomis acabou recorrendo da sentença, conseguindo fazer com que seu caso chegasse à Suprema
Corte. Esta, porém, recusou-se a reexaminar o caso. Embora expressando preocupação com a utilização de análise
de riscos produzidas por sistemas eletrônicos, referiu que a decisão estadual não fora baseada integralmente nas
informações fornecidas pelo COMPAS.
2. DUARTE, Fernando. Nove algoritmos que podem estar tomando decisões sobre sua vida – sem você saber.Disponível
em: https://www.bbc.com/portuguese/geral-42908496. Acesso em: dez. 2019.
Para continuar a ler
PEÇA SUA AVALIAÇÃO