Decisões automatizadas em matéria de perfis e riscos algorítmicos: diálogos entre Brasil e Europa acerca dos direitos das vítimas de dano estético digital

AutorCristiano Colombo e Eugênio Facchini Neto
Ocupação do AutorPós-Doutor em Direito pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS)/Doutor em Direito Comparado (Florença/Itália), Mestre em Direito Civil (Universidade de São Paulo)
Páginas163-183
DECISÕES AUTOMATIZADAS EM MATÉRIA DE
PERFIS E RISCOS ALGORÍTMICOS:
DIÁLOGOS ENTRE BRASIL E EUROPA ACERCA
DOS DIREITOS DAS VÍTIMAS
DE DANO ESTÉTICO DIGITAL
Cristiano Colombo
Pós-Doutor em Direito pela Pontifícia Universidade Católica do Rio Grande do Sul
(PUCRS). Doutor em Direito pela Universidade Federal do Rio Grande do Sul (UFRGS).
Mestre em Direito pela Universidade Federal do Rio Grande do Sul (UFRGS). Professor
Universitário e Advogado.
Eugênio Facchini Neto
Doutor em Direito Comparado (Florença/Itália), Mestre em Direito Civil (Universidade
de São Paulo). Professor titular dos Cursos de Graduação, Mestrado e Doutorado em
Direito da PUC/RS. Professor e ex-diretor da Escola Superior da Magistratura/AJURIS.
Desembargador no Tribunal de Justiça do Rio Grande do Sul/Brasil.
Sumário: 1. Introdução. 2 Decisões automatizadas em matéria de pers e riscos algorítmicos.
2.1. Decisões automatizadas em matéria de pers. 2.2. Riscos algorítmicos. 3. Arcabouço
principiológico para a proteção de dados pessoais e diálogos entre Brasil e Europa acerca dos
direitos das vítimas de dano estético digital. 3.1. Arcabouço principiológico para a proteção
de dados pessoais. 3.2. Diálogos entre Brasil e Europa acerca dos direitos das vítimas de dano
estético digital. 4. Considerações nais. 5. Referências.
1. INTRODUÇÃO
O estudo tem como propósito analisar as decisões automatizadas em matéria de
perf‌is, com foco na identif‌icação dos chamados riscos algorítmicos, sob uma perspectiva
principiológica de proteção de dados pessoais, buscando fundamentar a tutela jurídica
do dano estético digital.
A temática é analisada a partir dos princípios de proteção de dados pessoais, efetu-
ando comparações entre o Regulamento Geral de Proteção de Dados (RGPD), da União
Europeia (2016), e nossa Lei Geral de Proteção de Dados (LGPD), Lei 13.709 de 2018.
O primeiro capítulo apresentará as decisões automatizadas, discorrendo sobre o
seu conceito e aplicação, bem como a identif‌icação de riscos algorítmicos, em razão de
suas inconsistências, imprecisões, equívocos e vieses. O segundo capítulo versará sobre
a perspectiva dos princípios de proteção de dados pessoais, efetuando um diálogo entre
o sistema protetivo brasileiro e europeu. Uma atenção especial será dada aos direitos das
CRISTIANO COLOMBO E EUGÊNIO FACCHINI NETO
164
vítimas do que pode ser chamado de “dano estético digital”, dando ênfase aos direitos à
correção dos dados, explicação e revisão das decisões automatizadas.
No que toca à metodologia, a pesquisa foi teórica, tratando do tema em forma ex-
ploratória e descritiva, valendo-se de procedimentos técnicos bibliográf‌icos.
2. DECISÕES AUTOMATIZADAS EM MATÉRIA DE PERFIS E RISCOS
ALGORÍTMICOS
2.1 Decisões automatizadas em matéria de pers
Em reportagem veiculada pela BBC News, intitulada “Nove algoritmos que podem
estar tomando decisões sobre sua vida – sem você saber”, são descritas situações do
quotidiano, cujas soluções que até então estavam exclusivamente nas mãos de seres
humanos passaram a ser decididas, no todo ou em parte, por algoritmos. O rol de deli-
berações automatizadas passa pelos mais variados campos: desde a seleção de emprego,
com eliminação de candidatos antes mesmo de chegar a um entrevistador humano;
análises de crédito, adicionando as redes sociais como fonte de dados para a concessão
de empréstimos e f‌ixação de limites de crédito; a ajuda na procura de relacionamentos
amorosos, ranqueando e pareando interessados, conforme seus gostos e preferências;
em contratação de plano de saúde, detectando se o candidato à adesão é usuário de
drogas ou abusa de medicamentos, para f‌ins de sua aceitação ou não; decisão sobre o
f‌inanciamento ou não de uma obra cinematográf‌ica, projetando níveis de aceitação pelo
público; comportamentos em eleições, a f‌im de direcionar estratégias de campanhas;
predição sobre se alguém pode vir a cometer crimes; aplicação de penas por magistrados,
exemplif‌icativamente, o COMPAS (Correctional Offender Management Prof‌iling for Al-
ternative Sanctions), nos Estados Unidos da América1; assim como aquisições ou vendas
de ações, em bolsa de valores.2
Os eventos enumerados são decisões automatizadas, eis que contam em seu pro-
cesso deliberativo com o uso de algoritmos, que não procuram responder a pergunta
“o que fazer?”, mas sim “como fazer”. Tecnicamente, um algoritmo é uma sequência
1. O sistema COMPAS é utilizado nos Estados Unidos para auxiliar juízes na def‌inição de um perf‌il de elevado risco de
reincidência, bem como para a def‌inição da pena aplicável. Há quem sustente que tal ferramenta poderia, em tese,
reduzir vieses sociais negativos inerente ao julgador, tais como preconceitos de raça e gênero – posição defendida,
por exemplo, por ISRANI, Ellora Thadaney. When an Algorithm Helps Send you to Prison. New York Times, 26
out. 2017. Caso famoso envolvendo a aplicação desta ferramenta chegou à Suprema Corte norte-americana (caso
Loomis v. Wisconsin, julgado em 2017). O caso envolvia Eric Loomis, preso no Estado de Wisconsin, por tentar fugir
das autoridades policiais e por dirigir veículo sem autorização do seu proprietário. Os crimes não eram conside-
rados graves e, por isso, imaginando a aplicação de penas leves, Loomis aceitou a oferta da promotoria e admitiu
sua culpa. Todavia, o sistema COMPAS indicou que Loomis apresentaria alto índice de reincidência, diante do
que o magistrado o condenou à elevada pena de 11 anos. Como o sistema COMPAS não esclarece como chegou a
tal conclusão, Loomis acabou recorrendo da sentença, conseguindo fazer com que seu caso chegasse à Suprema
Corte. Esta, porém, recusou-se a reexaminar o caso. Embora expressando preocupação com a utilização de análise
de riscos produzidas por sistemas eletrônicos, referiu que a decisão estadual não fora baseada integralmente nas
informações fornecidas pelo COMPAS.
2. DUARTE, Fernando. Nove algoritmos que podem estar tomando decisões sobre sua vida – sem você saber.Disponível
em: https://www.bbc.com/portuguese/geral-42908496. Acesso em: dez. 2019.

Para continuar a ler

PEÇA SUA AVALIAÇÃO

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT