Críticas ao ideal de transparência como solução para a opacidade de sistemas algorítmicos

AutorMariana Marques Rielli
Ocupação do AutorAdvogada. Graduada pela Universidade de São Paulo (USP). É pesquisadora líder de projetos da Associação Data Privacy Brasil de Pesquisa
Páginas437-446
24
CRÍTICAS AO IDEAL DE TRANSPARÊNCIA
COMO SOLUÇÃO PARA A OPACIDADE DE
SISTEMAS ALGORÍTMICOS
Mariana Marques Rielli
Advogada. Graduada pela Universidade de São Paulo (USP). É pesquisadora líder de
projetos da Associação Data Privacy Brasil de Pesquisa.
Sumário: 1. Introdução. 2. O problema da opacidade. 2.1 Opacidade proprietária: a “black
box” de Pasquale. 2.2 Opacidade como “analfabetismo técnico”. 2.3 Opacidade como uma
questão inerente a alguns algoritmos. 3. O problema da transparência. 4. Considerações
nais. 5. Referências.
1. INTRODUÇÃO
Uma das expressões mais contundentes da inteligência artif‌icial no cotidiano é a
crescente presença de algoritmos computacionais1, que organizam e controlam desde
nossas buscas na Internet até sistemas complexos de proteção ao crédito2. Nesse últi-
mo caso, destaca-se o aspecto preditivo dos algoritmos, que têm se proposto a prever
comportamentos humanos, como o adimplemento de obrigações, e disso derivar
consequências importantes, como a concessão (ou não) de uma linha de crédito ou
de um seguro.
Materializando a promessa de Lessig, de que “código é lei”3, os algoritmos tomam
cada vez mais decisões relevantes e “socialmente consequentes”4 para a vida das pessoas.
1. Um algoritmo é um conjunto de instruções sobre como um computador deve realizar uma determinada tarefa.
CAPLAN, R. et al. Algorithmic Accountability: A Primer. Disponível em: https://datasociety.net/library/algorithmic-
accountability-a-primer/. Acesso em: 16 ago. 2020. Um sistema algorítmico, para Annany, não é apenas códigos
e dados, mas uma junção de atores humanos e não-humanos, de “códigos, práticas e normas institucionalmente
situadas, com o poder de criar, manter e dar signif‌icado a relações entre pessoas e dados por meio de ações
semiautônomas e minimamente observáveis”. ANANNY, M. Toward an Ethics of Algorithms: Convening,
Observation, Probability, and Timeliness. Science, Technology, & Human Values, v. 41, n. 1, p. 93–117, 1 jan. 2016.
2. Entre esses exemplos, há uma série de outros, como f‌iltros de spam, sistemas de detecção de fraude de cartão de
crédito, mecanismos de classif‌icação e ranqueamento, qualif‌icação para seguros ou empréstimos etc. BURRELL,
J. How the Machine “Thinks:” Understanding Opacity in Machine Learning Algorithms. Rochester, NY: Social
Science Research Network, 15 set. 2015. Disponível em: https://papers.ssrn.com/abstract=2660674. Acesso em:
27 maio. 2020.
3. LESSIG, L. Code Is Law. Disponível em: https://www.harvardmagazine.com/2000/01/code-is-law-html. Acesso
em: 30 ago. 2020.
4. BURRELL, J. How the Machine “Thinks:” Understanding Opacity in Machine Learning Algorithms. Rochester, NY:
Social Science Research Network, 15 set. 2015. Disponível em: https://papers.ssrn.com/abstract=2660674. Acesso
em: 27 maio. 2020.
DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 437DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 437 23/02/2021 14:55:0423/02/2021 14:55:04

Para continuar a ler

PEÇA SUA AVALIAÇÃO

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT