Possíveis soluções para mitigar a discriminação de gênero pela automatização decisória

AutorMaria Cristine Branco Lindoso
Páginas149-185
149
Capítulo 4
POSSÍVEIS SOLUÇÕES PARA MITIGAR A
DISCRIMINAÇÃO DE GÊNERO PELA
AUTOMATIZAÇÃO DECISÓRIA
4.1. Considerações iniciais
Feitas as primeiras considerações acerca da forma de
funcionamento dos processos decisórios automatizados, da relação
entre gênero e tecnologia, e também tendo sido mapeados os
momentos em que pode ocorrer a discriminação de mulheres através
do uso dessas tecnologias, faz-se mister, agora, analisar a viabilidade
prática e jurídica de se pensarem soluções para que seja eliminado
esse potencial discriminatório.
Até o presente capítulo, foi possível desconstruir a ideia de
que as decisões preditivas automatizadas são neutras e não se
sujeitam à contaminação de vieses. Em verdade, pode-se perceber
que as decisões são, muitas vezes, altamente enviesadas, seja de
forma não intencional, seja para serem utilizadas como um
instrumento para servir aos propósitos de agentes (que se utilizam do
seu poder econômico) para conquistar mais espaço no mercado
através do tratamento de dados feito de forma ilegal e, em
determinadas circunstâncias, discriminatória.
Independente disso, fato é que as decisões automatizadas
representam diversas escolhas feitas pelos controladores de dados ao
longo de todo o processo decisório desde a organização da base de
dados e do desenho algoritmo até o treinamento da estrutura para
produção de um resultado final. Ou seja, a idoneidade e a
neutralidade dessas decisões não podem ser presumidas, porque
150
existem uma série de processos que representam, em essência,
escolhas pessoais dos programadores sobre o resultado esperado
para aquela decisão final.
Como j́ dito por Cathy O’Neil, as ḿquinas operam a favor
dos desejos humanos, e os algoritmos nelas inseridos apenas
respeitam suas pretensões, reproduzem seus preconceitos e
permitem sistematizar, através de um modelo, todas as
discriminações, escolhas, subjetividades, interesses e desejos do
consciente e do subconsciente humano276. E isso não se modifica
pelo simples fato de ser feito por fórmulas matemáticas humanas de
estrutura mais complexa.
Dito isso, percebe-se que, justamente por possuírem o
controle dessas estruturas, e também pelo fato de que elas operam a
seu favor, em seu benefício e aumentando os seus lucros, os agentes
de mercado precisam assumir uma série de responsabilidades éticas
e legais para que a discriminação direta ou indireta não ocorra, e
para que esses processos decisórios sejam verdadeiramente idôneos.
A esse respeito, cabe mencionar, preliminarmente, algumas
discussões que estão sendo travadas em âmbito mundial e que podem
servir para orientar a busca por soluções para acabar com a
discriminação em processos automatizados. Tratam-se de diretrizes
genéricas que se aplicam ao processo automatizado como um todo e
que devem ser perseguidas pelos agentes não nas etapas
especificamente delineadas anteriormente, mas na automatização
decisória em si considerada.
É o caso das Diretrizes Éticas para Inteligência Artificial
Confiável, elaboradas em 2019 pela Comissão Europeia, com o
exclusivo objetivo de tutelar grupos vulneráveis (como crianças,
pessoas com deficiência e minorias) e grupos em situações de
assimetria (como empregados e consumidores). São elas: (i) respeito
pela autonomia humana; (ii) prevenção de dados; (iii) justiça; e (iv)
276 O’NEIL, Cathy. Weapons of math destruction. How big data increases
inequality and threatens democracy. New York: Crown Publishers, 2016 .
151
explicabilidade277. Em suma, através desses princípios, a Comissão
Europeia pretende preservar a dignidade da pessoa humana em
relação aos processos automatizados, objetivando, principalmente,
assegurar algum tipo de controle final, feito por seres humanos, do
resultado produzido pela máquina, e garantir a instituição de
mecanismos de explicação de resultados obtidos278.
Através dessas diretrizes, a Comissão também adotou como
linha política a busca pela não discriminação e pela preservação da
diversidade279, mantendo a coesão com a Declaração Universal dos
Direitos e com todas as constituições locais que valorizam a
autonomia humana e a busca pela igualdade. Trata-se da reprodução
de princípios contemporâneos de democracia, mas que são
importantes de serem reafirmados em processos automatizados,
porque reforçam o resgate constante que os agentes precisam ter
dessas questões.
Em sentido similar, a OCDE também editou princípios a
serem perseguidos em relação à inteligência artificial, mas que
também se aplicam aos processos de tomada de decisão
automatizada. Especificamente aos interesses deste trabalho,
destaca-se a transparência sobre o funcionamento da tecnologia, bem
como o compromisso de informação, para que a população entenda
o funcionamento dos processos automatizados, a importância de
seus dados pessoais e de que forma essas questões podem impactar
diretamente suas vidas280.
O Grupo das 20 maiores economias do mundo (G20) também
estabeleceu diretrizes a serem perseguidas em razão da digitalização
dos mais variados processos e elas envolvem: (i) um fluxo de dados
277 EU Europe Union. Ethics guidelines for trustworthy AI. 2019. Disponível em:
guidelines-
trustworthy-ai>; acesso em 22 out 2019.
278 EU op. cit., 2019.
279 EU op. cit., 2019.
280 OECD. OECD Princ iples on AI, 2019. Disponível em:
; acesso em 22 out 2019.

Para continuar a ler

PEÇA SUA AVALIAÇÃO

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT