Entre as leis da robótica e a ética: regulação para o adequado desenvolvimento da inteligência artificial

AutorCaitlin Mulholland e Isabella Z. Frajhof
Ocupação do AutorProfessora Associada do Departamento de Direito da PUC-Rio/Doutoranda e Mestre em Teoria do Estado e Direito Constitucional do Programa de Pós-Graduação em Direito na Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio)
Páginas65-80
4
ENTRE AS LEIS DA ROBÓTICA E A ÉTICA:
REGULAÇÃO PARA O
ADEQUADO DESENVOLVIMENTO
DA INTELIGÊNCIA ARTIFICIAL
Caitlin Mulholland
Professora Associada do Departamento de Direito da PUC-Rio. Coordenadora do
Grupo de Pesquisa DROIT - Direito e Tecnologia. Doutora em Direito Civil (UERJ).
Pesquisadora do Legalite PUC-Rio.
Isabella Z. Frajhof
Doutoranda e Mestre em Teoria do Estado e Direito Constitucional do Programa de
Pós-Graduação em Direito na Pontifícia Universidade Católica do Rio de Janeiro
(PUC-Rio); Integrante do grupo de pesquisa DROIT (Direito e Novas Tecnologias).
Pesquisadora do Legalite PUC-Rio.
Sumário: 1. Introdução. 2. Breves notas de como funcionam os robôs e sistemas de IA. 2.1 As
características da Inteligência Articial: uma ótica do Direito. 3. Princípios éticos para a IA.
4. É possível codicar princípios éticos? 5. Conclusão. 6. Referências.
1. INTRODUÇÃO
“– De fato – replicou Powell, amargurado.
– Ele é um robô raciocinante. Maldito seja! Só acredita em raciocínio lógico. E há uma diculdade a
respeito…
Não terminou a frase.
– Qual é a diculdade? – insistiu Donovan.
– É possível provar tudo o que se deseja por um raciocínio lógico e frio, desde que se escolham os
postulados convenientes. Nós temos os nossos e Cutie tem os dele”.
Este é um trecho do conto “Razão”, escrito por Isaac Asimov, em 1941, que foi
compilado em seu famoso livro de contos “Eu, Robô”. Neste mesmo livro, Asimov inau-
gura suas Três Leis da Robótica, um conjunto de regras que tinha por objetivo controlar
o comportamento dos robôs para permitir a convivência harmônica entre humanos e
artefatos não-humanos. A primeira Lei determinava que: “Um robô não pode ferir um
ser humano ou, por inação, permitir que um ser humano sofra algum mal” A segunda,
dizia que: “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos,
exceto quando tais ordens entrem em conf‌lito com a 1ª Lei”. E a terceira previa que: “um
DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 65DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 65 23/02/2021 14:54:4223/02/2021 14:54:42
CAITLIN MULHOLLAND E ISABELLA Z. FRAJHOF
66
robô deve proteger sua própria existência desde que tal proteção não se choque com a 1ª
ou a 2ª Leis”. Posteriormente, Asimov ainda acrescentou uma quarta lei, denominada
como “Lei zero”1.
Ao longo dos seus contos, Asimov ia testando estas regras, demonstrando como
elas constantemente falhavam. O trecho acima ilustra a frustração de Donovan e Powell,
dois astronautas em órbita em uma estação solar com o robô Cutie, pois este passa a não
acreditar mais que foram os humanos que criaram os robôs, atribuindo à sua criação a
uma força superior, the Master (o Mestre). Cutie passa a colocar em xeque todas as cren-
ças e af‌irmações feitas pelos humanos e af‌irma que só responde às ordens do Mestre. A
frustração dos humanos com o robô se justif‌ica em razão da maneira como estes artefatos
funcionam: são guiados por proposições lógicas, onde o que importa é a forma, e não
exatamente o conteúdo dos postulados. Basta que as proposições comportem inferências
que sigam de maneira correta o silogismo para que o robô aja racionalmente (portanto,
corretamente).
Diferentemente dos robôs, os humanos são capazes de avaliar criticamente uma
conduta ou ideia que, mesmo que guiada por razões capazes de explicá-las, nem sempre
vão ser boas o suf‌iciente para justif‌icá-las2. É o caso, por exemplo, do assassinato de Re-
nisha McBride. Theodore Wafer, um americano de meia-idade, morador de um subúrbio
tipicamente branco de Michigan, pensou que sua casa estava sendo ameaçada no meio
da noite. Ele então pegou sua arma e foi até a porta da casa para conferir. Ao abri-la, ele
encontrou Renisha, uma jovem negra, que estava em frente à sua casa aleatoriamente,
atirou nela e ocasionou a sua morte. Quando Wafer foi a julgamento, a razão apresentada
por sua defesa para justif‌icar seu comportamento era que ele estava com medo e teria
agido em legítima defesa, o que foi, contudo, rejeitado pelo tribunal, que o condenou
por homicídio.3 Se este caso fosse julgado por um algoritmo de tomada de decisão, será
que ele alcançaria o mesmo resultado?
Apesar de o conceito de Inteligência Artif‌icial (IA) depender de uma forte associação
com a inteligência humana, os processos cognitivos4 de artefatos não-humanos e huma-
nos são bastante diferentes, diante da forma como eles apreendem conhecimento. Ao
mesmo tempo que esta diferença transforma radicalmente a ef‌iciência destas máquinas,
ela limita a sua capacidade de interpretar determinados contextos e “pensar e agir como
um humano”. Tendo em vista o uso cada vez mais abrangente de sistemas de Inteligência
Artif‌icial, o debate sobre as maneiras de limitar e constranger seu comportamento estão
na ordem do dia. Na ausência de uma regulação jurídica sobre o tema, a comunidade aca-
dêmica, entidades governamentais e não-governamentais têm consolidado um conjunto
de princípios éticos que devem guiar o adequado desenvolvimento da IA, desde a sua
concepção até a sua implementação, a f‌im assegurar algumas balizas para estes sistemas.
1. “Um robô não pode fazer mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal”.
2. MERCIER, Hugo; SPERBER, Dan. The Enigma of Reason: A new Theory of Human Understanding. Cambridge:
Harvard University Press, 2017. Edição iBook, p. 192.
3. MERCIER, Hugo; SPERBER, Dan. The Enigma of Reason, cit., p. 185.
4. SURDEN, Harry. Machine Learning and Law. Washington Law Review, v. 89, pp. 87-115, 2014, p. 89. Disponível
em: https://scholar.law.colorado.edu/articles/81. Acesso em: 03 jan. 2020.
DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 66DIREITO DIGITAL E INTELIGENCIA ARTIFICIAL.indb 66 23/02/2021 14:54:4223/02/2021 14:54:42

Para continuar a ler

PEÇA SUA AVALIAÇÃO

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT