Вы находитесь на странице: 1из 13

A INTELIGÊNCIA ARTIFICIAL E A TOMADA DE DECISÕES JUDICIAIS:

LIMITES E POSSIBILIDADE

Pedro Teixeira Gueiros1


Jorge Luis da Costa Silva2

Resumo: Este artigo tem o objetivo de analisar o emprego de sistemas de inteligência artificial
no processo de tomada de decisões judiciais no âmbito do direito processual. Nesse viés, à luz
da doutrina nacional e estrangeira que tem desenvolvido sobre o tema, examina-se, de um lado,
os limites para o uso dessa tecnologia, tendo em vista as garantias processuais constitucionais,
e, de outro lado, as possibilidades do seu emprego nas relações processuais, levando em
consideração suas potenciais contribuições. Conclui-se, ao final, que a cognição no processo
não é atividade que pode ser desempenhada exclusivamente por sistemas de inteligência
artificial, mas seu emprego adequado amplia as condições de o Poder Judiciário responder às
demandas judiciais com eficiência e em prazo razoável.

Palavras-chave: Direito Processual. Inteligência artificial. Decisões judiciais.

1
Graduando em Direito pelo Ibmec-RJ. Estagiário no Tribunal Regional Federal da 2ª Região. E-mail:
pedrogueiros@uol.com.br
2
Mestrando em Direito Processual Civil pela Universidade do Estado do Rio de Janeiro (UERJ). Graduado pela
UERJ. Assessor de Desembargador no Tribunal Regional Federal da 2ª Região. Email:
jldacostasilva@gmail.com
1. INTRODUÇÃO
Pensar a sociedade contemporânea atualmente envolve refletir sobre os avanços
tecnológicos. Desde o século XVIII, com a Primeira Revolução Industrial, assiste-se a uma
corrida humana na busca pelo aumento da produtividade baseado em aparatos tecnológicos.
Nesse sentido, a primeira metade do século XX foi palco do desenvolvimento da metalurgia,
da siderurgia, além da indústria química – setores que cresceram na esteira do contexto pós-
guerra.
Em razão dessas transformações, produtos agrícolas, que historicamente foram os
principais produtos de exportação, dividiram seu lugar na balança comercial com os produtos
industriais. Nesse viés, a vida no campo migrou para a cidade, formou os grandes
conglomerados urbanos, o que, em certa medida, proporcionou melhoria nas condições de vida,
fazendo com que os “90 milhões em ação”, que vibraram com a conquista do tricampeonato de
futebol mundial pelo Brasil em 1970, transformassem-se em mais de 200 milhões, atualmente,
segundo dados do Instituto Brasileiro de Geografia e Estatística3.
Aliás, foi exatamente na década de 1970 que a escalada tecnológica atingiu novo degrau,
configurando o que alguns denominam de Terceira Revolução Industrial. De lá para cá, a
computadorização, a biotecnologia, a microeletrônica e a informática viraram os pilares em que
se baseia a sociedade contemporânea. Como não poderia deixar de ser, o sistema jurídico não
passou imune por todas essas transformações. Do advento do computador, até a criação de
impressoras, o exercício profissional na esfera jurídica sofreu alterações significativas.
As primeiras estipulações de direito processual que reconheceram o uso das tecnologias
informáticas do final do século XX foi aquela da Lei nº 8.245/1991, a Lei de Locações de
Imóveis Urbanos. O artigo 58, inciso IV, da Lei nº 8.245/1991 já permitia a citação, a intimação
ou a notificação por telex ou fac-símile. A condição imposta, no entanto, era que a citada fosse
pessoa jurídica ou empresário individual.
Posteriormente, a Lei n 9.099/1995, a Lei dos Juizados Especiais, veio a permitir que a
intimação fosse feita na forma prevista para a citação ou por “qualquer outro meio idôneo de
comunicação” (art. 19, caput), o que significa dizer, não apenas o correio ou a intimação pessoal
por oficial de justiça.
Quatro anos depois, a Lei nº 9.800/1999 inovou ao permitir “a utilização de sistema de
transmissão de dados e imagens tipo fac-símile ou outro similar, para a prática de atos

3
Disponível aqui: <https://www.ibge.gov.br/apps/populacao/projecao//index.html>. Acesso em abr./2019.

1
processuais que dependam de petição escrita” (art. 1º, caput), porém manteve a obrigatoriedade
da entrega dos “originais” em cinco dias (art. 2º).
Já a Lei nº 10.259/2001, a Lei dos Juizados Especiais Federais, ampliou ainda mais as
vias de diálogo entre direito e tecnologia. Nesse sentido, Demócrito Ramos Reinaldo
Filho (2007), destaca três pontos relevantes a respeito da referida lei: (i) tornou prescindível a
apresentação de cópia física dos originais eletrônicos das petições, e ampliou a via informática
de comunicação para todos os atos processuais – art. 8º, parágrafo 2º; (ii) estipulou que o
julgamento de pedidos fundados em divergência entre Turmas, na hipótese de residirem os
juízes em cidades diferentes, seria realizado pela via eletrônica – art. 14, parágrafo 3º; (iii)
determinou não só o desenvolvimento de programas de informática para permitirem as
inovações na instrução do processo, mas também a promoção de cursos de aperfeiçoamento
pessoal para magistrados e servidores – art. 24.
Esses esforços legislativos formam a antessala da Lei nº 11.416/2006, que dispõe sobre
a informatização do processo judicial. Já em seu art. 1º (“O uso de meio eletrônico na
tramitação de processos judiciais, comunicação de atos e transmissão de peças processuais
será admitido nos termos desta Lei”) fica nítida a abertura do Direito brasileiro para as
inovações tecnológicas. A lei, como foi aprovada, fornece uma ampla estrutura normativa para
a informatização completa do processo judicial, do início ao fim, nas esferas cível, penal e
trabalhista.
À vista desse breve panorama, verifica-se que a relação entre Direito e Tecnologia não
é fenômeno recente. Todavia, há um elemento novo nessa relação que motiva novas reflexões
e constitui o objeto de estudo do presente artigo: a inteligência artificial. Trata-se de fenômeno
relevante, porque aponta para uma tendência: “com o desenvolvimento tecnológico, o emprego
de inteligência artificial vem expandindo-se velozmente, e essa técnica tem sido cada vez mais
utilizada para substituir e auxiliar na tomada de decisões privadas e públicas” (FERRARI;
BECKER; WOLKART, 2018).
Nesse contexto, o presente estudo se propõe a analisar se os sistemas de inteligência
artificial podem, em alguma medida, orientar o processo de tomada de decisões judiciais no
âmbito do direito processual. Para tanto, passa-se a analisar essa problemática a partir de duas
perspectivas: de um lado, examina-se os limites do uso de sistemas de inteligência artificial na
tomada de decisões judiciais; de outro lado, aponta-se as possibilidades do uso dos referidos
sistemas, considerando as potencialidades identificadas pela doutrina que tem se desenvolvido
sobre o tema.

2
2. LIMITES DO USO DE SISTEMAS DE INTELIGÊNCIA ARTIFICIAL NA
TOMADA DE DECISÕES JUDICIAIS
Em análise preambular, identificamos três aspectos sensíveis4 no uso de sistemas de
inteligência artificial para orientar a tomada de decisões judiciais, quais sejam: (i) reprodução
de padrões discriminatórios; (ii) valoração de provas; e (iii) determinação do quantum devido
em casos de danos morais.

2.1. REPRODUÇÃO DE PADRÕES DISCRIMINATÓRIOS


Em termos de direito comparado, o uso de algoritmos pelo sistema judiciário
estadunidense, em diversas jurisdições, é relativamente comum, apesar de controvertido. Daí
porque analisar as experiências daquele país é relevante, na medida em que fornece uma noção
de como seu uso pode impactar na aplicação do direito, sobretudo na seara criminal5.
Nos Estados Unidos, foi desenvolvido o Correctional Offender Management Profiling
for Alternative Sanctions6, ferramenta que auxilia magistrados na dosimetria da pena, que é
capaz de sugerir uma pena, analisando, ainda, a possibilidade de reincidência do acusado. Para
tanto, são levados em consideração fatores como, por exemplo, se o acusado já fez uso de
entorpecentes, possui apoio familiar e com qual idade cometeu o primeiro crime (MIMS, 2019).
Em 2016, um estudo promovido pela organização ProPublica, concluiu que acusados
negros tinham 77% (setenta e sete por cento) mais chances de serem considerados reincidentes
do que os acusados brancos, ainda que sob as mesmas circunstâncias (PROPUBLICA, 2019).
De fato, os algoritmos não são neutros, haja vista que que os sistemas de inteligência
artificial dependem da formulação de modelos, que trazem, em si, vieses subjetivos do sujeito
que os desenvolve:
Inicialmente, importante consignar que os mecanismos de inteligência artificial
dependem de modelos, os quais consistem em representações abstratas de
determinado processo, sendo, em sua própria natureza, simplificações de nosso
mundo real e complexo. Ao criar um modelo, os programadores devem selecionar as
informações que serão fornecidas ao sistema de IA e que serão utilizadas para prever
soluções e/ou resultados futuros. Essas escolhas, portanto, fazem com que sempre haja
pontos cegos nos algoritmos, os quais refletem os objetivos, prioridades e concepções
de seu criador, de modo que os modelos são, a todo tempo, permeados pela
subjetividade do sujeito que os desenvolve (NUNES; MARQUES, 2018).

4
Evidentemente, esses apontamentos não excluem outros problemas envolvidos na tomada de decisões judiciais
por sistemas de inteligência artificial. Nesse sentido, há quem identifique como dificuldades o emprego de data
sets viciados, a opacidade dos algoritmos não programados e a discriminação que pode ser gerada por algoritmos
de machine learning. (FERRARI; BECKER; WOLKART, 2018).
5
O tema foi objeto de artigo produzido por Claudia da Costa Bonard de Carvalho, confira-se: “No caso, os EUA
já utilizam a AI na atividade policial e judiciária, sendo que, através de cruzamento de dados coletados sobre
determinadas pessoas, já se adotam políticas de policiamento específicas em alguns locais, para desarticulação
de gangues, e analisa-se a possibilidade de concessão de benefícios de execução penal” (CARVALHO, 2019).
6
Outros algoritmos similares são o Public Safety Assessment-Court e o Risk Scoring Algorithm.

3
Na mesma linha, Cathy O’Neil, autora do livro “Weapons of Math Destruction”,
ponderou que os sistemas que funcionam por algoritmos são, por essência, discriminadores:
There’s no such thing as a non-biased discriminating tool, determining who deserves
this job, who deserves this treatment. The algorithm is inherently discriminating, so
the question is what bias do you want it to have?7.

Nesse diapasão, em um ambiente em que inteligências artificiais revelam-se mais


presentes e promissoras em relação às decisões judiciais, através de algoritmos cada vez mais
complexos8, torna-se essencial atentar aos limites que possam comprometer não apenas o
aspecto processual das decisões, mas a própria aplicação do direito material, haja vista que a
reprodução de padrões discriminatórios atenta contra um dos objetivos fundamentais da
República Federativa do Brasil (art. 3º, IV, da CRFB/1988) e a própria razão da Justiça.

2.2. VALORAÇÃO DE PROVAS


Para orientar um ordenamento jurídico em direção a uma concepção racional da decisão
judicial, a partir da devida reconstrução dos fatos da controvérsia, é de fundamental importância
uma correta valoração das provas (BUSTAMANTE, 2013).
De um ponto de vista conceitual, pode-se dizer que a valoração das provas é “a atividade
de percepção por parte do juiz dos resultados da atividade probatória que se realiza em um
processo” (FENOLL, 2010, p. 34). De modo similar, Cândido Rangel Dinamarco e Bruno
Vasconcelos Carrilho Lopes sustenta que a valoração da prova “consiste no juízo da capacidade
de demonstração dos fatos realizado pelo juiz com referência a todos os meios de prova
concretamente efetivados no processo e a cada uma das fontes de prova trazidas a este”
(DINAMARCO; LOPES, 2017, p. 183).
De modo geral, existem três sistemas de valoração das provas: (i) o sistema legal de
provas ou sistema da prova tarifada; (ii) o sistema da íntima convicção; e (iii) o sistema do livre
convencimento motivado ou persuasão racional.
O primeiro é um sistema hierarquizado, no qual o valor de cada prova é predefinido,
não existindo, portanto, uma valoração individualizada, de acordo com cada caso concreto. Pelo

7
Disponivel em: <https://www.wsj.com/articles/our-software-is-biased-like-we-are-can-new-laws-change-that-
11553313609?fbclid=IwAR31Zh8R2FpKLZ8ZwTd8seibzpUHvtGbetyOogzVfqsEMdF8OwaVosEI-k>. Acesso
em: mar./2019.
8
Nesse sentido: “No âmbito de algoritmos complexos encontram-se, por exemplo, os debates sobre Inteligência
Artificial - IA, aprendizado de máquina (Machine Learning), aprendizado profundo (deeplearning) e as redes
neurais artificiais (Artificial Neural Networks). Sendo que a própria Internet das Coisas (Internet-of-Things -
IoT), tem relação intrínseca com a Inteligência Artificial” (CANUT; MEDEIROS, 2018, p. 246).

4
fato de cada prova já possuir seu valor definido em lei de forma prévia, o juiz não possui
liberdade para valorar as provas de acordo com as especificidades do caso concreto.
Em razão disso, afirma-se que “o juiz, nas provas legais, era um matemático, pois
apenas verificava qual o peso deste ou daquele meio de prova, ou como a Lei mandava provar
este ou aquele fato. Seguia, friamente, o que a Lei mandava para aferir os fatos, objetos de
prova” (RANGEL, 2015, p. 519).
O segundo sistema é o oposto disto, pois o magistrado modo que não precisa
fundamentar sua decisão, tampouco está adstrito a um critério predefinido de provas. Há uma
clara inversão: enquanto no sistema da prova tarifada toda a responsabilidade fora atribuída ao
legislador, que estipula previamente o valor de cada prova, no sistema da íntima convicção essa
responsabilidade fora transferida para o magistrado, que decide livremente como valorará o
suporte probatório trazido à sua apreciação.
O clássico exemplo desse sistema é o Tribunal do Júri, competente para julgar crimes
dolosos contra a vida (art. 5º, XXXVIII, “d”, CRFB/1988), cujos jurados julgam com plena
liberdade, de acordo com a sua íntima convicção, não precisando, portanto, fundamentar a
decisão em nenhum dispositivo de lei.
O terceiro sistema, por sua vez, é um sistema equilibrado, uma vez que as provas não
são valoradas previamente pelo legislador, como ocorre no sistema da prova tarifada, e o
julgador não decide com ampla e excessiva discricionariedade, como ocorre no júri. O Brasil
adota predominantemente o sistema do livre convencimento motivado9, conforme se extrai do
art. 15510 do Código de Processo Penal e do art. 371 do Código de Processo Civil11.
Sendo assim, considerando que a atividade de valoração das provas é etapa fundamental
no exercício da cognição judicial, pergunta-se: seria possível transferir tal encargo aos sistemas
de inteligências artificiais? A resposta é, a toda evidência, negativa, haja vista que exige o
exercício da percepção humana, associada à capacidade argumentativa de fundamentação.

2.3. DETERMINAÇÃO DO QUANTUM DEVIDO EM CASOS DE DANOS MORAIS


Ao tratar das características necessárias aos futuros magistrados, Herkenhoff elenca o
seguinte: “coragem, bom senso e lógica. Se além dessas três qualidades o juiz souber um pouco

9
Não se ignora resquícios dos demais sistemas, como o já mencionado Tribunal do Júri.
10 Art. 155, CPP. O juiz formará sua convicção pela livre apreciação da prova produzida em contraditório
judicial, não podendo fundamentar sua decisão exclusivamente nos elementos informativos colhidos na
investigação, ressalvadas as provas cautelares, não repetíveis e antecipadas.
11 Art. 371, CPC. O juiz apreciará a prova constante dos autos, independentemente do sujeito que a tiver

promovido, e indicará na decisão as razões da formação de seu convencimento.

5
de direito, ajuda bastante” (2005, p.148). Em verdade, em diversas circunstâncias, o
magistrado se vê diante de situações sensíveis e é chamado a decidi-las.
Há, nesse contexto, ao menos duas situações que se relevam incompatíveis, pelo menos
a princípio, com o uso de sistemas de inteligência artificias: fixação do quantum devido a título
de indenização por danos morais e análise do preenchimento do requisito do periculum in mora
para concessão do pedido de antecipação dos efeitos da tutela.
Depois de reconhecida a ocorrência do dano moral, segue-se a tarefa extremamente
difícil para o julgador de quantificar o suficiente para compensar a vítima, sobretudo diante da
ausência de critérios objetivos e específicos para o arbitramento de valores.
Um meio de definir o montante das indenizações por danos morais que vem sendo
adotado no Superior Tribunal de Justiça (“STJ”) é o método bifásico. Nesse modelo, um valor
básico para a reparação é analisado considerando o interesse jurídico lesado e um grupo de
precedentes. Depois, verificam-se as circunstâncias do caso para fixar em definitivo a
indenização.
Em setembro de 2011, ao julgar o Recurso Especial 1.152.541, a Terceira Turma
detalhou o conceito do método bifásico para a definição do montante a ser pago a título de
indenização por danos morais. Na ocasião, o ministro Paulo de Tarso Sanseverino, relator,
destacou o funcionamento do sistema
Na primeira etapa, deve-se estabelecer um valor básico para a indenização,
considerando o interesse jurídico lesado, com base em grupo de precedentes
jurisprudenciais que apreciaram casos semelhantes.
Na segunda etapa, devem ser consideradas as circunstâncias do caso, para fixação
definitiva do valor da indenização, atendendo à determinação legal de arbitramento
equitativo pelo juiz.

Como se vê, a fixação do quantum devido a título de indenização por danos morais é
atividade que depende do bom senso a que se referiu Herkenhoff. Sem prejuízo disso, parece-
nos que é possível a matematização desses critérios a partir de modelos com variáveis pré-
definidas, conforme abordaremos no tópico 3.3.
A segunda situação consiste na averiguação da presença do periculum in mora para
concessão da tutela de urgência: afinal, é possível parametrizar a urgência, de modo que
sistemas de inteligência artificial possam identificá-la? Considerando que as situações que
envolvem esses pedidos envolvem, frequentemente, questões relativas à saúde, não nos parece
adequado, ainda que eventualmente possível, atribuir tal tarefa às máquinas.

6
3. POSSIBILIDADES DA INTELIGÊNCIA ARTIFICIAL NA TOMADA DE
DECISÕES JUDICIAIS
Se, por um lado, o uso dos sistemas de inteligência artificial inspira cautela por parte
dos atores do Direito, por outro lado, sua utilização pode ser uma importante aliada dos órgãos
jurisdicionais. Nesse sentido, destaca-se três aspectos indicam potencialidades da IA no
processo de tomada de decisões judiciais, quais sejam: (i) reprodução de padrões decisórios;
(ii) cooperação entre humano e máquina; e (iii) matematização da subjetividade.

3.1. REPRODUÇÃO DE PADRÕES DECISÓRIOS


No âmbito internacional, o uso de algoritmos voltados à produção de decisões judiciais
revela-se mais avançada, fazendo o uso das inteligências artificiais fortes12, isto é, aquelas que
possuem raciocínios lógicos e próprios, similares aos de uma consciência humana, capazes de
automatizar as decisões judiciais por completo. Em um pequeno país báltico, o surgimento de
um juiz-robô é o primeiro grande projeto internacional de automatização completa de uma
decisão judicial. O Ministério da Justiça da Estônia está financiando o projeto que permite que
um algoritmo julgue e sentencie pequenas causas, cuja disputa não seja superior a € 7.000,00
(sete mil euros)13. O intuito é liberar os juízes do país para se dedicarem a casos mais
complexos.
No Brasil, cerca de 80 (oitenta) milhões de processos tramitam perante os 91 (noventa
e um) tribunais do Poder Judiciário brasileiro (BRASIL, 2018). Nesse contexto, o Código de
Processo Civil de 2015 desenvolveu diversas ferramentas que visam alcançar a celeridade frente
ao fenômeno da judicialização em massa, podendo ser mencionados os recursos especial e
extraordinário repetitivos e o incidente de resolução de demandas repetitivas14.
Sem prejuízo desses mecanismos processuais, tem-se recorrido aos mecanismos
tecnológicos para ampliar a eficiência da máquina judiciária. Do mencionado universo de
tribunais, 13 (treze) já contam com algum auxílio de sistemas de inteligência artificial (BAETA,
2019), inclusive, o Supremo Tribunal Federal (“STF”), com o sistema Victor, que é responsável
pela automatização da admissibilidade de recursos extraordinários, através da análise de
existência de repercussão geral. De acordo com o Presidente do Supremo, Ministro Dias

12
FANG, Jiachao. SU, Hanning. Xiao, Yuchong. Will artificial intelligence surpass human intelligence?
Disponível em: <http://www.programmersought.com/article/2939180785/>. Acesso em: 05/04/2019.
13
NILER, Eric. Can AI be a fair judge in Court? Estonia thinks so. Disponivel em:
<https://www.wired.com/story/can-ai-be-fair-judge-court-estonia-thinks-so/>. Acesso em: 05/04/2019.
14
Art. 928, CPC. Para os fins deste Código, considera-se julgamento de casos repetitivos a decisão proferida em:
I - incidente de resolução de demandas repetitivas; II - recursos especial e extraordinário repetitivos.
Parágrafo único. O julgamento de casos repetitivos tem por objeto questão de direito material ou processual.

7
Toffoli, “o trabalho que custaria ao servidor de um tribunal entre 40 minutos e uma hora para
fazer, o software [Victor] faz em cinco segundos”15.
Além do exame de admissibilidade dos recursos especial e extraordinário, a iniciativa
revela outra potencialidade no uso dos sistemas de inteligência artificial: reproduzir padrões
decisórios fixados em precedentes com efeitos vinculativos.
Nesse sentido, seria possível o uso de sistemas de IA para o julgamento de processos
em bloco para aplicação de tese jurídica firmada em julgamento de casos repetitivos. Sem
prejuízo disso, deve-se ressaltar que o art. 332 do Código de Processo Civil autoriza a
improcedência liminar do pedido que contrariar enunciado de súmula do Supremo Tribunal
Federal ou do Superior Tribunal de Justiça; acórdão proferido pelo Supremo Tribunal Federal
ou pelo Superior Tribunal de Justiça em julgamento de recursos repetitivos; entendimento
firmado em incidente de resolução de demandas repetitivas ou de assunção de competência; ou
enunciado de súmula de tribunal de justiça sobre direito local. Sendo assim, seria possível
cogitar que, nessas hipóteses, tal exame fosse atribuído a um sistema de inteligência artificial,
apenas para identificar a incidência da tese fixada no caso concreto e, de plano, julgar
liminarmente improcedente o pedido.
Nesses casos, a decisão do leading case continuaria a ser uma função exercida por
magistrados, fixando as teses que serão revestidas de efeito vinculativo, ao passo que
incumbiria às máquinas o trabalho de acusar e identificar a presença de tais teses fixadas,
aplicando-lhes quando necessário. Poderia ser essa a solução definitiva ao alcance da celeridade
processual?
Note-se, contudo, que, nesses casos, a prévia atuação da inteligência humana é
fundamental e insubstituível pela atividade algorítmica. Significa dizer que, mesmo nos
estágios mais avançados da tecnologia, será necessário ter pelo menos um corpo superior
composto de seres humanos com o propósito de ditar a primeira jurisprudência quando a regra
violada não o possui, para unificar a jurisprudência ou para fazê-la evoluir, quando necessário,
para adaptá-lo aos valores sociais predominantes.
Na esteira desse raciocínio, passa-se a tratar da cooperação entre humano e máquina.

15
Supremo Tribunal Federal. Inteligência artificial: Trabalho judicial de 40 minutos pode ser feito em 5
segundos. Disponível em: <http://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=393522>. Acesso
em: 05/04/2019.

8
3.2. COOPERAÇÃO ENTRE HUMANO E MÁQUINA
Para Jordi Nueva Fenoll, autor do livro Inteligencia Artificial y proceso judicial, em
termos de matéria processual, deve haver uma clara distinção entre o que é meramente
tramitação e busca e dados, daquilo que envolve propriamente uma atividade mental. Nesse
aspecto, Fenoll (2018, p. 32) salienta que:
Como ya se dijo, el razonamiento jurídico es persuasivo, porque tiene que dar una
respuesta democrática a la sociedad que la misma pueda comprender, homologar e
interiorizar. Esa persuasión podría llegar a mecanizarse paulatinamente conforme
vayan perfeccionándose las posibilidades de la inteligencia, pero no debe
automatizarse por completo. de lo contrario , asistiremos a un anquilosamiento de la
jurisprudência y probablemente de todo el ordenamiento jurídico , que es todo lo
contrario de lo que debería permitir la inteligencia artificial, que precisamente debería
estar orientada a vencer el tremendo peso regresivo que suele tener entre los juristas
la tradición.

Destarte, não se contesta a impossibilidade de ingerência nos avanços das inteligências


artificiais, sobretudo às IAs fortes. No entanto, o conflito aparente em torno da substituição
robótica no exercício da função jurisdicional pode soar um tanto ilusório, porquanto a produção
do direito material é inerente à atividade humana, cuja percepção e modificação alinha-se
conforme a evolução e as demandas da sociedade.
Nesse sentido, a Comissão Europeia elaborou recentemente um guia ético para
inteligências artificiais, cuja fase piloto propõe os seguintes parâmetros objetivos: (i) garantia
da supervisão e controle humano (os sistemas não devem limitar a autonomia humana);
(ii) robustez e segurança (os algoritmos têm de ser capaz de lidar com erros); (iii) privacidade
e controle de dados (os utilizadores devem manter o controle dos seus dados e poder revogar o
acesso); (iv) responsabilização (capacidade de reconhecer erros e corrigi-los); (v) transparência,
diversidade, não-discriminação e justiça; e (vi) promoção do bem-estar ambiental e societal16.
Infere-se, portanto, que no âmbito jurisdicional, poderia destinar às máquinas as tarefas
passíveis de automatização (como mencionado no item anterior) ou mero esforço mecânico,
enquanto aquelas que demandem aplicação jurídica, pautada no exercício cognitivo, intelectual
e empático - próprio da mentalidade humana – seria restrita aos juízes.

16
PEQUENINO, Karla. Comissão Europeia lança guia ético para a inteligência artificial. Disponível em:
<https://www.publico.pt/2019/04/09/tecnologia/noticia/comissao-europeia-lanca-guia-etico-inteligencia-
artificial-1868540?fbclid=IwAR02sClPVKa-Am5rMSsGoKKildIPIirIbYTkbTZ4pXYIA6r0cV_MGKMPmjU>.
Acesso em: 16/04/2019.

9
3.3. MATEMATIZAÇÃO DA SUBJETIVIDADE
Dentre os mais diversos receios, sobretudo filosóficos, quanto aos impactos das
inteligências artificiais na vida humana, o questionamento quanto à capacidade da máquina em
desenvolver empatia é um dos mais relevantes17-18.
Ora, os sistemas de inteligências artificiais fazem uso de algoritmos, que nada mais são
do que um conjunto lógico de passos usados na resolução de problemas e, consequentemente,
na tomada de decisões19. Ocorre que existem situações levadas à apreciação do Poder Judiciário
que demandam dos magistrados certo grau de sensibilidade, como nos casos de arbitramento
de danos morais e a concessão de tutelas de urgência, já mencionados anteriormente.
Ventila-se a solução de que os algoritmos poderiam ser alimentados detalhadamente
com aquilo que os tribunais entendem, levando em conta aspectos pormenorizados existentes
na lide. A título de exemplo, em um caso de arbitramento de danos morais por acidente em
serviço, poderiam ser levados em considerações como variáveis do algoritmo os seguintes
dados: (i) valor que empresas de mesmo porte costumam arcar em situações análogas; (ii) grau
de dependência econômica financeira dos familiares da vítima; (iii) capacidade econômica da
vítima; (iv) impacto do dano na carreira profissional da vítima; etc.
Não se está, com isso, propondo a tarifação da indenização por dano extrapatrimonial.
Pelo contrário, considerando as mais minuciosas variantes, as demandas não seriam
padronizadas, ao contrário, apresentar-se-iam únicas, levando em conta cada caso concreto, de
acordo com as suas vicissitudes.

4. CONSIDERAÇÕES FINAIS
De acordo com Kazuo Watanabe (1999, p. 59), o conceito de cognição possui um caráter
eminentemente lógico, segundo o qual a atividade de conhecimento do juiz parte de uma
premissa maior, baseada nas abstrações das categorias jurídicas, para uma premissa menor,
consistente nas questões de fato deduzidas no processo, tendo em vista atingir uma conclusão

17
Veja-se: TODD, Robb. Haverá empatia em um mundo habitado pela inteligência artificial? Disponível em:
<https://internacional.estadao.com.br/noticias/nytiw,havera-empatia-em-um-mundo-habitado-pela-inteligencia-
artificial,70002490950>. Acesso em: 06/04/2019.
18
Confira-se, ainda: “Siempre que se piensa críticamente en la inteligencia artificial se afirma que nos es
humana, pese a que es tan humana como cualquier otra creación del homo sapiens. Pero al margen de ello, lo
que se suele querer significar con esa afirmación es que la máquina no tiene sentimentos” (FENOLL, 2018, p.
136).
19
ELIAS, Paulo Sá. Algoritmos e inteligência artificial exigem atenção do Direito. Disponível em:
<https://www.conjur.com.br/2017-nov-20/paulo-sa-elias-inteligencia-artificial-requer-atencao-direito>. Acesso
em: 06/04/2019.

10
última, que é o próprio pronunciamento final do magistrado. Nesse sentido, o autor define
cognição como um ato de inteligência, nos seguintes termos:
A cognição é prevalentemente um ato de inteligência, consistente em considerar,
analisar e valorar as alegações e as provas produzidas pelas partes, vale dizer, as
questões de fato e as de direito que são deduzidas no processo e cujo resultado é o
alicerce, o fundamento do judicium, do julgamento do objeto litigioso do processo
(WATANABE, 1999, p. 58-59).

À luz desse conceito – cognição judicial como ato de inteligência –, o presente artigo
buscou demonstrar que somente a inteligência humana é capaz de satisfazer o objetivo da
função jurisdicional: a pacificação de conflitos. Nesse viés, apesar de a inteligência artificial se
apresentar como uma importante aliada na concretização das promessas constitucionais de
eficiência e celeridade do Poder Judiciário, tais mecanismos não são – nem serão – capazes de
substituir o magistrado no exercício das suas funções.
Ainda assim, o crescimento e a expansão dessas tecnologias chamam a atenção para a
necessidade de regulamentar seu emprego nas relações processuais, de modo a estabelecer com
maior precisão seus limites e suas possibilidades.

5. REFERÊNCIAS BIBLIOGRÁFICAS

BAETA, Zínia. Tribunais investem em robôs para reduzir volume de ações. Disponível em:
<https://www.valor.com.br/legislacao/6164599/tribunais-investem-em-robos-para-reduzir-
volume-de-ações>. Acesso em: abr./2019.

BRASIL, Conselho Nacional de Justiça. Justiça em Números 2018: ano-base 2017. Brasília:
CNJ, 2018.

BUSTAMANTE, Evanilda Nascimento de Godoi. A valoração racional das provas no


processo judicial: uma aproximação ao tema. In: XXII Encontro Nacional do
CONPEDI/UNINOVE, São Paulo: CONPEDI, 2013. p. 407-428. Disponível em:
<http://www.publicadireito.com.br/artigos/?cod=531d29a813ef9471>. Acesso em: abr./2019.

CANUT, Leticia; MEDEIROS, Heloísa Gomes. O princípio da publicidade e da


fundamentação das decisões judiciais frente a utilização de algoritmos no desempenho da
atividade jurisdicional e dos atos processuais. In: CELLA, José Renato Gaziero; VOFF,
Salete Oro; OLIVEIRA, Júlia Francieli Neves de (Coord.). Direito, governança e novas
tecnologias II. Florianópolis: CONPEDI, 2018.

CARVALHO, Claudia da Costa Bonard de. A inteligência artificial na Justiça dos EUA e o
Direito Penal brasileiro. Disponível em: <https://www.conjur.com.br/2018-jun-10/claudia-
bonard-inteligencia-artificial-direito-penal-brasileiro>. Acesso em: abr./2019.

FENOLL. Jordin Nieva. Inteligencia artificial y proceso judicial. Madrid: Marcial Pons,
2018.

11
______. La valoración de la prueba. Madri: Marcial Pons, 2010.

FERRARI, Isabela; BECKER, Daniel; WOLKART, Erik. Arbitrium ex machina: Panorama,


riscos e a necessidade de regulação das decisões informadas por algoritmos, Revista dos
Tribunais, São Paulo, vol. 995/2018, 2018.

HERKENHOFF, João Batista. Como aplicar o Direito: à luz de uma perspectiva axiológica,
fenomenológica e sociológico política. Rio de Janeiro: Forense, 2005.

MIMS, Christopher. Our Software Is Biased Like We Are. Can New Laws Change That?
Disponível em: <https://www.wsj.com/articles/our-software-is-biased-like-we-are-can-new-
laws-change-that-11553313609>. Acesso em: 05/04/2019.

NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e direito
processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas,
Revista de Processo, São Paulo, v. 285, pp. 421-447, nov./2018.

PROPUBLICA. Machine Bias. There’s software used across the country to predict
future criminals. And it’s biased against blacks. Disponível em:
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
Acesso em mar./2019.

RANGEL, Paulo. Direito processual penal. 23 ed. São Paulo: Atlas. 2015.

REINALDO FILHO, Demócrito Ramos. A informatização do processo judicial - da lei do fax


à Lei n. 11.419/2206: uma breve retrospectiva legislativa. Revista Magister de Direito Civil
e Processual Civil, Porto Alegre, v. 3, n. 16, p. 78-85, jan./fev. 2007.

WATANABE, Kazuo. Da cognição no processo civil. 2. ed. São Paulo: Central de


Publicações Jurídicas, 1999.

12

Вам также может понравиться