Вы находитесь на странице: 1из 4

Implicações éticas das novas tecnologias da informação

Janos Biro Marques Leite

Bacharel em Filosofia pela UFG

LEITE, Janos B. M. Implicações éticas das novas tecnologias da informação.


Contrafatual, 2020. Disponível em: http://contrafatual.com/2020/02/14/implicacoes-
eticas-das-novas-tecnologias-da-informacao

As tecnologias da informação produzem diversas mudanças na vida social. Por


exemplo, novas formas de interação social entre indivíduos distantes fisicamente, porém
conectados pela internet. Esses efeitos podem parecer inofensivos, mas eles podem se
tornar um assunto bastante controverso. A tecnologia não apenas expande o alcance da
ação humana, ela pode alterar permanentemente o modo como as pessoas se relacionam
e também o que elas esperam de uma interação social. A leitura que se faz da pessoa
com quem se está interagindo, por exemplo, é diferente quando não se pode avaliar suas
reações emocionais e componentes não-verbais da comunicação.

Com o avanço da análise de dados, é provável que os aplicativos consigam ler sinais
gestuais ou analisar sentenças e tom de voz de uma pessoa, usando câmera e microfone,
para compreender o comportamento de usuários melhor do que eles mesmos
compreendem. Quais seriam as implicações éticas desse tipo de tecnologia?

Algumas técnicas de avaliação psicológica deveriam ser usadas apenas com


consentimento, por uma pessoa qualificada e somente num contexto terapêutico. Usar
certas técnicas de psicologia fora dessas condições é eticamente questionável, pois as
consequências podem ser desastrosas. Infelizmente tais técnicas são rotineiramente
usadas por praticantes de coaching, e podem ser aplicadas para novas tecnologias de
interação também.

Em 1936, Dale Carnegie lançou um livro chamado Como fazer amigos e influenciar
pessoas, que se tornou um dos mais vendidos e mais influentes de todos os tempos,
sendo o grande responsável pelo estabelecimento do gênero conhecido como "auto-
ajuda". No livro, Carnegie enumera uma série de dicas para ser melhor sucedido nas
interações. Mais recentemente, o livro recebeu uma atualização para o contexto da era
digital, mostrando que ele permanece relevante nas interações via internet.

Essas técnicas podem realmente ajudar a lidar com pessoas, mas também podem dar
ferramentas perigosas nas mãos de pessoas com traços sociopatas. Num artigo de 2013,
Diane Brady lembra que Jeff Guinn, autor de um livro sobre Charles Manson, afirmou
que "foi o treinamento de Carnegie que auxiliou a transformação de Manson de 'um
cafetão de baixo nível' para um 'sociopata assustadoramente eficaz', que criou um culto
de assassinos no final dos anos 1960". Quando tais técnicas estão facilmente disponíveis
para serem usadas por qualquer pessoas e para qualquer fim, problemas irão surgir.

A normalização de certas tecnologias sociais antes que compreendamos seu efeito na


subjetividade também pode ser um problema. Isso já está acontecendo nas redes sociais,
quando as técnicas para "ganhar mais seguidores" alteram a lógica das interações
cotidianas. Fica pior ainda quando as novas gerações já tem sua socialização primária
mediada por estas disposições.

Outro problema diz respeito à nossa relação com inteligências artificiais. O problema de
convivermos com simulações pode ser observado no efeito de "dating sims"
(simuladores de encontros) na sociabilidade. Estes softwares oferecem interações
simuladas para pessoas que podem nunca ter experimentado interações daquele tipo na
vida real, o que pode moldar suas disposições afetivas na vida real.

No artigo Should Children Form Emotional Bonds With Robots? (Crianças deveriam
formar laços afetivos com robôs?), Alexis Madrigal cita Sherry Turkle para criticar essa
mediação tecnológica logo na infância, afirmando que crianças precisam de conexões
com pessoas reais para amadurecer emocionalmente. “Empatia simulada não é
suficiente. Se os relacionamentos com brinquedos inteligentes nos afastam daqueles
com amigos ou familiares, mesmo parcialmente, poderemos ver crianças crescendo sem
as condições necessárias para uma conexão empática. Você não pode aprender isso com
uma máquina”.

Mas será que nossa sociedade providencia um ambiente onde as relações com pessoas
reais podem acontecer sem serem mediadas por tecnologias? Será que as condições para
o amadurecimento emocional estão igualmente disponíveis para todas as pessoas? Será
que adultos são emocionalmente maduros o suficiente para lidar com as novas
tecnologias da informação?

Existe um risco de se perder referências sociais e emocionais, na medida em que a


distinção entre uma reação humana real e uma simulada se dissipa. As relações
emocionais maduras são resultado de uma construção social. Quando se interage com
um robô dizendo "é só um robô, posso fazer o que quiser", uma parte da empatia para
com pessoas reais pode ser comprometida. Um fenômeno semelhante ocorre com a
banalização da violência, quando se diz "é só um filme". O efeito dessa perda de
empatia afeta principalmente certo arranjo de gênero, classe e etnia, o que significa que
essa perda de empatia se reflete principalmente numa intolerância racista, sexista e
elitista.

No artigo Not every kid-bond matures (Nem todo vínculo infantil amadurece), Gabriel
Winant, resenhando o livro Kids These Days: Human Capital and the Making of
Millennials (Crianças nos dias de hoje: capital humano e a geração dos millennials), de
Malcolm Harris, argumenta:

“A crise generalizada do capitalismo (...) impôs uma enorme pressão competitiva aos
jovens para produzir 'capital humano'. Esse conceito, essencial no pensamento
econômico neoliberal, quantifica o conjunto de qualidades humanas economicamente
valiosas, educação, habilidades, disciplina, acumuladas ao longo de uma vida. Está no
subtítulo do livro porque é a chave do argumento de Harris. A mão oculta que molda
millennials, produzindo nossos atributos estereotipados aparentemente diversos e até
contraditórios, é o imperativo de intensificação, tanto exterior como também
profundamente internalizado, da maximização do nosso próprio valor econômico
potencial. (...) O capitalismo está comendo nossos jovens. É só nos alimenta com
abacates para nos engordar primeiro.”
É possível deduzir uma relação entre a mediação tecnológica da interação e o conceito
de capital humano? Isso exigiria mais pesquisa, porém permita-me adicionar mais um
ingrediente nesta sopa e problematizar um pouco mais.

Num artigo de 2018, chamado How the Self-Driving Dream Might Become a
Nightmare (Como o sonho da auto-direção pode se tornar um pesadelo), David Alpert
pergunta: "O que acontecerá se aceitarmos que um certo número de mortes de pedestres
é uma parte inevitável da adoção de veículos autônomos?". Este problema ético não é
tão simples quanto parece. Não basta, por exemplo, dizer que os pilotos automáticos são
mais seguros que os motoristas humanos, porque há outros fatores nessa questão. Por
exemplo: quem será responsabilizado por esses acidentes? A reflexão foi estimulada
pela notícia da primeira morte num acidente com veículo auto-dirigido. A conclusão do
autor é que, provavelmente, os próprios pedestres podem ser responsabilizados.

Alpert oferece o seguinte experimento mental: imagine que duas empresas concorrentes
ofereçam o mesmo serviço de transporte com veículos autônomos. Uma delas tem um
algoritmo um pouco mais cuidadoso para evitar acidentes, e a outra tem um algoritmo
mais "ousado", que resulta em tempos de viagens significativamente menores. Uma
pessoa atrasada para uma reunião importante escolhe o serviço que oferece mais
rapidez, e no caminho uma pessoa é atropelada. Qual a responsabilidade da pessoa que,
sinceramente, só queria chegar mais rápido ao seu compromisso?

A tendência das empresas é dizer que há "pessoas demais na rua", e as mortes de


pessoas podem acabar sendo justificadas em nome da velocidade, do mesmo como já
são quando se escolhe locomover-se de carro e não com transporte público.

As reflexões éticas em relação a veículos autônomos podem ser aplicadas a outras


tecnologias. De quem seria a responsabilidade pela insensibilização e perda da
referência emocional com o uso de tecnologias sociais, por exemplo?

Em What Do We Know About Autonomous Vehicles?, Carl Anderson defende que


veículos autônomos terão muito impacto em nossas vidas, mas essa tecnologia "está
chegando", não há nada que possamos fazer para impedi-la de ser desenvolvida, e
nossas reflexões éticas deveriam se restringir a pensar em como conviver com ela. Essa
posição me parece irrazoável, determinista e eticamente injustificável.

A afirmação de que certa tecnologia "já está aqui" e não pode ser resistida implica num
posicionamento ético que dá um valor intrínseco ao desenvolvimento tecnológico. É
uma atitude determinista afirmar que algo será feito independente das nossas
considerações éticas. É também um tipo de otimismo injustificado, que pressupõe que
nenhum problema ainda desconhecido se colocará no caminho desse desenvolvimento,
como de fato ocorreu em diversos momentos da história, em que se construiu uma
imagem de futuro que na verdade não se realizou.

Anderson reduz as questões éticas relacionadas à essa tecnologia dizendo: "As pessoas
morrerão à medida que desenvolvemos as capacidades de veículos autônomos - assim
como as pessoas morreram durante o desenvolvimento de aeronaves, viagens espaciais
ou submarinas. As grandes inovações sempre têm um custo humano, mas a tecnologia
sem motorista deve resultar em uma redução significativa das mortes anuais de
automóveis".
O que acontece quando assumimos a validade dessa justificação? Pessoas irão morrer,
mas essas mortes são apenas o "custo humano" de todas as tecnologias. Cientistas tem o
direito de sacrificar vidas em nome do progresso científico? Se há uma linha que separa
a ética da ciência da realidade do avanço científico, como traçá-la?

Anderson diz que:

"Inevitavelmente, os veículos se deparam com o "problema do bonde", um dilema ético


em que o veículo precisa decidir entre duas ou mais ações, cada uma com algum custo -
por exemplo, o que é pior: desviar para a esquerda e matar quatro avós ou desviar à
direita e matar uma mãe e seu bebê? Alguém tem que programar esses comportamentos
ou desenvolver uma IA que aprenda a tomar essa decisão. Não temos certeza de quem
tomará essas decisões éticas e quem as regulamentará."

O problema é que, assumir que tal programação seria eticamente válida é um equívoco.
Como Brianna Rennix e Nathan J. Robinson argumentam em The Trolley Problem Will
Tell You Nothing Useful About Morality (O problema do bonde não lhe dirá nada útil
sobre a moralidade), reduzir a ética a esse experimento mental não apenas é equivocado
em termos filosóficos, como pode ser prejudicial à saúde mental, reduzindo nossa
capacidade empática.

Outra afirmação de Carl Anderson: "Assim como os smartphones dissolvem a separação


entre vida profissional e doméstica, os veículos autônomos também dissolvem a
separação entre vida doméstica, de transporte e de escritório". Em outras palavras, as
pessoas poderão trabalhar enquanto comutam. E como exatamente este autor pensa que
isso seria bom para a sociedade?

O mesmo tipo de problema ético vem à tona quando se considera o estudo dos
algoritmos e técnicas de mineração de dados para maximização da influência em redes
sociais. O que acontece quando descobrimos as técnicas mais eficazes de "incentivar
pessoas a adotar uma linha de pensamento"? Na prática isso significa manipulação. A
ideia de que precisamos "manipular ou ser manipulados" pode estar se popularizando na
internet, com efeitos desastrosos para a ética.

Eu não vou tentar solucionar este problema aqui. Mas as implicações éticas complexas
das novas tecnologias são um dos motivos que devem nos levar a questionar a lógica
inerente ao progresso tecnológico de modo ainda mais fundamental do que temos feito
até agora. A radicalização das críticas à modernidade pode transformar a filosofia num
incômodo para entusiastas do progresso científico, mas pode também evitar a perda de
aspectos fundamentais da nossa humanidade.