INTELIGÊNCIA ARTIFICIAL: a questão da ética no uso de deadbots
Sara
Suárez-Gonzalo[1]
Fonte:
Diário do Centro do Mundo. Disponível em: https://www.diariodocentrodomundo.com.br/inteligencia-artificial-deadbots. Acesso em
05.ago.2025. Com adaptações.
A Inteligência Artificial (IA) está se infiltrando em nosso cotidiano e desafiando valores e regras sociais. Hoje em dia, assistentes virtuais
ameaçam a privacidade das
nossas casas; aplicativos de notícias moldam como entendemos o mundo; sistemas
de predição de riscos dizem a assistentes sociais quem deve ser protegido de abusos; ferramentas de contratação baseadas
em dados avaliam quem pode conseguir emprego... No entanto, a ética no uso da IA permanece ofuscada.
Pesquisando artigos sobre
esse assunto para engenheiros em formação matriculados no curso
de “Ética da Informação e da Comunicação”, na Universidade Católica da Lovaina (UCLouvain), na Bélgica,
chegamos ao caso de Joshua Barbeau: um homem de 33 anos que usou um site
chamado Project December – um chatbot – que simula conversação
com sua falecida noiva, Jéssica. Conhecido como deadbot, esse tipo de chatbot
permite que
Barbeau troque mensagens de texto com uma “Jéssica” artificial. Apesar
da natureza eticamente controversa do caso, ainda não há uma abordagem normativa explícita sobre ser eticamente
correto ou condenável desenvolver e usar um deadbot.
Para entendermos melhor essa questão,
vejamos, inicialmente, o que é o Project
December. Criado
pelo desenvolvedor de jogos Jason Rohrer, o Project December permite a
customização de chatbots com a personalidade com a qual se deseja interagir
desde que se pague por isso. O caso de
Barbeau gerou uma divisão entre Rohrer e a OpenAI, laboratório de
pesquisa de IA estadunidense: as diretrizes da empresa
proíbem explicitamente o uso
do GPT-3 para fins sexuais, amorosos, de
automutilação ou de bullying. Devido a isso, considerando a posição da OpenAI de hiper-moralista e argumentando que pessoas como Barbeau são “adultos consensuais”, Rohrer encerrou
a versão do Project December que usava o GPT-3. De qualquer forma, no debate entre ser certo ou errado desenvolver um deadbot, é importante esclarecer as questões éticas levantadas por esse caso.
Primeira: o consentimento de Barbeau é suficiente para desenvolver o deadbot de Jéssica? Uma vez que Jéssica era uma pessoa real (embora falecida), o consentimento de Barbeau
para
a criação de um deadbot imitando-a parece insuficiente. Mesmo depois de mortas, as pessoas têm direitos. Nossa sociedade considera errado profanar ou desrespeitar a
memória dos mortos. Temos certas obrigações morais com os mortos, pois a morte não implica
que as pessoas deixem de existir de maneira moralmente relevante.
Segunda: a proteção dos direitos fundamentais dos mortos, ou seja, privacidade e dados pessoais. Desenvolver um deadbot replicando a personalidade de alguém requer grandes quantidades
de informações pessoais, como dados de redes sociais. Se é
antiético usar os dados das pessoas vivas sem o prévio consentimento delas, por que seria ético fazer isso após a morte de
alguém? Nesse sentido, para desenvolver um deadbot, teria
de haver o consentimento prévio daquela pessoa cuja personalidade está sendo espelhada – no caso, Jéssica.
Terceira: o consentimento prévio de Jéssica é, de fato, suficiente para considerar ética a criação de seu deadbot
se esse uso for degradante para sua memória? Parece
antiético consentir com situações que possam ser prejudiciais para nós mesmos. Os
mortos podem sofrer danos à sua honra, reputação ou dignidade (por exemplo,
campanhas de difamação póstuma)
e o desrespeito aos mortos prejudicará também aqueles que são próximos a eles. Além disso, agir de forma
inadequada em relação aos mortos nos leva
a uma sociedade mais injusta e menos respeitosa com a dignidade das pessoas em
geral. Nesse sentido, a maleabilidade e a imprevisibilidade dos
sistemas de aprendizado de máquina geram o risco de que o consentimento fornecido
pela pessoa imitada
(enquanto viva) não signifique muito mais do que um “cheque
em branco” em relação aos
usos que possam ser feitos disso.
Levando tudo isso em consideração, parece razoável concluir
que, se o desenvolvimento
e/ou o uso do deadbot não corresponder ao que a pessoa imitada concordou previamente, mesmo que haja consentimento, ele deve ser considerado
inválido. Além disso, se clara e intencionalmente, o deadbot prejudicar a dignidade dessa
pessoa, esse consentimento não é
suficiente para considerar o deadbot ético.
Portanto, é possível haver ética no desenvolvimento e no uso de deadbots, mas a análise terá de ser caso a caso.
Vale destacar ainda: a quem cabe a responsabilidade pelo uso não ético do deadbot? Essa responsabilidade deve recair os envolvidos
no design e no desenvolvimento do deadbot e sobre todos os agentes que interagem com essa tecnologia.
COMENTÁRIOS DE LEITORES
Marco Antônio Fontoura <psicólogo>
As máquinas foram criadas pelo ser humano para que pudessem auxiliá-lo no
trabalho. Desde a Revolução Industrial, as fábricas mecanizadas vêm
substituindo os artesãos e diminuindo progressivamente a quantidade de vagas
para os operários. Mais recentemente, os computadores passaram a fazer tarefas
de muitos profissionais. Com a IA, esse processo se acirra. Seremos
completamente substituídos. Restava para o ser humano a construção das relações
afetivas e transcendentais. Agora, até isso vai acabar. Os deadbots
darão vida aos que já morreram e ajudarão a morrer em vida os que usarem essa
tecnologia. Portanto, a pergunta sobre se é eticamente correto ou condenável desenvolver e usar deadbots não faz o menor sentido. Essa tecnologia já está sendo
usada e será mais, atropelando os que forem contrários a ela.
Dorotea Krause <engenheira>
O debate público sobre os usos de deadbots é essencial
para
informar melhor os cidadãos em geral e para subsidiar representantes
políticos quanto à
criação de medidas que tornem os sistemas de IA mais abertos, socialmente justos e compatíveis
com os direitos humanos. Partindo desse pressuposto, o desenvolvimento
e o uso de deadbots podem ser éticos, sob
certas condições: (i) consentimento
livre e prévio tanto da pessoa imitada quanto da que personaliza e da que interage com o deadbot para uma descrição tão detalhada
quanto possível do design, do desenvolvimento e dos usos desse sistema; (ii) proibição de usos que não respeitem o consentimento do imitado ou que contrariem a
sua dignidade; (iii)
responsabilização criminal das pessoas envolvidas no desenvolvimento do deadbot
e das que lucram com essa tecnologia por potenciais resultados negativos tanto retroativamente, para contabilizar eventos que já aconteceram, quanto prospectivamente,
para prevenir que eles não aconteçam no futuro.
Jeffrey Rosenthal
<advogado>
O chamado mercado
de pós-vida digital, que inclui a criação de deadbots, deve alcançar US$ 80 bilhões nos próximos 10 anos.
Para o pesquisador James Hutson, da Lindenwood University, nos Estados Unidos,
a monetização dos deadbots é inevitável. Todavia, os riscos éticos e legais dessa tecnologia parecem ser maiores. Ainda estamos
lutando para garantir os direitos de privacidade dos vivos - o que dirá dos
mortos. Nesse sentido, o melhor a fazer, neste momento, é assumir ser
condenável o desenvolvimento e o uso de deadbots. Essa tecnologia pode ter
consequências muito graves sobre o processo de luto, a preservação da memória
dos entes falecidos e a monetização até dos mortos. O que estamos dispostos a
aceitar em nome da “imortalidade digital”? Melhor não arriscar.
Vamos Praticar?
Acesse o o link https://wayground.com/join.
Quando pedir um código, digite: 57422690.
[1] Sara Suárez-Gonzalo é pesquisadora da Universitat Oberta
de Catalunya (UOC), em
Barcelona/Espanha, escreve sobre como a Inteligência Artificial vem alterando práticas sociais e é
professora colaboradora de outras universidades europeias.