INTELIGÊNCIA ARTIFICIAL: a questão da ética no uso de deadbots

Sara Suárez-Gonzalo[1]

Fonte: Diário do Centro do Mundo. Disponível em:  https://www.diariodocentrodomundo.com.br/inteligencia-artificial-deadbots. Acesso em 05.ago.2025. Com adaptações.

 

A Inteligência Artificial (IA) está se infiltrando em nosso cotidiano e desafiando valores e regras sociais. Hoje em dia, assistentes virtuais ameaçam a privacidade das nossas casas; aplicativos de notícias moldam como entendemos o mundo; sistemas de predição de riscos dizem a assistentes sociais quem deve ser protegido de abusos; ferramentas de contratação baseadas em dados avaliam quem pode conseguir emprego... No entanto, a ética no uso da IA permanece ofuscada.

Pesquisando artigos sobre esse assunto para engenheiros em formação matriculados no curso de Ética da Informação e da Comunicação”, na Universidade Católica da Lovaina (UCLouvain), na Bélgica, chegamos ao caso de Joshua Barbeau: um homem de 33 anos que usou um site chamado Project December – um chatbot – que simula conversação com sua falecida noiva, Jéssica. Conhecido como deadbot, esse tipo de chatbot permite que Barbeau troque mensagens de texto com uma Jéssica artificial. Apesar da natureza eticamente controversa do caso, ainda não há uma abordagem normativa explícita sobre ser eticamente correto ou condenável desenvolver e usar um deadbot.

Para entendermos melhor essa questão, vejamos, inicialmente, o que é o Project December. Criado pelo desenvolvedor de jogos Jason Rohrer, o Project December permite a customização de chatbots com a personalidade com a qual se deseja interagir desde que se pague por isso. O caso de Barbeau gerou uma divisão entre Rohrer e a OpenAI, laboratório de pesquisa de IA estadunidense: as diretrizes da empresa proíbem explicitamente o uso do GPT-3 para fins sexuais, amorosos, de automutilação ou de bullying. Devido a isso, considerando a posição da OpenAI de hiper-moralista e argumentando que pessoas como Barbeau são “adultos consensuais”, Rohrer encerrou a versão do Project December que usava o GPT-3. De qualquer forma, no debate entre ser certo ou errado desenvolver um deadbot, é importante esclarecer as questões éticas levantadas por esse caso.

Primeira: o consentimento de Barbeau é suficiente para desenvolver o deadbot de Jéssica? Uma vez que Jéssica era uma pessoa real (embora falecida), o consentimento de Barbeau para a criação de um deadbot imitando-a parece insuficiente. Mesmo depois de mortas, as pessoas têm direitos. Nossa sociedade considera errado profanar ou desrespeitar a memória dos mortos. Temos certas obrigações morais com os mortos, pois a morte não implica que as pessoas deixem de existir de maneira moralmente relevante.

Segunda: a proteção dos direitos fundamentais dos mortos, ou seja, privacidade e dados pessoais. Desenvolver um deadbot replicando a personalidade de alguém requer grandes quantidades de informações pessoais, como dados de redes sociais. Se é antiético usar os dados das pessoas vivas sem o prévio consentimento delas, por que seria ético fazer isso após a morte de alguém? Nesse sentido, para desenvolver um deadbot, teria de haver o consentimento prévio daquela pessoa cuja personalidade está sendo espelhada – no caso, Jéssica.

Terceira: o consentimento prévio de Jéssica é, de fato, suficiente para considerar ética a criação de seu deadbot se esse uso for degradante para sua memória? Parece antiético consentir com situações que possam ser prejudiciais para nós mesmos. Os mortos podem sofrer danos à sua honra, reputação ou dignidade (por exemplo, campanhas de difamação póstuma) e o desrespeito aos mortos prejudica também aqueles que são próximos a eles. Além disso, agir de forma inadequada em relação aos mortos nos leva a uma sociedade mais injusta e menos respeitosa com a dignidade das pessoas em geral. Nesse sentido, a maleabilidade e a imprevisibilidade dos sistemas de aprendizado de máquina geram o risco de que o consentimento fornecido pela pessoa imitada (enquanto viva) não signifique muito mais do que um cheque em branco em relação aos usos que possam ser feitos disso.

Levando tudo isso em consideração, parece razoável concluir que, se o desenvolvimento e/ou o uso do deadbot não corresponder ao que a pessoa imitada concordou previamente, mesmo que haja consentimento, ele deve ser considerado inválido. Além disso, se clara e intencionalmente, o deadbot prejudicar a dignidade dessa pessoa, esse consentimento não é suficiente para considerar o deadbot ético. Portanto, é possível haver ética no desenvolvimento e no uso de deadbots, mas a análise terá de ser caso a caso. Vale destacar ainda: a quem cabe a responsabilidade pelo uso não ético do deadbot? Essa responsabilidade deve recair os envolvidos no design e no desenvolvimento do deadbot e sobre todos os agentes que interagem com essa tecnologia.

 

COMENTÁRIOS DE LEITORES

Marco Antônio Fontoura <psicólogo>

As máquinas foram criadas pelo ser humano para que pudessem auxiliá-lo no trabalho. Desde a Revolução Industrial, as fábricas mecanizadas vêm substituindo os artesãos e diminuindo progressivamente a quantidade de vagas para os operários. Mais recentemente, os computadores passaram a fazer tarefas de muitos profissionais. Com a IA, esse processo se acirra. Seremos completamente substituídos. Restava para o ser humano a construção das relações afetivas e transcendentais. Agora, até isso vai acabar. Os deadbots darão vida aos que já morreram e ajudarão a morrer em vida os que usarem essa tecnologia. Portanto, a pergunta sobre se é eticamente correto ou condenável desenvolver e usar deadbots não faz o menor sentido. Essa tecnologia já está sendo usada e será mais, atropelando os que forem contrários a ela.      

 

Dorotea Krause <engenheira>

O debate público sobre os usos de deadbots é essencial para informar melhor os cidadãos em geral e para subsidiar representantes políticos quanto à criação de medidas que tornem os sistemas de IA mais abertos, socialmente justos e compatíveis com os direitos humanos. Partindo desse pressuposto, o desenvolvimento e o uso de deadbots podem ser éticos, sob certas condições: (i) consentimento livre e prévio tanto da pessoa imitada quanto da que personaliza e da que interage com o deadbot para uma descrição tão detalhada quanto possível do design, do desenvolvimento e dos usos desse sistema; (ii) proibição de usos que não respeitem o consentimento do imitado ou que contrariem a sua dignidade; (iii) responsabilização criminal das pessoas envolvidas no desenvolvimento do deadbot e das que lucram com essa tecnologia por potenciais resultados negativos tanto retroativamente, para contabilizar eventos que aconteceram, quanto prospectivamente, para prevenir que eles não aconteçam no futuro.

 

Jeffrey Rosenthal <advogado>

O chamado mercado de pós-vida digital, que inclui a criação de deadbots, deve alcançar US$ 80 bilhões nos próximos 10 anos. Para o pesquisador James Hutson, da Lindenwood University, nos Estados Unidos, a monetização dos deadbots é inevitável. Todavia, os riscos éticos e legais dessa tecnologia parecem ser maiores. Ainda estamos lutando para garantir os direitos de privacidade dos vivos - o que dirá dos mortos. Nesse sentido, o melhor a fazer, neste momento, é assumir ser condenável o desenvolvimento e o uso de deadbots. Essa tecnologia pode ter consequências muito graves sobre o processo de luto, a preservação da memória dos entes falecidos e a monetização até dos mortos. O que estamos dispostos a aceitar em nome da “imortalidade digital”? Melhor não arriscar.


 

Vamos Praticar?

Acesse o o link https://wayground.com/join.

Quando pedir um código, digite: 57422690.

 



[1] Sara Suárez-Gonzalo é pesquisadora da Universitat Oberta de Catalunya (UOC), em Barcelona/Espanha, escreve sobre como a Inteligência Artificial vem alterando práticas sociais e é professora colaboradora de outras universidades europeias.