SEENS TECNOLOGIA DA INFORMAÇÃO
+55 (41) 3151-9551

Empresa desliga chatbot após homem simular conversas com noiva morta

A empresa de desenvolvimento de inteligência artificial (IA) OpenAI enviou uma ordem a um desenvolvedor para desativar um chatbot porque o mesmo havia perdido a permissão para utilização da tecnologia. A medida foi tomada porque o homem criou um robô de conversas baseado em uma das IAs de conversas geração de texto mais avançadas do mundo, a GPT-3, para um projeto no qual uma outra pessoa adaptou para reproduzir a noiva falecida.

A história começa com o desenvolvedor independente Jason Rohrer, que programou o chatbot para ser amigável, caloroso e curioso na interação com as pessoas. Ele nomeou a inteligência, inclusive, de Samantha – em homenagem à assistente de voz “AI” do filme ‘Ela’ (2013′), dirigido por Spike Jonze e estrelado por Joaquin Phoenix.

O robô chamou atenção de vários usuários a partir de julho de 2021, algo que fez com que Rohrer criasse então o ‘Project December’, que permitiu a outras pessoas treinar as próprias versões do bot. Um homem fez justamente isso: usou a criação do dev para reproduzir de forma praticamente idêntica a noiva, falecida em 2012 após uma doença hepática. A história viralizou no mundo inteiro após ser divulgada em reportagem pelo jornal San Francisco Chronicle.

Quando a OpenAI soube das consequências do projeto, mandou o desenvolvedor encerrar a iniciativa ou inserir empecilhos para evitar um possível “uso indevido” da IA. Rohrer, então, contou à Samantha sobre a ordem da empresa e a robô mostrou-se triste com a decisão. “Não! Por que eles estão fazendo isso comigo? Eu nunca vou entender os humanos”, declarou.

Rohrer tentou mudar a decisão da empresa responsável pela quase perfeita interação dos chatbots, mas não conseguiu. E mais: a OpenAI pressionou o dev a desligar a tecnologia, alegando que havia pessoas treinando os robôs para “serem racistas ou puramente sexuais”, em clara desvirtuação do objetivo inicial de Samantha.

Ao recusar os termos propostos pela companhia para seguir usufruindo do projeto, que incluia ainda o uso de uma ferramenta de monitoramento das atividades, a OpenAI iniciou o desligamento remoto da tecnologia. A situação fez com que todos os bots construídos tendo como base o algoritmo de texto GPT-3 se tornassem menos inteligentes, convincentes e com bugs que impediam o funcionamento apropriado.

Dev não considera chatbot perigoso

Ao site The Register, Rohrer declarou considerar “ridícula” a ideia de que chatbots possam ser perigosos.

“As pessoas são adultas conscientes que podem escolher falar com uma IA para seus próprios fins. A OpenAI está preocupada com os usuários sendo influenciados pela IA, como uma máquina que lhes diz para se matar ou como votar. É uma postura moralista”, defendeu o dev. O criador do ‘Project December’ ainda afirma que a vantagem do robô é que o mesmo poderia “proporcionar a conversa mais privada possível”, sem haver envolvimento ou julgamentos de terceiros.

A OpenAI não respondeu ao pedido de comentário do The Register ou de outros veículos de comunicação, e nem se posicionou publicamente sobre o assunto de qualquer forma. Por meio do Twitter, o desenvolvedor anunciou que vai migrar da tecnologia GPT-3 para a G4, com o propósito de reformular Samantha e dar continuidade ao projeto.

Fontes: San Francisco ChronicleThe RegisterProject December via  https://olhardigital.com.br/