SEENS TECNOLOGIA DA INFORMAÇÃO
+55 (41) 3151-9551

Algoritmo recria voz de quem já morreu, mas até onde vai o limite de uso?

Marcos Bonfim

Quando o documentário “Roadrunner” estreou contando a história do chef Anthony Bourdainele causou polêmica por exibir um trecho em que a voz do apresentador de televisão surgia narrando um email que ele havia escrito para um amigo. O problema é que aquela gravação não foi feita por Bourdain, que morreu em 2018, mas sim por uma inteligência artificial (IA).

Também conhecida como “deepfake de voz”, a tecnologia de voice cloning (clonagem de voz, em tradução direta) usa IA para reproduzir uma voz semelhante a da pessoa ou da personagem que se pretende copiar.

O processo é semelhante ao já conhecido (e perigoso) deepfake de imagens, que usa fotos e vídeos para colocar o rosto de uma pessoa num contexto diferente do real, produzindo resultados realistas.

Para especialistas ouvidos por Tilt, a surpresa do público e as críticas recebidas pelo uso da tecnologia são justificáveis, pois as questões envolvem:

  • ausência de informações claras sobre como o deepfake foi usado;
  • quebra simbólica da “verdade” comum para o gênero de documentários — a voz do chef de cozinha foi usada, mas não ficou claro que tratava-se de algo produzido;
  • receio coletivo sobre o avanço da inteligência artificial e os limites entre o que é real e o que não é

Falta transparência

De acordo com Gabriela Almeida, professora de comunicação e práticas de consumo da pós-graduação da ESPM (Escola Superior de Propaganda e Marketing), as críticas não são feitas à incorporação de novas tecnologias e à presença de um elemento ficcional no documentário. O problema, segundo ela, é a falta de transparência.

“Às vezes, um deepfake, quando é malfeito, nós conseguimos perceber que não era a pessoa falando ali. Quando temos só o áudio e ele é acompanhado de imagem de arquivo, não tem como fazer a distinção”, afirma.

Almeida acredita que o diretor deveria ter informado aos espectadores e aos entrevistados antecipadamente sobre o processo de produção, o que evitaria essa sensação de alguns fãs de terem sido enganados.

Para Martin Eikmeier, coordenador acadêmico da Academia Internacional do Cinema e especialista em som, o uso da voz fake do chef de cozinha foi inofensivo ao apenas ter “dado voz” a um texto que o próprio Bourdain escreveu, sem ter inventado nada.

Ele reconhece, no entanto, que isso criou uma ruptura importante e que pode ser usada para potencializar uma discussão sobre os limites do uso desse tipo de tecnologia. “O precedente fica tão escancarado e tão óbvio que a gente precisa debater”, diz.

Para ele, logo que o documentário virou um “bode expiatório” (ao ser alvo de críticas pelo uso da IA para exibir algo como se fosse real), o diretor poderia ter ajudado a impulsionar as reflexões sobre a questão, inevitáveis para a indústria de comunicação e para a sociedade, acrescenta.

“A gente já tem recursos antes tão poderosos quanto o deepfake para deixar o espectador desavisado sobre a informação que ele está absorvendo e consumindo. Precisamos discutir sobre como a gente representa, enquadra, fotografa, põe música numa cena e todos os efeitos que isso pode ter numa pessoa sem que ela nem perceba”, complementa.

E quando se espalhar?

A polêmica em torno do documentário parece ter acendido uma luz de alerta, deixando evidente que a inserção dessas novas tecnologias já é uma realidade e com um grau de verossimilhança elevado. A preocupação maior é sobre o impacto que elas podem ter à medida que deixam ambientes “controlados” e se espalham para a sociedade em geral.

Caindo em mãos erradas, analisam os especialistas, essa tecnologia tem o poder de causar estragos.

Um desses caminhos é o uso da tecnologia deepfake para potencializar a circulação de fake news relativa à política, destaca a professora Almeida, da ESPM. “Inclusive, há toda uma discussão sobre como será a eleição do ano que vem aqui no Brasil [em relação a esse fenômeno].”

Na mesma linha, Ary Giordani, professor do curso superior de tecnologia em produção cênica e de etnomusicologia da UFPR (Universidade Federal do Paraná), faz uma correlação com o caso da Cambridge Analytica, que usou dados do Facebook para manipular usuários em estratégia de marketing político e influenciar as eleições dos Estados Unidos em 2016.

“A gente sabe que na atualidade a problemática maior desses processos que envolvem inteligência artificial é que eles acabam tendo um reflexo muito grande nos processos políticos e na sociabilidade de maneira geral”, explica.

O docente, que também desenvolve pesquisas em comunidades caiçaras no litoral do sul do país, se mostra preocupado com o grande potencial de desinformação nesses locais. “Essas comunidades que têm menos contato e menos acesso à informação apresentam, de certa forma, uma maior vulnerabilidade em relação às fake news. E o deepfake entra nesse processo, intensificado nos últimos tempos.”

Para Eikmeier, como a evolução tecnológica é inevitável, é importante que os atores sociais pautem essa discussão em todos os ambientes, como escolas e universidades.

“Nós precisamos falar sobre como as coisas são representadas. Assim, ninguém será mais pego de surpresa. Precisamos fazer com que esse debate se torne algo rotineiro e com grande alcance em todos os setores da sociedade”, conclui.

via uol.com.br/tilt/noticias