Deep fakes produzidos por meio de inteligência artificial (IA) serão tema da nova novela da TV Globo, Travessia, que estreia na noite desta segunda-feira, 10. Na trama, uma montagem coloca o rosto da personagem Brisa (Lucy Alves) em um vídeo que a identifica como uma sequestradora de crianças. Assim, o enredo reforça a discussão sobre as implicações e o uso ético do recurso tecnológico.
Se na novela a tecnologia traz transtornos para uma pessoa anônima, na vida real há registros de figuras públicas afetadas por ela. Em 2019, Mark Zuckerberg, fundador do Facebook, apareceu em um vídeo do tipo “falando” sobre ter o controle dos dados roubados de bilhões de pessoas. A “confissão”, no entanto, era um vídeo fabricado por IA, no qual seu rosto foi retrabalhado sobre um vídeo de 2017.
Esses algoritmos capazes de modificar e sintetizar rostos e vozes surgiram para automatizar tarefas, como construir um vídeo ou gerar uma imagem, explica o doutor em Engenharia Eletrônica e Computação Anderson Soares, professor da Universidade Federal de Goiás (UFG). “As tecnologias surgem para automatizar alguma tarefa, ou seja, para que a máquina possa fazer aquilo que o ser humano faria com as próprias mãos. Essa nova revolução industrial traz essa ótica, só que para algumas tarefas ditas intelectuais e criativas. É o caso de você construir um vídeo, gerar uma imagem etc.”
Como a tecnologia funciona
O deep fake e o deep dub referem-se, respectivamente, à criação de rostos e vozes por meio de IA. Esses recursos começaram a ser desenvolvidos há cerca de 10 anos, mas ganharam força nos últimos dois anos. O ponto central do desenvolvimento da tecnologia é a interação entre duas IAs: enquanto uma gera um conteúdo, a outra tenta decidir se aquele conteúdo é real ou falso. Para conseguir passar pelo “crivo” da segunda inteligência, a primeira se vê obrigada a criar elementos cada vez mais realistas. A esse “disputa” entre IAs diferentes deu-se o nome de Generative Adversarial Networks (GANs).
No começo, as ferramentas trabalhavam para “imitar” rostos e vozes de pessoas já conhecidas. Mas, nos últimos dois anos, a evolução foi tanta que tornou-se possível gerar conteúdos que não são vinculados a ninguém – ou seja, elas geram rostos completamente sintéticos. “Uma coisa é tentar usar esse conceito de uma IA enganado a outra só com o rosto do Anderson. Mas, se eu treinar ela com milhões de faces distintas, ela vai conseguir ficar tão boa a ponto de criar uma face que não existe”, explica Soares.
Como detectar um deep fake
Com esses avanços, fica cada vez mais difícil para o usuário comum identificar se um vídeo ou áudio é verdadeiro ou montagem. Para o professor da UFG, ainda é possível “desmascarar” um deep fake analisando a movimentação labial e sincronia com o áudio em um vídeo – as bordas dos rostos costumam ficar mais borradas também. Já em um áudio modificado essa análise é mais difícil de ser feita por quem não tem acesso a recursos utilizados por especialistas na área.
Se por um lado a detecção parece se tornar cada vez mais difícil, do outro o acesso a essas tecnologias está cada vez mais comum, há serviços apps e sites. Isso, claro, gera preocupação nos especialistas. “É inevitável que caia nas mãos das pessoas comuns, inclusive das que têm motivos não nobres. O caso emblemático foi ano passado de um app que pegava a foto de uma pessoa e colocava em videos de pornografia. Isso estava dando tanto impacto social que tiraram do ar”, explica Soares. “Mas vai chegar o momento em que essa tecnologia vai cair na mão de outros, e aí nem todo mundo vai ter esse filtro ético.”
Outros usos e alertas
Além do uso óbvio na indústria do entretenimento, os deep fakes podem ser usados em casos que podem tornar mais agradável a vida das pessoas. O Centro de Excelência em Inteligência Artificial da UFG, do qual Soares faz parte, foi contratado por dois irmãos, de 19 e 23 anos, que perderam os pais durante a pandemia. A ideia deles era construir um assistente virtual que tivesse a voz do pai. O projeto está sendo executado a partir dos áudios de WhatsApp trocados pelos familiares.
O professor acredita que, como toda ferramenta, a IA pode ser usada tanto para o mal quanto para o bem. Mas ressalta a importância de haver discussão e educação com relação a esses assuntos. Segundo ele, fake news tendem a piorar quando indivíduos começarem a se deparar mais frequentemente com imagens e áudios modificados. “Haverá pessoas que vão usar a tecnologia para aumentar a produtividade e outras que vão usá-la de forma ruim. A questão é que as pessoas vão ter que aplicar senso crítico maior aos conteúdos a que elas têm acesso na internet”, alerta.