Deep fakes: a nova fronteira no campo da desinformação

Taís Seibt
4 min readJul 26, 2019

Workshop realizado pela Witness em São Paulo reuniu jornalistas, fact-checkers, pesquisadores, profissionais de tecnologia e ativistas de base para discutir potencial de vídeos manipulados influenciarem o debate público no Brasil

As técnicas de manipulação de imagem estão evoluindo rapidamente. Com inteligência artificial e after effects combinados, já é possível fazer uma pessoa dizer o que você quer que ela diga de forma cada vez mais convincente. Até o Mark Zuckerberg. E quanto mais a máquina aprende a nos enganar, mais difícil fica o trabalho de detectar a manipulação. Ficção científica ou ameaça real em um terreno já minado pela falta de credibilidade?

A Witness, organização internacional que atua com vídeo como evidência na defesa de direitos humanos, reuniu jornalistas, fact-checkers, pesquisadores, profissionais de tecnologia e ativistas de base em São Paulo para discutir o potencial de vídeos manipulados no Brasil, já mirando as eleições 2020. A expectativa é que, sim, os eleitores brasileiros serão expostos a peças de desinformação com vídeos manipulados críveis. E não, não basta tecnologia para conter o impacto desse tipo de conteúdo.

Não há como conter o aperfeiçoamento tecnológico, mas podemos aprimorar o modo como nos relacionamos com a tecnologia. Tem a ver com a leitura crítica de conteúdos midiáticos, mas também com a ética no compartilhamento de informações — não só com os amigos, mas com as plataformas. Bem, precisamos discutir também a ética das plataformas, mas isso também só será possível quando tivermos compreensão suficiente acerca do poder que damos a elas fornecendo nossos dados.

Sabe aquele app que te deixou mais velho semana passada? É um exemplo de como alimentamos despreocupadamente bancos de dados cada vez mais robustos que podem ser usados para ensinar robôs e algoritmos a nos fazerem de bobos na internet — ou coisa pior. Ninguém pensa nisso quando publica uma selfie, mas quanto mais fotos e vídeos à disposição, mais material para ser usado em deep fakes.

Mas o que é isso?

Deep fake é o termo que tem sido usado para distinguir conteúdos enganosos ou maliciosos que se utilizam de inteligência artificial para manipular vídeos. Mas a discussão pode ir além. Vídeos mal-contextualizados (quando a descrição não corresponde ao contexto original em que a imagem foi gerada) e encenados (para simular uma realidade) são bem mais simples de serem produzidos — e podem ser muito eficazes para passar uma falsa ideia adiante.

No Brasil, as deep fakes que viralizaram recentemente no mundo político são paródias, como esta, que simula uma conversa de Sérgio Moro com Gregório Duvivier (sobre o hacker). O Portal Uai fez um vídeo bem didático explicando como é o processo de produção para se chegar a um resultado crível. Um processo caro e demorado — 60 dias, em alguns casos. Quanto menos tempo de treinamento da máquina, mais tosco o resultado e, portanto, mais rastros para detectar manipulação.

Podemos ficar tranquilos então?

Não é bem assim. Os sinais podem ser óbvios para usuários treinados — rosto embaçado, direção dos olhos, inconsistência de luz — mas podem passar totalmente despercebidos em telas pequenas (celular) e mídias de consumo rápido (redes sociais e aplicativos de mensagem).

Além disso, tem o perigo de aprofundar ainda mais a deterioração da confiança pública. A plataforma central da Witness é usar vídeo como evidência na defesa dos direitos humanos, para demonstrar abusos de autoridades policiais, por exemplo. Na checagem de fatos, vídeos são elementos de prova bastante comuns. Se já não basta mais ver para crer, “isso é deep fake” pode virar resposta automática para qualquer vídeo que apresente verdades inconvenientes, como já acontece com “isso é fake news”. E aí nossos critérios de comprovação ficam em xeque.

O que podemos fazer?

Algumas medidas de enfrentamento foram sugeridas pelos participantes do workshop. Um relatório completo será divulgado pela Witness em breve.

Usar o micro-target que direciona fakes sob medida para cada bolha para distribuir conteúdo de qualidade; direcionar mensagens específicas para públicos específicos, com a linguagem e os influenciadores adequados; ocupar espaços de escuta social para promover o diálogo e facilitar o reconhecimento de informação, opinião e propaganda foram algumas das medidas proposta na linha da literacia midiática.

Também foram abordadas medidas que dependem das plataformas, como a transparência do algoritmo do feed e a desmassificação do WhatsApp, mas nisso temos pouca esperança.

No âmbito tecnológico, a principal barreira é investimento. Existem modelos matemáticos capazes de processar e validar imagens, mas a usabilidade é restrita a quem tem conhecimento e equipamentos para isso. Criar uma interface acessível ao público — ou pelo menos aos fact-checkers — é algo que depende de aportes financeiros que o mercado não parece muito interessado em assumir.

--

--

Taís Seibt

Jornalista diplomada, doutora em comunicação, amadora de vôlei e cantora nas horas vagas