Em tempos de vídeos feitos por inteligência artificial, realidade aumentada e inúmeros conteúdos com procedência duvidosa, especialista do IEEE (Instituto de Engenheiros Elétricos e Eletrônicos – maior organização profissional técnica do mundo dedicada ao avanço da tecnologia), Gabriel Gomes de Oliveira, destaca a importância de educar o público sobre as ameaças dos deepfakes e as melhores práticas para proteger a privacidade.

dicas-cuidado-deepfake-2
Foto: Ilustrativa.

Os deepfakes, vídeos ou áudios manipulados por IA para parecerem autênticos, representam crescente preocupação em várias áreas, incluindo mídia, política e segurança pessoal. Segundo Gabriel Gomes de Oliveira, os algoritmos de IA estão se tornando cada vez mais sofisticados, o que torna a identificação dos vídeos falsos um desafio constante.

“A detecção da ameaça envolve o reconhecimento de anomalias digitais, como mudanças na iluminação, movimentos bruscos e sincronia labial inadequada”, explica Oliveira.

Dicas contra deepfakes

Para ajudar a identificar vídeos gerados por IA, Oliveira recomenda a utilização de ferramentas avançadas de detecção baseadas em IA que analisam características sutis nos vídeos. Além disso, sugere prestar atenção em detalhes como:

  • Elementos digitais na imagem: pequenas inconsistências que não estariam presentes em vídeos genuínos;
  • Iluminação da cena: variações não naturais na iluminação de um quadro para o outro;
  • Movimentos bruscos: movimentos que parecem mecânicos ou fora do ritmo natural;
  • Tom de pele: mudanças abruptas no tom de pele que podem indicar manipulação;
  • Aspecto piscante dos olhos: frequência de piscadas que não correspondem a um comportamento humano normal;
  • Sincronia labial com a fala: lábios que não se movem de forma sincronizada com o áudio.

Além de identificar simulações digitais, proteger a privacidade em um mundo de tecnologias imersivas, como a realidade aumentada (RA) e virtual (RV), também é crucial. Essas tecnologias coletam uma vasta quantidade de dados sensoriais, o que pode representar riscos significativos à privacidade.

Para mitigar esses riscos, o membro do IEEE sugere medidas como: educação sobre ameaças atuais, exercícios simulados, protocolos de relatório, aprendizado contínuo e atualizações e a construção de uma cultura de segurança.

Para proteger a privacidade em tecnologias de realidade aumentada (RA) e virtual (RV) na sala de aula, Oliveira sugere revisar constantemente o sistema e a infraestrutura para identificar e corrigir vulnerabilidades, garantir que todas as fontes de dados sejam seguras e confiáveis, e empregar especialistas em cibersegurança para fortalecer as defesas.

Ele também recomenda contratar serviços específicos para identificar e mitigar vulnerabilidades, investir em treinamentos contínuos para qualificar colaboradores, monitorar e analisar dados internos para detectar ameaças ou violações.

“É fundamental equilibrar defesas técnicas com a conscientização sobre segurança cibernética para criar uma estratégia robusta”, enfatiza ele.

dicas-cuidado-deepfake-1
Foto: Ilustrativa.

Ele também sugere incentivar a colaboração entre equipes de TI e outros departamentos para garantir que as medidas de segurança e programas de treinamento estejam alinhados com as necessidades organizacionais.

Para o futuro, é essencial conduzir avaliações regulares de vulnerabilidade e testes para identificar e abordar possíveis fraquezas nas defesas, tanto técnicas quanto humanas.

“A informação e a educação são a base para o avanço seguro e inteligente de tecnologias inovadoras para toda a sociedade”, conclui o especialista do IEEE.