Software de LGPD | DPO MAX

Categorias
Destaques Tecnologia

Como a IA Pode Clonar e Ameaçar Seus Dados Biométricos: Fraudes em Voz, Vídeo e Imagem

As tecnologias de inteligência artificial que já estão avançadas o suficiente para disponibilizar no mercado produtos de clonagem de voz e criação de avatares em vídeo estão plenamente viáveis. É possível criar vídeos falsos utilizando imagens, vídeos e a voz de pessoas com ampla divulgação em redes sociais e no YouTube, especialmente jornalistas de TV.

O perito em segurança da informação e privacidade de dados Alex Rezende, Co-Founder e CTO da empresa DPO MAX, especializada em Lei Geral de Proteção de Dados (LGPD), alerta que sim, este é um perigo real e imediato. Ele explica que “não seria tão fácil incriminar pessoas com vídeos gerados por IA na justiça, pois esses vídeos contêm informações em suas propriedades que provam que são produzidos artificialmente via IA e que até mostram quando e com qual ferramenta foram gerados.”

Se alguém mal-intencionado remover as informações que permitem essas marcações que identificam que a produção foi feita por IA ou ainda filmar a tela do vídeo com outro aparelho criando um vídeo totalmente novo, um perito em informática ainda pode analisar o espectro do som e da imagem para identificar marcações que indicam a artificialidade. Apesar dessas preocupações, alguns indivíduos ainda tentarão usar essas tecnologias para fins fraudulentos, o que pode levar à prisão de pessoas fraudadoras que se acham espertas.

O problema da disseminação de fake news é inevitável e afeta a percepção pública, especialmente entre as pessoas comuns e usuárias de redes sociais. As fake news com vídeos de clones depois de criadas e compartilhadas geram estragos irreparáveis. Para lidar com isso, as plataformas de redes sociais, além de aplicativos de comunicação como WhatsApp e Telegram e outros, precisarão implementar contramedidas de IA para identificar vídeos polêmicos e suspeitos, marcando-os como possíveis fake news ou conteúdo falso, bloqueando ou limitando sua disseminação.

Rezende prevê ainda que serão necessárias melhorias e ajustes nas leis de privacidade já existentes, além da autorregulamentação do mercado, para abordar essas questões, incluindo a possibilidade de autorizar ou controlar o uso de seu rosto e voz em ferramentas certificadas. Essas regulamentações afetarão principalmente os usuários comuns, enquanto especialistas e programadores que têm acesso ao código-fonte e à tecnologia gerativa poderão criar conteúdo sem serem facilmente identificados ou punidos.

Embora essas medidas possam diminuir as fraudes, ainda é possível que clones de avatares e voz circulem ou vazem antes de serem automaticamente bloqueados ou denunciados, resultando em um mercado emergente de serviços de segurança, contramedidas e proteção de dados biométricos pessoais. Tudo isso está amparado pelas leis de proteção de dados, como a LGPD, e leis similares em outros países. No entanto, muitas empresas e indivíduos ainda desconhecem seus direitos e deveres relacionados à privacidade de dados, o que é um desafio significativo a ser enfrentado.

A segurança da informação nunca foi tão crucial quanto nos dias atuais. Com avanços significativos na inteligência artificial (IA), a capacidade de clonar dados biométricos, como voz, vídeo e imagem facial, tornou-se uma ameaça real para a privacidade e a segurança pessoal. Nesta matéria, exploraremos as possibilidades de fraude de dados biométricos clonados por IA e ofereceremos valiosas contramedidas e recomendações de segurança para proteger seus dados.

Possibilidades de Fraude:

1. Clonagem de Voz:

A IA pode imitar perfeitamente a voz de alguém após análise de amostras de áudio disponíveis publicamente. Isso pode ser usado para criar mensagens de voz falsas, enganar sistemas de autenticação de voz e até mesmo para chantagem.

2. Vídeos Falsos (Deepfakes):

Com a IA, é possível criar vídeos realistas de pessoas dizendo ou fazendo coisas que nunca ocorreram. Isso pode ser prejudicial para a reputação de indivíduos e até mesmo para a segurança nacional, pois políticos e figuras públicas podem ser alvos.

3. Clonagem de Imagem Facial:

A IA pode copiar a aparência facial de alguém e usá-la para enganar sistemas de reconhecimento facial, permitindo acesso não autorizado a contas e dispositivos protegidos por essa tecnologia.

Contra Medidas e Recomendações de Segurança:

1. Educação e Conscientização:

É fundamental que as pessoas estejam cientes das ameaças de clonagem biométrica por IA. A educação sobre como identificar deepfakes e outras fraudes é o primeiro passo para a proteção.

2. Autenticação Multifatorial (MFA):

Sempre que possível, ative a autenticação multifatorial em suas contas. Isso adiciona uma camada extra de segurança, exigindo um segundo método de autenticação além de senha ou reconhecimento biométrico.

3. Verificação de Origem:

Ao receber mensagens de voz, vídeo ou imagem suspeitas, verifique sua origem. Entre em contato diretamente com a pessoa que supostamente enviou o arquivo para confirmar sua autenticidade.

4. Atualização de Tecnologia:

Mantenha seus dispositivos e aplicativos atualizados. As empresas de tecnologia frequentemente lançam atualizações para corrigir vulnerabilidades e melhorar a segurança.

5. Controle de Dados Biométricos:

Considere cuidadosamente quais aplicativos e serviços você autoriza a acessar seus dados biométricos, como reconhecimento facial e de voz. Revise e ajuste essas configurações regularmente.

6. Monitoramento de Dados Pessoais:

Esteja atento ao uso indevido de seus dados pessoais na internet. Use ferramentas de monitoramento de identidade, se disponíveis, para detectar atividades suspeitas.

A clonagem de dados biométricos por IA é uma ameaça crescente, mas com conhecimento e ações proativas, é possível proteger-se contra essas fraudes. Mantenha-se informado e adote as medidas de segurança recomendadas para garantir a integridade de seus dados biométricos e sua privacidade online.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *