Com o passar dos anos, gravações de áudio e voz falsas tornaram-se assustadoramente boas. Usando modelos generativos de IA e um grande tamanho de amostra (quando se trata de celebridades), entidades maliciosas na Internet são capazes de recriar recriações imaculadas da voz de alguém para enganar ou enganar propositalmente um público. Você deve ter visto esses áudios deepfake circulando por aí, tentando atingir as pessoas com anúncios de produtos falsificados que provavelmente são óleo de cobra. O alarmante é que essas ferramentas estão cada vez melhores com o passar do tempo e as gravações que produzem podem enganar qualquer pessoa. Com isso em mente, vamos dar uma olhada nas quatro principais maneiras de detectar gravações falsas de áudio e voz geradas por IA.
Lançado Vivo Y100i com câmera traseira dupla de 50 megapixels
Por que é importante detectar áudio e voz falsos gerados por IA?
Com o surgimento repentino de modelos generativos de IA, as ferramentas para criar gravações de áudio falsificadas tornaram-se facilmente acessíveis para usuários interessados. Esses modelos de IA dependem de uma pequena amostra da voz de alguém para recriá-la quase perfeitamente. Embora as repercussões sociais destas ferramentas ainda não tenham sido determinadas na sua totalidade, elas estão a ser cada vez mais utilizadas para roubar dinheiro às pessoas a curto prazo.
Por exemplo, alguém pode usar uma gravação de áudio falsa de seu cônjuge ou parente próximo para fazer com que você transfira uma quantia substancial de dinheiro por meio de um telefonema. A qualidade dessas gravações depende do esforço que os golpistas colocaram nelas. Normalmente, os golpistas profissionais cobrem todas as bases e têm gravações de áudio falsas para cada tipo de situação em que a conversa possa surgir. Antes que você perceba que há algo estranho com o áudio, pode ser tarde demais. Portanto, é sempre melhor estar preparado para todo tipo de situação, sabendo quais pistas procurar.
Há algum corte estranho no áudio?

Embora os deepfakes de áudio tenham percorrido um longo caminho em termos de replicação da voz de origem, os golpes mais frequentes que você encontra nas redes sociais podem não ser elaborados com perfeição. A verdade é que os golpistas não precisam manipular todos que ouvem o deepfake, eles só precisam convencer um punhado de pessoas a acreditar que o que estão ouvindo é legítimo. Muitas vezes, deepfakes malfeitos e fáceis de detectar são vendidos pela Internet. A maneira mais fácil de perceber são os cortes inesperados e bruscos ao longo da gravação. Golpistas mais profissionais e entidades maliciosas geralmente resolvem esses cortes antes de publicar a gravação.
– –
Ouça atentamente qualquer erro de pronúncia


A maioria dos modelos de IA depende de uma pequena amostra da voz de alguém para criar uma gravação falsa. Por meio do aprendizado profundo, o modelo de IA pode recriar com eficácia o tom, o tom, o sotaque, o timbre e outros atributos da voz da pessoa. Mas onde pode falhar é na recriação das peculiaridades especiais. Se você estiver ouvindo uma gravação de áudio de alguém que conhece pessoalmente, sempre preste atenção nas peculiaridades da fala dele. Se você acha que a pronúncia de certas palavras está um pouco errada, você pode querer investigar mais a fundo a legitimidade da gravação.
Algo errado com o plano de fundo?


As gravações de áudio criadas usando modelos de IA raramente ficam livres de ruído de fundo. Embora alguma quantidade de ruído de fundo sempre consiga se infiltrar nas gravações de voz regulares, ele é muito mais orgânico – como o som de pessoas conversando ao fundo, ventiladores de teto, monotonia geral, etc. Se você suspeitar que está ouvindo uma gravação de áudio falsa, preste sempre muita atenção ao ruído de fundo.
Leitura recomendada:Como gravar no iPhone: um guia passo a passo para gravações perfeitas
Use uma ferramenta de detecção Deepfake


Embora os métodos mencionados acima possam dar uma boa ideia sobre a legitimidade do áudio, a única maneira de confirmar se é um deepfake é usando uma ferramenta de detecção especialmente projetada para a tarefa.Resemble.AIé uma das ferramentas que você pode usar para este trabalho. Esta ferramenta se integra a serviços de mídia populares e detecta instantaneamente áudio falso gerado por IA. Você também pode usar Resemble.AI para colocar marca d'água em seus dados de áudio e determinar se eles foram usados para treinar um modelo generativo de IA.
Perguntas frequentes (FAQ)
Como posso detectar uma gravação de áudio falsa gerada por IA?
As ferramentas de detecção de áudio geradas por IA analisam espectrogramas de gravações de áudio para determinar se são falsas. No entanto, essas ferramentas podem não estar disponíveis gratuitamente. Se você duvida da legitimidade de uma gravação de voz, preste atenção em busca de inconsistências na pronúncia, cortes bruscos e ruídos de fundo estranhos.
Como posso detectar vídeos deepfake gerados por IA?
Vídeos deepfake costumam ser mais fáceis de analisar e examinar em comparação com seus equivalentes de áudio. Você pode dizer que um vídeo é falso prestando muita atenção aos sinais faciais, aos movimentos dos lábios e a quaisquer peculiaridades estranhas.
Criar um vídeo ou áudio deepfake é ilegal?
Se o vídeo ou gravação de áudio deepfake for usado para assediar, difamar ou incitar a violência contra alguém, isso pode levar à ação legal contra o perpetrador.
Preço do iQoo 12 5G na Índia estimado antes do lançamento: detalhes internos
Conclusão
Estas são as 4 principais maneiras de criar gravações falsas de áudio ou voz geradas por IA. Se você encontrar um deepfake que esteja sendo usado para enganar pessoas ou espalhar desinformação, denuncie-o à autoridade relevante em sua área. Conhece outras maneiras úteis de detectar gravações de áudio falsas? Adoraríamos saber nos comentários!
