A inteligência artificial traz muito benefícios, mas pode facilitar a ação de criminosos que imitam a voz de pessoas para aplicar golpes
A inteligência artificial e diferentes modelos de linguagem são o assunto do momento no mundo da tecnologia. Avanços nesta área podem trazer novas formas de ver o mundo e de interagir com o universo digital, mas sempre há quem busque se aproveitar de ferramentas tecnológicas para aplicar golpes.
A tecnologia está tornando mais fácil e barato para os malfeitores imitarem vozes, convencendo as pessoas, muitas vezes os idosos, de que seus entes queridos estão em perigo. Em 2022, os golpes de impostores foram o segundo golpe mais popular nos Estados Unidos, com mais de 36.000 relatos de pessoas sendo enganadas por outras que fingem ser amigos e familiares, de acordo com dados da Federal Trade Commission, apresentados em uma reportagem do The Washington Post.
Mais de 5.100 desses incidentes aconteceram por telefone, representando mais de US$ 11 milhões em perdas, disseram autoridades da FTC.
Avanços na inteligência artificial adicionaram uma nova camada assustadora, permitindo que atores mal-intencionados repliquem uma voz com apenas uma amostra de áudio de algumas frases. Alimentado por IA, uma série de ferramentas online baratas pode traduzir um arquivo de áudio em uma réplica de uma voz, permitindo que um golpista a faça “falar” o que quer que digite.
Especialistas dizem que os reguladores federais, as autoridades policiais e os tribunais estão mal equipados para controlar o golpe crescente. A maioria das vítimas tem poucas pistas para identificar o criminoso e é difícil para a polícia rastrear ligações e fundos de golpistas que operam em todo o mundo. E há poucos precedentes legais para que os tribunais responsabilizem as empresas que fazem as ferramentas por seu uso.
É assustador. É uma espécie de tempestade perfeita… [com] todos os ingredientes de que você precisa para criar o caos. – Hany Farid, professor de forense digital da Universidade da Califórnia em Berkeley
Embora os golpes de impostores ocorram de várias formas, eles funcionam essencialmente da mesma maneira: um golpista se faz passar por alguém confiável e convence a vítima a enviar dinheiro porque está em perigo.
Mas a tecnologia de voz gerada artificialmente está tornando a estratégia mais convincente. As vítimas relatam reagir com horror visceral ao ouvir entes queridos em perigo. O Post apresentou a história de uma mulher, Ruth Card, que recebeu uma ligação com a voz muito parecida à de seu neto, Brandon.
Na chamada, ele dizia que estava preso sem sua carteira ou celular, e precisava de dinheiro para a fiança. Com a situação apresentada, a mulher seguiu para tentar conseguir tudo o que podia para ajudá-lo.
Foi definitivamente esse sentimento de… medo. Que tínhamos que ajudá-lo agora mesmo.- Ruth Card, vítima de um golpe com IA, ao The Washington Post
A mulher de 73 anos, ao lado de seu marido, Greg Grace, de 75 anos, correram para o banco e sacaram 3.000 dólares canadenses (US$ 2.207 na moeda americana), o máximo diário. Eles correram para uma segunda filial para obter mais dinheiro. Mas um gerente de banco os chamou em seu escritório e os informou que outro cliente recebeu uma ligação semelhante e descobriu que a voz estranhamente precisa havia sido falsificada. O homem ao telefone provavelmente não era o neto deles.
Estávamos convencidos de que estávamos conversando com Brandon. – Ruth Card, vítima de um golpe com IA, ao The Washington Post
Já no caso de vítimas como Benjamin Perkin, a situação terminou de forma diferente. Seus pais, um casal de idosos, recebeu uma ligação de alguém dizendo ser ser um advogado, informando que seu filho se envolveu em um acidente de carro que matou um diplomata americano. Com isso, Perkin estava na cadeia, e precisava de dinheiro para as taxas legais.
O advogado colocou Perkin, de 39 anos, no telefone, que disse que os amava, os apreciava e precisava do dinheiro. Algumas horas depois, o advogado ligou novamente para os pais de Perkin, dizendo que o filho precisava de o equivalente a US$ 15.449 antes de uma audiência no tribunal naquele dia.
Os pais de Perkin disseram mais tarde que a ligação parecia incomum, mas não conseguiram se livrar da sensação de que realmente conversaram com o filho. A voz soou “parecida o suficiente para meus pais realmente acreditarem que falaram comigo”, disse ele. Em estado de pânico, eles correram para vários bancos para sacar dinheiro e enviaram o dinheiro ao advogado por meio de um terminal bitcoin.
Quando o verdadeiro Perkin ligou para seus pais naquela noite para uma conversa casual, eles ficaram confusos. Não está claro de onde os golpistas conseguiram sua voz, embora Perkin tenha postado vídeos no YouTube falando sobre seu hobby de snowmobile. A família apresentou um relatório policial às autoridades federais do Canadá, disse Perkin, mas isso não trouxe o dinheiro de volta.
O dinheiro se foi. Não tem seguro. Não há como recuperá-lo. Se foi. – Benjamin Perkin
É um impacto sombrio do recente aumento da inteligência artificial generativa, que apoia softwares que criam textos, imagens ou sons com base nos dados que são alimentados. Avanços em matemática e poder de computação melhoraram os mecanismos de treinamento para esse software, estimulando uma frota de empresas a lançar chatbots, criadores de imagens e criadores de voz que são estranhamente realistas.
Farid explicou ao Post que o software de geração de voz de IA analisa o que torna a voz de uma pessoa única – incluindo idade, gênero e sotaque – e pesquisa um vasto banco de dados de vozes para encontrar outras semelhantes e prever padrões.
Então, a inteligência artificial pode recriar o tom, o timbre e os sons individuais da voz de uma pessoa para criar um efeito geral semelhante. Isto requer uma pequena amostra de áudio, retirada de lugares como YouTube, podcasts, comerciais, TikTok, Instagram ou vídeos do Facebook, explicou o especialista.
Dois anos atrás, até um ano atrás, você precisava de muito áudio para clonar a voz de uma pessoa. Agora… se você tem uma página no Facebook… ou se gravou um TikTok e sua voz está lá por 30 segundos, as pessoas podem clonar sua voz. – Hany Farid, professor de forense digital da Universidade da Califórnia em Berkeley
Fonte: O Imparcial
Notícias de Seropédica, do Brasil e do Mundo
Deixe a sua opinião sobre o post