POR R$ 20, JOVEM CLONA VOZ POR IA E SE PASSA PELO NAMORADO PARA ''DESCOBRIR'' TRAIÇÃO

Jovem simula traição e mostra lado sombrio da IA: clonar vozes custa cerca de R$ 20. A brincadeira pode se tornar perigosa, pois criminosos estão utilizando a ferramenta para aplicar golpes

Mia Dio, influenciadora digital

via Tilt

A clonagem de vozes por inteligência artificial (IA) não é novidade, inclusive, alguns softwares já permitem gravar áudios a partir de segundos de fala e estão sendo usados para pegadinhas entre amigos. Mas, a brincadeira pode se tornar perigosa, pois criminosos estão utilizando a ferramenta para aplicar golpes.

Recentemente, a influenciadora digital Mia Dio disse ter descoberto uma traição do namorado usando IA. A jovem norte-americana de 22 anos foi apelidada de “gênio” por usuários no TikTok, onde acumula 5,2 milhões de seguidores.

Em vídeo, Mia contou que o namorado estava agindo de forma suspeita, então ela decidiu usar a tecnologia para “clonar” sua voz e ligar para um amigo dele — que confirmou que o rapaz teria beijado outra pessoa. No entanto, tudo não passou de uma brincadeira.

Segundo o Daily Mail, a jovem afirmou que o namorado e o amigo estavam envolvidos no plano desde o início. Ela ainda acrescentou que queria compartilhar o truque para qualquer um que não tivesse certeza sobre o comportamento de seu parceiro.

O vídeo já acumula 2,7 milhões de visualizações e quase 320 mil curtidas. Nos comentários, os seguidores elogiaram a influenciadora: “Garota, você inteligente. Você merece algo melhor!”, disse um.

“Comecei a pensar em cenários da minha própria vida em que uma imitação de voz de IA teria sido útil. Pensei em um ex que havia me traído e como esse tipo de tecnologia teria me poupado muito tempo. Decidimos tentar com a voz dele e ficamos chocados com a proximidade dos resultados – e tivemos a ideia do vídeo fictício da pegadinha juntos”, disse.

Assista ao vídeo:



Ainda ao tabloide britânico, Mia afirmou ter usado um software chamado ElevenLabs, 
que custou cerca de US$ 4 (aproximadamente R$ 19,60).
Como é possível copiar a voz de alguém?

As ferramentas mais avançadas exigem conhecimentos de programação, não sendo 
acessíveis para todos. No entanto, não é difícil encontrar serviços com esta 
finalidade na internet.


Para fazer essa cópia, pode-se usar a tecnologia do tipo deepfake, em que é 
possível manipular áudios e simular determinadas vozes, dificultando a distinção 
se aquela voz é realmente da pessoa.

Quanto melhor a qualidade do áudio de voz e a duração dele, melhor o resultado. 
Então, a inteligência artificial é usada para aprender com esse áudio e gerar novos 
arquivos com a voz clonada.

Cuidado com golpes

Desconfie de mensagens com caráter de urgência. Golpistas usam situações 
emergenciais, como problemas de crédito, situações com parentes, para 
convencer mais rápido as vítimas.

Use palavras-chave, ou pelo menos faça perguntas pessoais como o nome do primeiro
 animal de estimação ou a cor do primeiro carro.

Faça chamada de vídeo antes de fazer qualquer tipo de transferência em 
dinheiro, por exemplo

https://www.pragmatismopolitico.com.br/




GAZETA SANTA CÂNDIDA, JORNAL QUE TEM O QUE FALAR

Postar um comentário

0 Comentários