Os golpes que simulam sequestros de parentes estão cada vez mais comuns e sofisticados. Recentemente, uma mãe do Arizona (EUA) passou por um verdadeiro pesadelo após quase acreditar que sua filha tinha sido sequestrada. Jennifer DeStefano relatou que sua experiência traumática começou quando recebeu um telefonema de um número que não conhecia. Ela não iria atender, mas sabia que sua filha Briana, de 15 anos, estava em uma viagem de esqui e temia que pudesse ter ocorrido uma emergência.
Quando atendeu à chamada, a mãe ouviu nitidamente a voz de sua filha, que estava chorando e soluçando. Logo em seguida, Jennifer perguntou o que tinha acontecido. Foi então que escutou: “Mãe, esses homens ruins estão comigo, ajude-me“. Segundo Jennifer, os supostos sequestradores pediram que ela pagasse um resgate para liberar a adolescente em segurança. No entanto, os golpistas queriam buscar a mãe e não receber de forma eletrônica.
Felizmente, a norte-americana foi capaz de confirmar que sua filha estava segura em poucos minutos, mas depois descobriu que o esquema utilizava inteligência artificial para reproduzir a voz de sua filha, um golpe que estava acontecendo com frequência em sua vizinhança. “Comecei a me perguntar, tipo, se essas pessoas estavam pedindo para rastrear minha mãe e buscá-la, obviamente poderiam estar reunindo algumas informações para tentar rastrear a mim ou a alguns de meus irmãos para realmente tornar isso uma realidade“, Briana disse. “Então isso definitivamente me assustou.“
Especialistas alertam o perigo da IA
Os especialistas alertam que a reprodução da voz pode acontecer em questão de segundos com o software certo e está ficando mais fácil para criminosos e malfeitores acessarem e usarem. Um cenário preocupante, já que atualmente há pouca supervisão para a tecnologia de Inteligência Artificial.
“Há muitos aspectos positivos e empolgantes sobre essas tecnologias“, disse Sinéad Bovell, fundadora da Waye, uma empresa de educação em tecnologia. “Mas é claro que elas também trazem muitos riscos e danos.“
Para evitar um golpe semelhante de simulação de voz de IA, os especialistas recomendam manter os perfis de mídia social privados e procurar sinais de alerta, como chamadas telefônicas de códigos de área e números de telefone desconhecidos ou internacionais.
O uso da inteligência artificial por golpistas é um alerta para que as pessoas estejam atentas e tomem precauções para evitar serem vítimas de fraudes. Os especialistas ressaltam que é importante manter as informações pessoais em segurança e não fornecer dados a desconhecidos. Além disso, é fundamental sempre verificar a autenticidade das informações recebidas antes de tomar qualquer atitude. A tecnologia traz muitos benefícios, mas também requer responsabilidade e cuidado no seu uso.
Via: Good Morning America
Via: Good Morning America
- Categorias
- Tags