

La inteligencia artificial, conocida por su capacidad para imitar voces y rostros, ha dado un giro peligroso: ahora, los estafadores la están utilizando para perpetrar fraudes. En esta nueva modalidad, los delincuentes graban la voz de las víctimas y, mediante programas de IA, realizan llamadas a sus familiares o amigos, simulando estar en apuros y pidiendo dinero para resolver una "emergencia".
Si bien la clonación de voces ha sido utilizada en videos humorísticos, ahora se ha convertido en una herramienta para el delito. Esta práctica se ha viralizado en diversas redes sociales y ha generado preocupación en la sociedad, especialmente entre aquellos más vulnerables a las estafas.
Los expertos recomiendan tomar precauciones frente a esta amenaza. Entre las medidas de seguridad, destacan:
Hacer preguntas personales: Preguntar algo que solo esa persona podría saber responder, lo que puede ayudar a detectar si la llamada es legítima o no.
Establecer palabras clave: Crear una clave de seguridad con familiares para ser utilizada en situaciones críticas, garantizando que quien llama sea realmente la persona en cuestión.
Verificar la información: Si tienes dudas, corta la llamada y comunícate directamente con la persona para confirmar su bienestar.
Esta nueva modalidad de fraude pone en evidencia los riesgos asociados con el avance de la inteligencia artificial y la necesidad de estar alerta frente a posibles engaños. Ante la creciente sofisticación de estos métodos, es fundamental educar a la población sobre cómo prevenirlos y evitar caer en las trampas de los estafadores.
Conclusión:
El uso de inteligencia artificial para estafar no es una moda pasajera. Con el aumento de esta tecnología, los delincuentes encuentran nuevas formas de manipular a sus víctimas. Estar informado y preparado es clave para protegerse.