Audios falsos, videollamadas clonadas y fraudes en redes sociales: el delito evoluciona y preocupa a especialistas en seguridad.
En los últimos meses, Argentina registra un fuerte crecimiento de estafas digitales que utilizan herramientas de inteligencia artificial para engañar a las víctimas. Se trata de maniobras cada vez más sofisticadas que ya no apuntan solo a empresas o grandes cuentas, sino también a usuarios comunes.
Uno de los métodos más utilizados es la clonación de voz. A partir de audios breves obtenidos en redes sociales o WhatsApp, los delincuentes logran recrear la voz de una persona y enviar mensajes a familiares o contactos cercanos pidiendo dinero de urgencia.
A esto se suman las videollamadas falsas, donde mediante tecnología de deepfake los estafadores simulan ser conocidos de la víctima. En muchos casos, el objetivo es generar confianza en pocos segundos para concretar transferencias inmediatas.
Especialistas en ciberseguridad advierten que el crecimiento de estas maniobras está directamente vinculado a la masificación de herramientas de IA de fácil acceso. “Hoy cualquier persona puede generar una voz o una imagen falsa con un nivel de realismo muy alto”, explican.
En paralelo, también aumentaron las estafas en redes sociales y plataformas de compra-venta, donde se utilizan perfiles falsos con imágenes generadas por inteligencia artificial para ofrecer productos inexistentes o captar datos personales.
Las recomendaciones son claras: no realizar transferencias sin verificar la identidad del solicitante, desconfiar de mensajes urgentes y evitar compartir audios o videos personales en redes abiertas.
El fenómeno ya encendió alertas en organismos de seguridad y en el sistema bancario, que comenzó a reforzar mecanismos de validación. Sin embargo, el avance tecnológico corre más rápido que los controles, y la prevención sigue siendo la principal herramienta.
