Caracas.- La suplantación de voz mediante inteligencia artificial (IA) se ha convertido en una de las principales amenazas para las empresas en la era digital. Gracias a la IA generativa (GenAI), ahora es posible crear audios falsos con gran realismo, replicando voces de ejecutivos, proveedores o cualquier persona con presencia pública.
Estos deepfakes pueden ser utilizados para fraudes financieros, secuestro de cuentas corporativas o incluso infiltración en procesos de selección de personal. Según expertos de la compañía de ciberseguridad ESET, la facilidad para generar estos audios falsos ha aumentado exponencialmente.
“Este tipo de ataque es cada vez más barato, sencillo y convincente. Algunas herramientas son capaces incluso de insertar ruido de fondo, pausas y tartamudeos para que la voz suplantada resulte más creíble. Cada vez imitan mejor los ritmos, las inflexiones y los tics verbales propios de cada orador. Y cuando un ataque se lanza por teléfono, los fallos relacionados con la IA pueden ser más difíciles de detectar para quien atiende”, advierte Macio Micucci, Investigador de Seguridad Informática de ESET Latinoamérica, en una nota de prensa.
Te resumimos en claves cómo puedes detectar una llamada falsa hecha con IA:
- Ritmo antinatural en el discurso del orador: Los patrones de habla pueden ser inconsistentes o extraños, algo que normalmente no ocurre con la voz real de la persona.
- Tono emocional antinaturalmente plano: La voz puede carecer de matices o variaciones emocionales propias del hablante.
- Respiración antinatural o frases sin respiración: Pueden notarse pausas extrañas, respiraciones ausentes o frases que suenan “cortadas” de manera poco natural.
- Sonido inusualmente robótico: Especialmente cuando se usan herramientas de IA menos avanzadas, la voz puede percibirse metálica, artificial o con modulaciones extrañas.
- Ruido de fondo extrañamente ausente o demasiado uniforme: La falta de ambiente natural o un sonido homogéneo puede indicar que el audio ha sido generado artificialmente.
- Formación y concienciación de los empleados: Los programas de capacitación deben actualizarse para incluir simulaciones de audio deepfake, enseñando al personal qué esperar, qué está en juego y cómo actuar. También deben incluir la detección de signos de ingeniería social y escenarios típicos de deepfake.
- Ejercicios de red team: Se recomienda realizar pruebas internas para comprobar que los empleados asimilan correctamente los protocolos de detección y verificación.
- Verificación fuera de banda: Confirmar cualquier solicitud telefónica mediante cuentas de mensajería corporativa o canales independientes para asegurarse de la autenticidad del remitente.
- Doble firma en operaciones críticas: Dos personas deben firmar transferencias financieras importantes o cambios en los datos bancarios de proveedores, reduciendo el riesgo de fraude.
- Uso de contraseñas o preguntas preacordadas: Los ejecutivos deben responder códigos, contraseñas o preguntas previamente establecidas para demostrar que realmente son quienes dicen ser por teléfono.
Con información de nota de prensa de ESET.
LO ROJO Y AZUL – CNP 25.973