Modalidad de estafa clonando la voz de familiares
En los últimos meses, una nueva modalidad de estafa ha venido preocupando a las autoridades y ciudadanos en varios países, y ahora ha llegado a Colombia. Los delincuentes están utilizando la inteligencia artificial (IA) para clonar voces y engañar a las personas, haciéndose pasar por familiares o amigos cercanos. Este tipo de fraude ha sido denunciado por la Fiscalía General de la Nación, que ha alertado sobre el incremento de casos en el país. Modalidad de estafa clonando la voz de familiares
La tecnología de clonación de voz se ha convertido en una herramienta poderosa para los ciberdelincuentes, permitiéndoles imitar con sorprendente precisión las voces de personas conocidas por sus víctimas. La técnica se utiliza para generar situaciones de emergencia o crisis, presionando a las víctimas a actuar rápidamente, ya sea entregando información sensible, como contraseñas, o transfiriendo dinero bajo la creencia de que están ayudando a un ser querido. Este fenómeno pone en evidencia los riesgos de las tecnologías emergentes y plantea un nuevo desafío para la seguridad cibernética y la prevención del fraude.
¿Cómo funciona la estafa?
Los estafadores utilizan herramientas de IA para analizar y replicar voces humanas. A través de redes sociales, grabaciones públicas o incluso interceptaciones de llamadas, los delincuentes recopilan material suficiente para entrenar algoritmos que luego generan voces sintéticas casi indistinguibles de las reales. La estafa suele comenzar con una llamada o un mensaje de texto en el que se simula la voz de un familiar, amigo o incluso un empleado de una institución financiera, presentando una situación de urgencia.
El tono de la conversación está diseñado para generar pánico o confusión. En muchos casos, los delincuentes presentan escenarios extremos, como accidentes o emergencias médicas, para que las víctimas actúen rápidamente sin tiempo para verificar la autenticidad de la llamada. A partir de esta presión, las personas proporcionan datos confidenciales o realizan transacciones económicas, creyendo que están ayudando a un ser querido.
Le puede interesar >>> Pilas con esta modalidad de «estafa» en ventas por redes sociales
El impacto del ‘deepfake’ en las estafas
Además de la clonación de voz, los estafadores están recurriendo al uso de ‘deepfakes’, una tecnología basada en IA que permite crear videos falsos en los que se simula la apariencia y gestos de una persona. Los ‘deepfakes’ pueden hacer que las víctimas confíen aún más en la veracidad de las situaciones planteadas por los estafadores, ya que además de oír la voz de un ser querido, también pueden verlo en una videollamada falsa. Modalidad de estafa clonando la voz de familiares
Expertos en seguridad cibernética, como Juan Manuel Mesa, gerente general de IBM en Colombia, han advertido sobre los peligros del uso malintencionado de la IA. En entrevistas recientes, Mesa ha señalado que los ciberdelincuentes pueden aprovechar contenido de voz y videos compartidos en redes sociales para crear estas imitaciones. Incluso, mencionó que el “secuestro de llamadas” es otra estrategia en la que los delincuentes interceptan las comunicaciones de las víctimas para suplantar su identidad y engañar a familiares o amigos.
Recomendaciones para evitar ser víctima de estafas con IA
Las autoridades y expertos en seguridad digital recomiendan las siguientes acciones:
- No confiar en llamadas inesperadas: Si recibe una llamada de un supuesto familiar o amigo solicitando ayuda inmediata o dinero, lo mejor es colgar y comunicarse directamente con esa persona a través de otro canal, ya sea una llamada desde otro teléfono o un mensaje de texto.
- Sospechar de cualquier solicitud de información bancaria o personal: Ninguna institución financiera solicita contraseñas o datos sensibles a través de llamadas telefónicas. Si una conversación comienza a derivar hacia la solicitud de estos datos, es probable que sea un intento de estafa.
- Utilizar verificación de dos factores: Configurar la verificación en dos pasos en correos electrónicos, cuentas bancarias y redes sociales agrega una capa adicional de seguridad que dificulta el acceso no autorizado a sus cuentas.
- Actualizar las contraseñas con frecuencia: Cambie las contraseñas frecuentemente y evite utilizar las mismas para múltiples servicios.
- Tener cuidado con lo que se comparte en redes sociales: Aunque las redes sociales son una herramienta poderosa de comunicación, también son un terreno fértil para los estafadores que buscan obtener información personal. Limite la cantidad de datos sensibles que comparte públicamente, incluyendo fotos, videos y grabaciones de voz.
- Educarse sobre las nuevas modalidades de estafa: Mantenerse informado sobre las tácticas más recientes que utilizan los delincuentes es clave para reducir las posibilidades de caer en el engaño. Es importante que tanto usted como sus familiares estén al tanto de estas nuevas amenazas y tomen precauciones.
El desafío de la regulación y el control de la IA
La creciente accesibilidad de tecnologías avanzadas como la clonación de voz y los ‘deepfakes’ plantea interrogantes sobre cómo regular el uso de la inteligencia artificial en Colombia. A medida que estas tecnologías se vuelven más comunes, se incrementa la necesidad de establecer marcos legales que limiten su uso malintencionado.
La Fiscalía General de la Nación ha expresado su preocupación por el aumento de casos de estafa vinculados al uso de IA y ha lanzado campañas para alertar a los ciudadanos. Sin embargo, para contrarrestar eficazmente esta amenaza, se requerirá una combinación de legislación adecuada, colaboración internacional y una mayor conciencia pública.
El Extracto LitiApp
El uso de la inteligencia artificial por parte de los ciberdelincuentes está transformando el panorama de las estafas en Colombia. La clonación de voces y la utilización de ‘deepfakes’ para suplantar identidades son tácticas que están creciendo a nivel global, y las autoridades ya están tomando medidas para alertar a la población.
Al combinar tecnología con prácticas de seguridad cibernética responsables, los ciudadanos pueden reducir significativamente el riesgo de convertirse en víctimas de estos nuevos modelos de fraude.