Aprendiendo del caso BMV

¿Cómo podría un video falso alterado con inteligencia artificial amenazar la credibilidad y seguridad de tu organización? Descubre las lecciones clave del reciente incidente de la Bolsa Mexicana de Valores.

La Bolsa Mexicana de Valores (BMV) ha advertido sobre un video falso, manipulado con inteligencia artificial (IA), que utiliza la imagen y voz alterada de su director general, José Oriol, para engañar a inversores. Este video circula en redes sociales y espacios publicitarios en internet. La BMV aclara que no realiza actividades como solicitar depósitos o administrar cuentas, y recomienda al público verificar toda la información a través de sus canales oficiales. Además, la entidad está tomando acciones legales y aconseja precaución para evitar fraudes y estafas.

¿Esto podría suceder en tu organización?

¡Sí, claro! Un incidente de suplantación de identidad con IA podría ocurrir tanto en PYMES como en grandes empresas. Este tipo de ataque se lleva a cabo mediante la creación de un contenido falso, como un video o mensaje, que parece provenir de una fuente confiable dentro de la organización, por ejemplo, un ejecutivo de alto nivel. La inteligencia artificial puede ser utilizada para hacer que este contenido parezca increíblemente realista, replicando la voz, los gestos y las expresiones faciales de la persona suplantada. El objetivo suele ser engañar a empleados, clientes o socios para que divulguen información sensible, realicen transferencias de dinero o tomen decisiones que pueden perjudicar a la organización.

¿Cómo funciona?

Imagina que la suplantación de identidad a través de un video es como un actor en una obra de teatro que se disfraza y actúa exactamente como una figura pública conocida, por ejemplo, el director de una gran empresa. En el escenario, este actor utiliza un guion falso, pero convincente, para interactuar con la audiencia, dando la impresión de que es la persona real. En el caso de la Bolsa Mexicana de Valores, la tecnología de inteligencia artificial (IA) es el «disfraz» y el «guion» utilizados para crear un video falso que imita al director real, buscando engañar al público y a los inversores. Este escenario subraya la importancia de verificar siempre la autenticidad de la información y la identidad de quienes la presentan en el mundo digital.

¿Cómo prevenir?

El adagio clásico «si parece demasiado bueno para ser verdad, probablemente no lo sea» es aplicable a estos sofisticados engaños. Lamentablemente, los cibercriminales seguirán mejorando su oficio utilizando IA para engañar a sus víctimas, por lo tanto debes actuar proactivamente. 

Para proteger a tu organización ante este tipo de eventos, es imprescindible concientizar y entrenar a tu personal, acompañando su formación con simulacros de ataques, con el fin de que identifiquen y respondan ante intentos de estafas. Por otro lado, es recomendable que refuerces tus protocolos de verificación de identidad, especialmente para acciones críticas como transacciones financieras o cambios en la información clave.

La tecnología también puede ayudarte. Puedes utilizar software especializado e IA diseñada específicamente para detectar manipulaciones en videos y audios, aprovechando las capacidades de aprendizaje automático para identificar anomalías, sin embargo, la realidad es que estas herramientas aún no son accesibles para la mayoría de las organizaciones, por lo que la concienciación es primordial.

Crea una cultura de seguridad, es esencial para enfrentar las amenazas sustentadas en nuevos métodos de ataque.

Provehito in Altum.
Por Juan Pablo Carsi