Washington, EE.UU. — El director ejecutivo de OpenAI, Sam Altman, advirtió a la industria financiera sobre una “crisis de fraude inminente” impulsada por herramientas de inteligencia artificial (IA) capaces de imitar voces humanas con precisión casi perfecta. Durante una conferencia de la Reserva Federal en Washington, Altman calificó de “obsoletos” los sistemas de autenticación basados en la voz, instando a los bancos a adoptar medidas urgentes para prevenir ataques de suplantación cada vez más sofisticados.
Altman, conocido por su liderazgo en el desarrollo de tecnologías de IA como ChatGPT, alertó que las instituciones financieras corren un riesgo inminente si siguen confiando en sistemas de verificación por huella de voz, especialmente populares entre clientes de alto perfil desde hace más de una década. “Algo que me aterra es que, al parecer, todavía hay instituciones financieras que aceptan la huella de voz como autenticación. Eso es una locura que se siga haciendo. La IA ya ha derrotado completamente ese método”, afirmó ante un auditorio conformado por ejecutivos de Wall Street y legisladores.
Una amenaza que se acerca rápidamente
El auge de la clonación de voz con IA ha transformado el panorama de la ciberseguridad bancaria. Según Altman, basta con tres segundos de audio para generar imitaciones de voz convincentes, capaces de vulnerar sistemas de autenticación telefónica. Este tipo de ataques ya se han demostrado efectivos en pruebas de seguridad realizadas por periodistas y expertos en fraude.
Altman subrayó que la amenaza no requiere acceso a tecnología avanzada: “La crisis está muy, muy cerca”, dijo, añadiendo que los delincuentes no necesitan sistemas sofisticados para perpetrar fraudes. Datos recientes de la industria confirman que el 91% de los bancos estadounidenses está reconsiderando el uso de la verificación por voz, ante el temor creciente de que los deepfakes y clones de voz puedan generar pérdidas multimillonarias.
Respuesta regulatoria y colaboración
La vicepresidenta de Supervisión de la Reserva Federal, Michelle Bowman, quien moderó la charla, expresó la disposición del banco central para trabajar junto a la industria tecnológica en soluciones. “Eso podría ser algo en lo que podamos pensar en asociarnos”, afirmó Bowman, dejando entrever que las autoridades podrían impulsar estándares más estrictos en autenticación bancaria.
Este debate se produce justo antes de que el presidente Donald Trump participe en una cumbre sobre inteligencia artificial, y en vísperas de la publicación de un “plan de acción sobre IA” por parte de la Casa Blanca.
Impacto financiero del fraude por IA
Expertos en ciberseguridad estiman que las pérdidas derivadas de los deepfakes y el fraude basado en IA podrían alcanzar los 40.000 millones de dólares para 2027, frente a los 12.000 millones registrados en 2023. Este crecimiento exponencial refuerza la urgencia de sustituir las metodologías de autenticación tradicionales por sistemas más robustos, como la autenticación multifactor, reconocimiento biométrico facial y validación basada en IA defensiva.
PUEDES LEER: Sólo el 35% de los Bancos de Latinoamérica Ofrecerán Servicios Personalizados Basados en Análisis de Datos e IA
La advertencia de Altman también apunta a una paradoja: mientras Microsoft y OpenAI promueven IA como herramienta democratizadora, los mismos avances se han convertido en un arma para ciberdelincuentes que buscan vulnerar sistemas bancarios y corporativos.
Un llamado a la acción
La visita de Altman a Washington tiene como objetivo impulsar un debate regulatorio sobre el uso responsable de la IA. “La tecnología está evolucionando más rápido que nuestra capacidad para adaptarnos a sus riesgos. Necesitamos nuevos métodos de verificación, porque los actuales han quedado completamente expuestos”, advirtió.
El desafío para los bancos ahora no es solo reforzar sus sistemas de autenticación, sino reconstruir la confianza de los usuarios en una era en la que la línea entre realidad y falsificación digital es cada vez más difusa.
¿Qué te pareció la noticia? Déjanos tu comentario más abajo
















