Fellowship de Open Finance — 27 y 28 de Noviembre. Reserva tu cupo →
Por favor verifica tu e-mail para tener acceso completo al Hub haciendo click al link enviado a youremail@gmail.com
Reenviar correo de verificación

La IA redefine el riesgo del fraude digital | Jumio

December 10, 2025
Información sobre Argentina y el mundo.
📷
LFH
Los avances en tecnología con IA facilitan esquemas de fraude más complejos, impulsando la necesidad de modelos predictivos capaces de anticipar amenazas.
Por favor verifica tu e-mail para tener acceso completo al Hub haciendo click al link enviado a youremail@gmail.com
Reenviar correo de verificación

El auge de la IA impulsa estafas hiperrealistas y amplía la superficie de ataque cibernético, mientras que solo el 2% de las empresas implementa acciones de resiliencia total, según estudios de Jumio y PwC.

La inteligencia artificial (IA) ha transformado radicalmente el panorama del fraude digital a lo largo de 2025, dando origen a un escenario más sofisticado que exige un cambio de enfoque de las organizaciones, pasando de ser reactivas a proactivas. Los avances en tecnología, si bien prometen eficiencia, han abierto la puerta a esquemas de fraude más complejos, impulsando la necesidad de modelos predictivos capaces de anticipar amenazas.

Perspectivas de Jumio

Según Jumio, compañía líder en inteligencia de identidad impulsada por IA, el uso de IA generativa y agentes automatizados marcó un punto de inflexión en la evolución del delito digital. Los delincuentes han abandonado las manipulaciones aisladas para operar con sistemas automatizados que combinan IA generativa, biometría sintética y análisis de datos para crear identidades falsas y ejecutar estafas a gran escala.

Más del 50% del fraude implica el uso de inteligencia artificial. El 92% de las instituciones financieras encuestadas indica que los defraudadores utilizan IA generativa.

Deepfakes y amenazas por clonación de voz

Entre las amenazas más destacadas por las empresas de seguridad se encuentran el aumento de los deepfakes y la clonación de voz: la clonación de voz por IA se ha convertido en una nueva clase de estafa. Los ataques de suplantación de identidad mediante deepfakes aumentaron, reforzando la necesidad de tecnologías biométricas de autenticación más sofisticadas. Los ciberdelincuentes utilizan herramientas de clonación de voz de IA, que requieren tan solo tres segundos de audio para crear un clon convincente, a menudo con un 85% de coincidencia de voz con el original.

Una de cada cuatro personas encuestadas globalmente por McAfee ha experimentado o conoce a alguien que experimentó una estafa de clonación de voz con IA. Estas estafas de voice hacking se utilizan para hacerse pasar por familiares o colegas en mensajes urgentes y llenos de angustia, con el objetivo de engañar a las víctimas para que realicen transferencias o revelen información sensible.

Un 70% de las personas dijeron no estar seguras al intentar distinguir entre una voz clonada y una voz real. Un informe de Pindrop pronostica que el fraude deepfake seguirá aumentando, representando un riesgo de 5 mil millones de dólares para los centros de contacto solo en los EE. UU..

En tanto que la aparición de agentes de IA, capaces de realizar tareas autónomas como responder llamadas, procesar pagos o planificar viajes, plantea el desafío de verificar si una acción proviene de una persona real o de un agente autorizado.

Ejecutivos de seguridad reportan que la GenAI ha ampliado su superficie de ataque cibernético en un 67% durante el último año, seguida por las tecnologías en la nube.

A pesar de las crecientes preocupaciones sobre el riesgo cibernético (clasificado como el mayor riesgo para la mitigación por el 66% de los ejecutivos de seguridad), las organizaciones enfrentan brechas significativas para alcanzar una resiliencia adecuada.

Un hallazgo crucial de la encuesta Global Digital Trust Insights 2025 de PwC Argentina indica que solo el 2% de los ejecutivos afirma que su empresa ha implementado acciones de resiliencia cibernética en todas las áreas encuestadas.

Las organizaciones también se sienten menos preparadas para abordar las amenazas que les resultan más preocupantes, como los riesgos relacionados con la nube y las infracciones a través de terceros. Además, el costo promedio global de una filtración de datos supera los 3 millones de dólares, y un 87% de los ejecutivos considera de gran importancia asignar recursos a áreas de alto riesgo.

Para combatir este panorama, el 90% de las instituciones financieras están utilizando IA para acelerar las investigaciones de fraude y detectar nuevas tácticas en tiempo real.

Protección de datos

La protección de datos ya no es un tema secundario, sino una condición indispensable para la confianza y el crecimiento del ecosistema digital. Las organizaciones deben tratar la ciberseguridad como un tema permanente en la agenda, incorporándola en cada decisión estratégica.

Los ejecutivos deben impulsar una estrategia de inversión en ciberseguridad basada en amenazas, priorizando las áreas más urgentes de riesgo.

Las organizaciones que adopten un enfoque preventivo y predictivo frente al fraude estarán mejor preparadas para los desafíos futuros. La ciberseguridad se consolida como una ventaja competitiva, siendo mencionada por el 57% de los ejecutivos como un factor que influye en la confianza del cliente.

Las opiniones compartidas y expresadas por los analistas son libres e independientes, y solamente sus autores son responsables de ellas. No reflejan ni comprometen el pensamiento o la opinión del equipo de Latam Fintech Hub y, por lo tanto, no pueden interpretarse como recomendaciones emitidas por la plataforma. Esta plataforma es un espacio abierto para promover la diversidad de puntos de vista en el ecosistema Fintech.

El auge de la IA impulsa estafas hiperrealistas y amplía la superficie de ataque cibernético, mientras que solo el 2% de las empresas implementa acciones de resiliencia total, según estudios de Jumio y PwC.

La inteligencia artificial (IA) ha transformado radicalmente el panorama del fraude digital a lo largo de 2025, dando origen a un escenario más sofisticado que exige un cambio de enfoque de las organizaciones, pasando de ser reactivas a proactivas. Los avances en tecnología, si bien prometen eficiencia, han abierto la puerta a esquemas de fraude más complejos, impulsando la necesidad de modelos predictivos capaces de anticipar amenazas.

Perspectivas de Jumio

Según Jumio, compañía líder en inteligencia de identidad impulsada por IA, el uso de IA generativa y agentes automatizados marcó un punto de inflexión en la evolución del delito digital. Los delincuentes han abandonado las manipulaciones aisladas para operar con sistemas automatizados que combinan IA generativa, biometría sintética y análisis de datos para crear identidades falsas y ejecutar estafas a gran escala.

Más del 50% del fraude implica el uso de inteligencia artificial. El 92% de las instituciones financieras encuestadas indica que los defraudadores utilizan IA generativa.

Deepfakes y amenazas por clonación de voz

Entre las amenazas más destacadas por las empresas de seguridad se encuentran el aumento de los deepfakes y la clonación de voz: la clonación de voz por IA se ha convertido en una nueva clase de estafa. Los ataques de suplantación de identidad mediante deepfakes aumentaron, reforzando la necesidad de tecnologías biométricas de autenticación más sofisticadas. Los ciberdelincuentes utilizan herramientas de clonación de voz de IA, que requieren tan solo tres segundos de audio para crear un clon convincente, a menudo con un 85% de coincidencia de voz con el original.

Una de cada cuatro personas encuestadas globalmente por McAfee ha experimentado o conoce a alguien que experimentó una estafa de clonación de voz con IA. Estas estafas de voice hacking se utilizan para hacerse pasar por familiares o colegas en mensajes urgentes y llenos de angustia, con el objetivo de engañar a las víctimas para que realicen transferencias o revelen información sensible.

Un 70% de las personas dijeron no estar seguras al intentar distinguir entre una voz clonada y una voz real. Un informe de Pindrop pronostica que el fraude deepfake seguirá aumentando, representando un riesgo de 5 mil millones de dólares para los centros de contacto solo en los EE. UU..

En tanto que la aparición de agentes de IA, capaces de realizar tareas autónomas como responder llamadas, procesar pagos o planificar viajes, plantea el desafío de verificar si una acción proviene de una persona real o de un agente autorizado.

Ejecutivos de seguridad reportan que la GenAI ha ampliado su superficie de ataque cibernético en un 67% durante el último año, seguida por las tecnologías en la nube.

A pesar de las crecientes preocupaciones sobre el riesgo cibernético (clasificado como el mayor riesgo para la mitigación por el 66% de los ejecutivos de seguridad), las organizaciones enfrentan brechas significativas para alcanzar una resiliencia adecuada.

Un hallazgo crucial de la encuesta Global Digital Trust Insights 2025 de PwC Argentina indica que solo el 2% de los ejecutivos afirma que su empresa ha implementado acciones de resiliencia cibernética en todas las áreas encuestadas.

Las organizaciones también se sienten menos preparadas para abordar las amenazas que les resultan más preocupantes, como los riesgos relacionados con la nube y las infracciones a través de terceros. Además, el costo promedio global de una filtración de datos supera los 3 millones de dólares, y un 87% de los ejecutivos considera de gran importancia asignar recursos a áreas de alto riesgo.

Para combatir este panorama, el 90% de las instituciones financieras están utilizando IA para acelerar las investigaciones de fraude y detectar nuevas tácticas en tiempo real.

Protección de datos

La protección de datos ya no es un tema secundario, sino una condición indispensable para la confianza y el crecimiento del ecosistema digital. Las organizaciones deben tratar la ciberseguridad como un tema permanente en la agenda, incorporándola en cada decisión estratégica.

Los ejecutivos deben impulsar una estrategia de inversión en ciberseguridad basada en amenazas, priorizando las áreas más urgentes de riesgo.

Las organizaciones que adopten un enfoque preventivo y predictivo frente al fraude estarán mejor preparadas para los desafíos futuros. La ciberseguridad se consolida como una ventaja competitiva, siendo mencionada por el 57% de los ejecutivos como un factor que influye en la confianza del cliente.

Las opiniones compartidas y expresadas por los analistas son libres e independientes, y solamente sus autores son responsables de ellas. No reflejan ni comprometen el pensamiento o la opinión del equipo de Latam Fintech Hub y, por lo tanto, no pueden interpretarse como recomendaciones emitidas por la plataforma. Esta plataforma es un espacio abierto para promover la diversidad de puntos de vista en el ecosistema Fintech.

El auge de la IA impulsa estafas hiperrealistas y amplía la superficie de ataque cibernético, mientras que solo el 2% de las empresas implementa acciones de resiliencia total, según estudios de Jumio y PwC.

La inteligencia artificial (IA) ha transformado radicalmente el panorama del fraude digital a lo largo de 2025, dando origen a un escenario más sofisticado que exige un cambio de enfoque de las organizaciones, pasando de ser reactivas a proactivas. Los avances en tecnología, si bien prometen eficiencia, han abierto la puerta a esquemas de fraude más complejos, impulsando la necesidad de modelos predictivos capaces de anticipar amenazas.

Perspectivas de Jumio

Según Jumio, compañía líder en inteligencia de identidad impulsada por IA, el uso de IA generativa y agentes automatizados marcó un punto de inflexión en la evolución del delito digital. Los delincuentes han abandonado las manipulaciones aisladas para operar con sistemas automatizados que combinan IA generativa, biometría sintética y análisis de datos para crear identidades falsas y ejecutar estafas a gran escala.

Más del 50% del fraude implica el uso de inteligencia artificial. El 92% de las instituciones financieras encuestadas indica que los defraudadores utilizan IA generativa.

Deepfakes y amenazas por clonación de voz

Entre las amenazas más destacadas por las empresas de seguridad se encuentran el aumento de los deepfakes y la clonación de voz: la clonación de voz por IA se ha convertido en una nueva clase de estafa. Los ataques de suplantación de identidad mediante deepfakes aumentaron, reforzando la necesidad de tecnologías biométricas de autenticación más sofisticadas. Los ciberdelincuentes utilizan herramientas de clonación de voz de IA, que requieren tan solo tres segundos de audio para crear un clon convincente, a menudo con un 85% de coincidencia de voz con el original.

Una de cada cuatro personas encuestadas globalmente por McAfee ha experimentado o conoce a alguien que experimentó una estafa de clonación de voz con IA. Estas estafas de voice hacking se utilizan para hacerse pasar por familiares o colegas en mensajes urgentes y llenos de angustia, con el objetivo de engañar a las víctimas para que realicen transferencias o revelen información sensible.

Un 70% de las personas dijeron no estar seguras al intentar distinguir entre una voz clonada y una voz real. Un informe de Pindrop pronostica que el fraude deepfake seguirá aumentando, representando un riesgo de 5 mil millones de dólares para los centros de contacto solo en los EE. UU..

En tanto que la aparición de agentes de IA, capaces de realizar tareas autónomas como responder llamadas, procesar pagos o planificar viajes, plantea el desafío de verificar si una acción proviene de una persona real o de un agente autorizado.

Ejecutivos de seguridad reportan que la GenAI ha ampliado su superficie de ataque cibernético en un 67% durante el último año, seguida por las tecnologías en la nube.

A pesar de las crecientes preocupaciones sobre el riesgo cibernético (clasificado como el mayor riesgo para la mitigación por el 66% de los ejecutivos de seguridad), las organizaciones enfrentan brechas significativas para alcanzar una resiliencia adecuada.

Un hallazgo crucial de la encuesta Global Digital Trust Insights 2025 de PwC Argentina indica que solo el 2% de los ejecutivos afirma que su empresa ha implementado acciones de resiliencia cibernética en todas las áreas encuestadas.

Las organizaciones también se sienten menos preparadas para abordar las amenazas que les resultan más preocupantes, como los riesgos relacionados con la nube y las infracciones a través de terceros. Además, el costo promedio global de una filtración de datos supera los 3 millones de dólares, y un 87% de los ejecutivos considera de gran importancia asignar recursos a áreas de alto riesgo.

Para combatir este panorama, el 90% de las instituciones financieras están utilizando IA para acelerar las investigaciones de fraude y detectar nuevas tácticas en tiempo real.

Protección de datos

La protección de datos ya no es un tema secundario, sino una condición indispensable para la confianza y el crecimiento del ecosistema digital. Las organizaciones deben tratar la ciberseguridad como un tema permanente en la agenda, incorporándola en cada decisión estratégica.

Los ejecutivos deben impulsar una estrategia de inversión en ciberseguridad basada en amenazas, priorizando las áreas más urgentes de riesgo.

Las organizaciones que adopten un enfoque preventivo y predictivo frente al fraude estarán mejor preparadas para los desafíos futuros. La ciberseguridad se consolida como una ventaja competitiva, siendo mencionada por el 57% de los ejecutivos como un factor que influye en la confianza del cliente.

Las opiniones compartidas y expresadas por los analistas son libres e independientes, y solamente sus autores son responsables de ellas. No reflejan ni comprometen el pensamiento o la opinión del equipo de Latam Fintech Hub y, por lo tanto, no pueden interpretarse como recomendaciones emitidas por la plataforma. Esta plataforma es un espacio abierto para promover la diversidad de puntos de vista en el ecosistema Fintech.

Quiero estar informado de más novedades

Apoyado por:
¡Asegurando el potencial de las Fintechs!
Contacta al equipo
No items found.

¿Alguna novedad que quieras compartirnos?
escrÍbenos a hola@latamfintech.co
¿Alguna novedad que quieras compartirnos?
escrÍbenos a hola@latamfintech.co

¿Alguna novedad que quieras compartirnos?
escrÍbenos a hola@latamfintech.co
¿Alguna novedad que quieras compartirnos?
escrÍbenos a hola@latamfintech.CO

+ Makers Imparables ⚡

Makers
Paytech 💳
Cuenta de ahorros con todas las funciones de un producto de un banco tradicional

Más convocatorias

Nuestra comunidad 🤝

WHATSAPP
Tenemos un canal de Whatsapp donde contamos todos los movimientos en la industria.
HAGÁSE SUPERAMIGO 👑
Acceso ilimitado. Desbloquee la cobertura exclusiva, entrevistas con CEOs, eventos especiales y más.
Activar suscripción
RESUMEN SEMANAL
Todas las semanas envíamos a tu email un resumen con todos los avances en el ecosistema Fintech.
Abrir el Blueprint
Grupo de SLACK
Tenemos un grupo de Slack con todos los miembros registrados del Hub para que sigamos conversando.
uNIRSE AL GRUPO