Las identidades pueden ser robadas mediante IA, los expertos dicen que el fraude mediante deepfakes está fuera de control


domingo 8 de febrero de 2026 – 18:00 WIB

Jacarta – El desarrollo de la inteligencia artificial (IA), que debería fomentar la eficiencia, ha abierto de hecho un nuevo capítulo en la delincuencia digital. si fue antes fraude Internet es sinónimo de mensajes spam o llamadas sospechosas, ahora el rostro, la voz e incluso la identidad de una persona se pueden falsificar de manera muy convincente.

Lea también:

Ola de despidos en el sector tecnológico arrasa a principios de 2026, Amazon y Meta despiden a miles de empleados

Este fenómeno ya no es un caso esporádico, sino que se dice que se produjo de forma masiva y organizada.

Un análisis de expertos en IA reveló que el fraude se basa profundo que ahora se está llevando a cabo a escala industrial. Tecnología Crear contenido falso dirigido a personas específicas ya no es costoso ni de difícil acceso.

Lea también:

Cómo la tecnología está cambiando la forma en que la gente lee las noticias

Por el contrario, se considera que estas herramientas son más baratas, más fáciles de usar y pueden producirse en grandes cantidades. Un informe de AI Incident Database enumera más de una docena de ejemplos recientes de “suplantación de identidad con fines de lucro”.

Los casos varían, desde vídeos deepfake de periodistas suecos y del presidente de Chipre, hasta médicos falsos que promocionan productos de crema para la piel. De hecho, hay un vídeo falso del primer ministro de Australia Occidental utilizado para anunciar un plan de inversión.

Lea también:

El papel de la IA en el cambio de los métodos de enseñanza en la era digital

Esta tendencia muestra que los estafadores están aprovechando la IA ampliamente disponible para llevar a cabo acciones cada vez más específicas. El año pasado, un funcionario financiero de una multinacional de Singapur transfirió casi 500.000 dólares a estafadores después de unirse a una videollamada que creía que era de la dirección de la empresa. En el Reino Unido, se estima que los consumidores han perdido £9,400 millones de libras esterlinas por fraude en los nueve meses hasta noviembre de 2025.

«Las capacidades tecnológicas han llegado al punto en que casi cualquier persona puede producir contenido falso», dijo Simon Mylius, investigador del MIT involucrado en el proyecto relacionado con la base de datos de incidentes de IA, citado por The Guardian, el domingo 8 de febrero de 2026.

Calculó que el fraude, las estafas y la manipulación dirigida constituyeron la mayor parte de los incidentes reportados a la base de datos en 11 de los últimos 12 meses. «Esta tecnología se ha vuelto tan accesible que ya no existen barreras de entrada».

Fred Heiding, un investigador de Harvard que estudia el fraude basado en IA, expresó una opinión similar. «La escala está cambiando», dijo. «Los costes se han vuelto muy baratos, ahora casi cualquiera puede utilizarlos. Los modelos de IA se están desarrollando muy bien y su velocidad supera con creces lo que muchos expertos esperaban», afirmó.

Página siguiente

Un ejemplo real lo experimenta Jason Rebholz, director ejecutivo de la empresa de seguridad de inteligencia artificial Evoke. Admitió que casi reclutó a un candidato para el puesto que aparentemente usó un video falso durante una entrevista en línea. «El fondo del vídeo parece muy falso», dijo. «La apariencia realmente parece antinatural y el sistema tiene dificultades para procesar los bordes del cuerpo de la persona. Es como si partes del cuerpo aparecieran y desaparecieran. La cara también se ve muy suave en los bordes».

Página siguiente





Fuente