Unidad de Inteligencia 42 Análisis de ataques cibernéticos basados ​​en inteligencia artificial en Indonesia


Jueves 15 de enero de 2026 – 20:05 WIB

Jacarta – El mayor riesgo de la inteligencia artificial (inteligencia artificial/AI) actualmente radica en su naturaleza que tiene dos objetivos.

Lea también:

Se abre la contratación a gran escala pero continúan los despidos, aquí está el mapa del mercado laboral para 2026

Modelos de lenguaje grandes (grandes modelos de lenguaje/LLM), como ChatGPT o Google Gemini, ahora han sido ampliamente aplicados por empresas y servicios públicos en Indonesia.

Sin embargo, la misma tecnología también se puede utilizar para automatizar el phishing, el fraude y el malware a escala. Para Indonesia, esta amenaza se considera cada vez más urgente.

Lea también:

El 31 por ciento de los indonesios confía en la IA cuando está triste

La alta dependencia de Indonesia del uso de aplicaciones de mensajería instantánea, plataformas de comercio electrónico y servicios públicos digitales hace que la sociedad sea cada vez más vulnerable a convertirse en blanco de delitos cibernéticos basados ​​en la IA.

Varios informes y advertencias gubernamentales anteriores han revelado la circulación de aplicaciones ChatGPT falsas que se utilizan para difundir malware y lanzar campañas de phishing.

Lea también:

El mercado laboral de 2026 es preocupante, los empleos de nivel inicial están desapareciendo uno por uno

Además, los indicadores del Equipo Nacional de Respuesta a Incidentes de Seguridad Cibernética (CSIRT) apuntan al surgimiento de amenazas estilo agentes de IA, incluido un phishing cada vez más sofisticado con potencial para robar datos personales y credenciales financieras.

Riset Palo Alto Networks Unidad 42 titulado ‘El dilema de doble uso de la IA: LLM maliciosos’ revela que los LLM maliciosos, conocidos como «LLM oscuros», como WormGPT, FraudGPT y KawaiiGPT, como modelos de IA creados sin salvaguardias, ahora se comercializan abiertamente a través de Telegram y foros de la web oscura.

La existencia de estos modelos reduce significativamente las barreras técnicas para que los ciberdelincuentes, tanto en términos de experiencia como de tiempo, puedan lanzar ataques localizados y a gran escala.

La Unidad 42 evalúa que el peligroso LLM tiene el potencial de cambiar el panorama del cibercrimen en Indonesia en tres aspectos principales, a través de su comunicado oficial, el jueves 15 de enero de 2026:

PrimeroLa capacidad de la IA para producir un lenguaje muy preciso permite a los perpetradores crear mensajes de phishing y compromisos de correo electrónico empresarial que parecen muy convincentes, imitando el estilo de comunicación de los líderes de empresas, instituciones financieras o agencias gubernamentales, explotando así la confianza de las víctimas.

SegundoEsta tecnología impulsa la comercialización del cibercrimen con la capacidad de generar malware, kits de phishing y scripts de robo de datos al instante, algo que antes solo podían realizar perpetradores con alta experiencia técnica.

TerceroCon la eliminación de las barreras técnicas, el delito cibernético se está democratizando cada vez más, lo que permite a actores poco calificados ejecutar fraude y extorsión digitales rápidamente, convirtiendo el delito cibernético en una operación barata, repetible y masiva (industrialización).

Página siguiente

Por ejemplo, WormGPT es capaz de producir contenido fraudulento en indonesio fluido y contextual, de modo que los ataques de phishing o de ingeniería social a través de correo electrónico o aplicaciones de mensajería se vuelven cada vez más difíciles de detectar.

Página siguiente





Fuente