miércoles, 11 de marzo de 2026 – 17:24 WIB
Jacarta – Capitán JKT48Raden Rara Freyanasifa Jayawardana, denunció un presunto uso indebido de la tecnología de inteligencia artificial (AI) Grok a la Policía Metropolitana del Sur de Yakarta.
El informe se relaciona con una supuesta manipulación de fotografías que luego se distribuyó a través de varias cuentas de redes sociales. La información sobre el informe fue confirmada por el jefe de la Sección de Relaciones Públicas de la Policía Metropolitana del Sur de Yakarta, el comisionado adjunto de policía Murodih. dijo informe Freya Fue recibido por la policía a principios de febrero.
«La policía del sur de Yakarta recibió un informe el 5 de febrero de 2025 en nombre del reportero RRFJ (Freya)», dijo Murodih a los periodistas el miércoles 11 de marzo de 2026.
El informe consta con el número LP/B/519/II/2026/SPKT/POLRES METRO JAKSEL/POLDA METRO JAYA. En su informe, Freya se queja de una supuesta manipulación de datos electrónicos que circulan en las redes sociales.
Murodih explicó que el caso denunciado por Freya estaba relacionado con presuntas violaciones a la Ley de Información y Transacciones Electrónicas (ITE) relacionadas con la manipulación de datos a través de medios electrónicos.
«El caso se relaciona con la manipulación de datos a través de medios electrónicos según lo previsto en el artículo 35 en relación con el artículo 51 de la Ley Número 1 de 2024 relativa a la Segunda Modificación de la Ley Número 11 de 2008 relativa a ITE», dijo.
Según él, las cargas reportadas provinieron de varias cuentas de redes sociales sospechosas de utilizar tecnología Grok y Swap. En la carga, las fotos utilizadas parecen mostrar la figura de Freya en varios períodos de tiempo entre 2022 y 2025.
«El objeto del caso en cuestión es la publicación del perpetrador usando las cuentas @grok y @swap para que parezca que la persona que se muestra en la carga es el reportero o la víctima», dijo.
Actualmente, la policía todavía está investigando el informe. Los investigadores también han programado un examen de seguimiento para investigar las acusaciones de uso indebido de la tecnología de inteligencia artificial. El examen de este caso está previsto que se lleve a cabo el jueves 12 de marzo de 2026.
Los jugadores de Roblox ahora no pueden decir palabras duras en el juego
Roblox presenta una función de inteligencia artificial que parafrasea automáticamente los insultos en las conversaciones de los jugadores. Esta tecnología tiene como objetivo crear una comunicación más educada.
VIVA.co.id
9 de marzo de 2026

