Ciencia y tecnología

#CDMX

Riesgos a la privacidad al crear tu imagen al estilo de Studio Ghibli

ESET Latinoamérica advierte sobre las consecuencias de exponer imágenes y datos personales en los distintos sitios o aplicaciones web y qué tener en cuenta para evitar riesgos.

Riesgos a la privacidad al crear tu imagen al estilo de Studio Ghibli
Riesgos a la privacidad al crear tu imagen al estilo de Studio Ghibli .

por Redacción

07/04/2025 09:51 / Uniradio Informa Sonora / Ciencia y tecnología / Actualizado al 07/04/2025

CIUDAD DE MÉXICO.­- La última actualización del chatbot de ChatGPT ha permitido a las personas que lo utilizan replicar el inconfundible estilo artístico del cocreador del estudio de animación y legendario cineasta japonés Hayao Miyazaki. Esta nueva funcionalidad se ha viralizado rápidamente en redes sociales, con miles de personas compartiendo sus imágenes generadas al estilo de Studio Ghibli. Sin embargo, desde ESET, compañía líder en detección proactiva de amenazas, advierten que como se ha demostrado en distintas ocasiones, sumarse a una tendencia por mera diversión, puede desencadenar fraudes o suplantación de identidad si la tecnología se ve comprometida o simplemente si para usarla se aceptan condiciones de privacidad desfavorables, o que pueden estar en contra de las regulaciones locales o internacionales.  

Un ejemplo de esto es el caso de Clearview AI que funcionaba desde 2020 como un motor de búsquedas similar a Google, pero de rostros. Debido a que recolectaba la información de fuentes públicas como redes sociales, revistas digitales o blogs, tuvo en 2022 una disputa con la Unión Americana de Libertades Civiles para que restrinja las ventas del software en el mercado estadounidense de servicios de reconocimiento facial a entidades gubernamentales. Este tipo de controversias continúa y la empresa sigue operando, no exenta de disputas y reclamos legales, y pago de multas en distintos países.

Por otro lado, la empresa australiana Outabox, en mayo de 2024 sufrió una filtración que expuso datos de reconocimiento facial y biometría de sus sistemas, que se utilizaban en bares y clubes de Australia. Personas que afirmaron ser antiguos desarrolladores de Outabox crearon un sitio web donde confirmaban tener datos biométricos de reconocimiento facial, escaneo de licencia de conducir, firma, datos de membresía de clubes, dirección, fecha de nacimiento, número de teléfono, marcas de tiempo de visitas a clubes y uso de máquinas tragamonedas. Las investigaciones demostraron que los datos se recopilaron de 19 establecimientos en Nueva Gales del Sur y el Territorio de la Capital Australiana, operados por ClubsNSW que había contratado a Outabox.  

"Como analizamos recientemente desde ESET, entre los principales desafíos que impone  la Inteligencia Artificial Generativa, la moderación del contenido y los derechos de autor son dos puntos que toman fuerza por esta tendencia y requieren de la atención tanto de gobiernos, empresas y usuarios. El funcionamiento de los modelos de IA depende mayoritariamente del acceso a grandes volúmenes de datos (con los que se entrenan y de los cuales se sirven), muchos de estos contienen información personal, sensible y confidencial. Las diversas fuentes para recolectar información y así entrenar a los modelos de IA pueden provenir de información pública o de fuentes abiertas, información solicitada a los usuarios (quienes la consienten, como lo es en este caso con la tendencia de las imágenes generadas al estilo Studio Ghibli) y también de redes sociales y, más recientemente, de información recopilada por dispositivos IoT.", explica David Gonzales, Investigador de Seguridad Informática de ESET Latinoamérica.

Dada la gran cantidad de datos que se procesan, se destaca la importancia de que los mismos sean tratados y almacenados de forma segura, ya que, según ESET, pueden quedar expuestos y sujetos a posibles accesos indebidos, filtraciones o incluso robos de información como en el caso de Outabox. Esto puede traer como consecuencia que los ciberdelincuentes puedan suplantar de forma fácil la identidad de los vulnerados o generar estafas con identidades reales, ampliando la superficie de ataque y exposición.

Otro desafío recae en la recolección masiva de datos sin el consentimiento informado de los usuarios, quienes muchas veces desconocen el alcance del uso de su información. Ese desconocimiento implica un vicio del consentimiento (a nivel legal) y, por tanto, dichas recopilaciones se tornan grises.

La falta de transparencia y explicabilidad sobre cómo funcionan los modelos y cómo tratan la información genera también conflictos legales. Aquí es donde se puede tornar una línea delgada entre lo privado y lo invasivo; algunas empresas directamente advierten que los datos serán usados para mejorar el modelo de entrenamiento de su Inteligencia Artificial, con el fin de presentar un producto o servicio de mayor calidad.  

Unirse a esta tendencia además del entusiasmo puede traer riesgos de la privacidad si no se toman las debidas precauciones, por lo que desde ESET Latinoamérica comparten los puntos más importantes a considerar para minimizar los riesgos:

·         Revisar las políticas de privacidad del sitio o aplicación: mantenerse informado sobre cómo funcionan los modelos de IA y cómo tratan la información es fundamental para saber si es fiable subir o no información personal o confidencial.

·         Chequear si la información que se sube a un sitio o aplicación está protegida por alguna ley: garantizar que los modelos de IA dentro de aplicaciones o sitios cumplan con regulaciones internacionales y nacionales pertinentes, así como con los principios éticos de transparencia, explicabilidad, equidad y responsabilidad. En caso de la ausencia de alguno de estos principios, es mejor no subir información personal (rostro del usuario/fotos familiares) o confidencial (lugar de trabajo).

·         Usar aplicaciones web o móviles de fuentes oficiales: debido al gran uso de aplicaciones o sitios similares a ChatGPT que puedan generar imágenes con el estilo artístico del Studio Ghibli, los ciberdelincuentes aprovechan esta temática para poder engañar a los usuarios e incitarlos a descargar software que aparentemente cumple con el propósito de generar imágenes con IA, sin embargo, puede contener malware como se menciona en este post.  

·         Usar imágenes seguras o sin derechos de autor: sino se tiene el conocimiento de que la imagen sea para su uso libre, es mejor no subirla para evitar problemas legales relacionadas con los derechos de autor. Una buena práctica es subir imágenes relacionadas a paisajes o ilustraciones que cumplan con las políticas de privacidad del sitio o aplicación.

Para saber más sobre seguridad informática visite el portal de noticias de ESET: https://www.welivesecurity.com/es/privacidad/riesgos-crear-tu-imagen-estilo-studio-ghibli/

Por otro lado, ESET invita a conocer Conexión Segura, su podcast para saber qué está ocurriendo en el mundo de la seguridad informática. Para escucharlo ingrese a: https://open.spotify.com/show/0Q32tisjNy7eCYwUNHphcw