El consentimiento en el ecosistema digital

La inteligencia artificial es un tema que seguirá dando de qué hablar en el futuro próximo. Pero ¿qué tan seguro se vuelve el uso de dicha tecnología si a través del llamado machine learning es posible crear bases de datos del comportamiento de los usuarios, cometer delitos dentro del metaverso, e incluso recolectar indiscriminadamente información personal mediante los juegos de realidad virtual o aumentada?

El uso no ético de la inteligencia artificial ha llevado a muchas personas a cerrarse a su utilización y, por otra parte, las lagunas jurídicas han generado que muchos otros sectores se aprovechen de las mismas.

Hollywood es uno de los ejemplos más recientes y sonantes, pues el mundo cinematográfico se ha visto paralizado ante la posibilidad de sustituir guionistas y generadores de efectos especiales con inteligencia artificial, e incluso a actores y actrices a través del deepfake con el uso de su imagen.

Y es que precisamente el uso de la imagen sin consentimiento se vuelve el eje central del mal uso del deepfake, pues no solamente se ha utilizado para generar mayores ganancias a los productores de cine, dejando a los titulares de ese derecho y ese dato personal sin trabajo; sino que incluso se ha manejado para desprestigiar figuras públicas o políticas o generar desinformación, tal como ha pasado en tiempos recientes con fotografías de Donald Trump o del propio papa.

En este contexto son muchas veces actrices, cantantes o modelos quienes han sido víctimas de la generación de imágenes falsas de carácter sexual a través de esta técnica. Así es, me refiero a la pornografía falsa no consentida que forma parte de la pornovenganza y que conforma el 96% del deepfake generado, siendo las mujeres el 99% de las víctimas.

Desafortunadamente la legislación avanza a pasos más lentos que la tecnología, por lo que para hacer frente a estas conductas las herramientas más útiles serán las herramientas prácticas, es decir, una manera de contrarrestar el mal uso de la tecnología es con más tecnología.

Al momento existen instrumentos que ya nos permiten detectar si una imagen fue editada con inteligencia artificial, StopNCII.org es un claro ejemplo y va aún más allá, pues su diseño permite realizar una búsqueda de las páginas donde pueda encontrarse la imagen falsa o una imagen íntima propagada y entonces la elimina de las páginas de sus socios como Instagram y Facebook.

Desde 2015 la asociación Revenge Porn Helpline, con sede en Reino Unido, ha eliminado más de 200 mil imágenes a nivel mundial, lo que lleva a tener un éxito del 90% de los casos, por lo que StopNCII.org se configura como una herramienta basada en la privacidad desde el diseño y por defecto, pues las imágenes buscadas se quedan en el dispositivo de origen, siendo esta visión ética y de privacidad la principal característica para contrarrestar las pornovenganzas y aquella a la cual debemos aspirar en la creación de las nuevas tecnologías, pues solo así podemos asegurar la protección de nuestra intimidad.

Eso sí, no debemos renunciar a la posibilidad de impulsar legislación de avanzada que regule este importante tema. Con ello, hagamos lo que nos corresponde.

¿Conoces a alguien o consideras que puedes ser víctima de esta conducta?

Te invito a que visites la siguiente liga, llenes la información sobre tu caso: https://report.stopncii.org/case/create?lang=es-mx