Herramientas de IA como ChatGPT o Gemini cuentan con más capacidad de la que exhiben en sus versiones de uso público. ¿Es un motivo de preocupación?

Las herramientas de IA funcionan a medio gas debido a las consideraciones sobre la privacidad

Inteligencia artificial - PHOTO/FILE
Inteligencia artificial - PHOTO/FILE

Un informe del New York Times sugiere que algunas de las herramientas de inteligencia artificial más sofisticadas actualmente en el mercado cuentan con capacidades muy superiores a las que realmente están disponibles en sus versiones comerciales. Este bien podría ser el caso de plataformas como ChatGPT o Gemini –desarrolladas por OpenAI y Google, respectivamente–, que podrían ser capaces de identificar a personas específicas.

  1. Una cuestión que va más allá de la privacidad personal
  2. Nuestra identidad queda a disposición de la red
  3. El eterno debate de nuestra seguridad online… elevado al cubo

En sus versiones más recientes, tanto ChatGPT como Gemini –antes Bard– permiten a los usuarios adjuntar una fotografía en el formulario de texto para hacer consultas sobre la imagen en cuestión. Esta función ha causado sensación en los últimos meses, en los que millones de usuarios han podido comprobar la capacidad de ambas IAs para reconocer objetos e interpretar imágenes con un sorprendente grado de precisión.

Lo que propone este informe del New York Times es que este tipo de IAs podrían ser capaces de identificar mucho más que las características generales de estas imágenes. En concreto, se cree que ChatGPT podría ser capaz de identificar a personas específicas en estas fotos, de modo que OpenAI se ha visto en la necesidad de incorporar una salvaguardia para impedir a la versión pública del chatbot hacer este tipo de identificaciones personales.

Una cuestión que va más allá de la privacidad personal

Esta tecnología de reconocimiento facial, digna de nuestras peores pesadillas orwellianas, ciertamente no es nueva. De hecho, hace años que se la utiliza de manera extensiva en China, donde las imágenes de las cámaras de tráfico que detectan infracciones y emiten multas al instante han dado la vuelta al mundo. Y en Occidente la hemos visto –cómo no– en Facebook, que finalmente terminó por retirarla en 2021.

Este “retorno” de las funciones de reconocimiento facial en ChatGPT abre nuevos interrogantes que van más allá de un debate sobre nuestra privacidad. Si de algún modo se desbloqueara esta función en versiones posteriores o modificadas de ChatGPT, cualquier persona podría reconocer la identidad de cualquier otra con una simple consulta al chatbot, al menos de manera potencial. Y las consecuencias de esta capacidad podrían ser devastadoras.

Nuestra identidad queda a disposición de la red

El mundo digital en que vivimos tiende a saturarnos con nuestras propias imágenes. Se nos invita a subir nuestras propias fotos a todas las redes sociales, a todas las apps de citas, a todas las aplicaciones de trading, a todas las apps de banca online. En algunos casos se trata de un servicio que pretende mejorar nuestra experiencia en la plataforma. En otros, es un requerimiento legal para poder utilizarla.

Nos guste o no, hemos tomado muchísimas fotos de nuestra cara y hemos completado toda una serie de formularios asociando esa cara a nuestros datos personales. Número de teléfono, dirección postal, cuenta bancaria, número de tarjeta de crédito, edad, fecha de nacimiento, lugar de nacimiento, intereses personales… Nosotros mismos hemos rellenado esa información en una infinidad de bases de datos que están por completo fuera de nuestro control.

Es cierto que disponemos de algunas herramientas para limitar las filtraciones de datos en nuestros propios dispositivos. La instalación de un router VPN puede cifrar nuestro tráfico en la red de nuestro hogar. Pero definitivamente no sabemos qué medidas está adoptando Facebook para proteger nuestros datos privados. O TikTok. O nuestra banca online. O cualquier otra plataforma donde hayamos compartido esa información. Y esto supone un serio problema.

El eterno debate de nuestra seguridad online… elevado al cubo

La problemática de la información que compartimos online lleva muchos años en circulación en los medios, y ha servido para que las principales redes sociales den continuos pasos adelante en sus políticas de privacidad. La presión social se traduce en presión gubernamental, y la presión gubernamental consigue que las grandes empresas tecnológicas establezcan salvaguardas para preservar la privacidad de sus usuarios.

Salvaguardas como la que impide a ChatGPT identificarnos cuando alguien sube una foto nuestra al chatbot. La noticia podría parecer tranquilizadora. Al fin y al cabo, OpenAI introdujo una salvaguardia para proteger nuestra privacidad, ¿no es cierto? Pero basta mirar un poco más allá para que aparezcan serios motivos de preocupación. ¿Por qué ChatGPT decidió desarrollar una tecnología de reconocimiento facial, en primera instancia?

Para que ChatGPT pueda reconocer un rostro, tiene que haber sido entrenado de forma específica para eso con millones de fotografías diferentes y con los datos personales de millones de personas. No se trata de un supuesto error que OpenAI corrigió con un parche. Se trata de un entrenamiento deliberado que tuvo un costo de millones de dólares para construir una función que OpenAI se guarda para sí… por un motivo que, simplemente, no conocemos.