El reto oculto del aprendizaje automático de la inteligencia artificial

El puñado de grandes empresas tecnológicas y sus satélites pueden haber gastado hasta un billón de dólares en aprendizaje automático e infraestructura de centros de datos para llenar sus sistemas de inteligencia artificial con miles de millones de bits de información obtenida de fuentes públicas y privadas en Internet.
Estas empresas -Amazon, Google, Meta, Microsoft y OpenAI, entre otras- son ricas y han enriquecido a sus creadores hasta límites insospechados gracias a la tecnología de la información. Su reto es conservar lo que tienen ahora y asegurar su futuro en la próxima gran oportunidad: LA IA.
Un resultado desafortunado de la carrera desenfrenada por asegurarse la franquicia es que las grandes empresas tecnológicas -y lo he confirmado con algunos empleados de alto nivel- se han apresurado a lanzar nuevos productos al mercado antes de que estén listos.
Los corredores calculan que la vergüenza de las llamadas alucinaciones (errores) es mejor que dejar que un competidor se adelante.
El reto es que si una de las empresas -y a menudo se menciona a Google- no está en cabeza, podría fracasar. Podría ocurrir: ¿Recuerda «MySpace»?
El inconveniente de esta veloz carrera es que los sistemas de seguridad no existen o no son eficaces, un peligro que podría suponer una catástrofe operativa, sobre todo en lo que respecta a las llamadas puertas traseras.
Según dos sabios en el mundo de la IA, Derek Reveron y John Savage, esta urgencia por la velocidad del mercado tiene consecuencias peligrosas.
Savage es catedrático emérito An Wang de informática en Brown, y Reveron es director del Departamento de Asuntos de Seguridad Nacional de la Escuela de Guerra Naval de Newport (Rhode Island).
Reveron y Savage han dado la voz de alarma sobre las puertas traseras, primero en su libro «Security in the Cyber Age: An Introduction to Policy and Technology», publicado por Cambridge University Press a principios de este año, y más tarde en un artículo en Binding Hook, un sitio web británico centrado en la ciberseguridad y la IA.
«Los sistemas de IA son redes neuronales entrenadas, no programas informáticos. Una red neuronal tiene muchas neuronas artificiales con parámetros en las entradas de las neuronas que se ajustan (entrenan) para lograr una correspondencia estrecha entre las salidas reales y las deseadas. Las entradas (estímulos) y las respuestas de salida deseadas constituyen un conjunto de entrenamiento, y el proceso de entrenamiento de una red neuronal se denomina aprendizaje automático», escriben los coautores.
Las puertas traseras fueron desarrolladas inicialmente por las compañías telefónicas para ayudar al gobierno en casos penales o de seguridad nacional. Eso fue antes de la IA.
Savage me dijo que las puertas traseras suponen una grave amenaza porque, a través de ellas, los malhechores pueden introducir información maligna -órdenes o instrucciones- en los ordenadores en general y en las puertas traseras de los sistemas de IA basados en el aprendizaje automático en particular. Algunas puertas traseras pueden ser indetectables y capaces de infligir grandes daños.
Savage se mostró especialmente preocupado por la posibilidad de que los militares utilicen la IA de forma prematura y hagan a la nación más vulnerable en lugar de más segura.
Dijo que un ejemplo sería un arma disparada desde un avión de combate no tripulado que volara bajo la dirección de la IA junto a un avión de combate pilotado, en el que el arma disparada por un avión no tripulado podría ser dirigida para hacer un giro en U y regresar y destruir el avión pilotado. Extrapólelo al campo de batalla o a un bombardeo aéreo.
Savage afirma que los investigadores han demostrado recientemente que se pueden insertar puertas traseras indetectables en los sistemas de IA durante el proceso de entrenamiento, lo que constituye un nuevo peligro de ciberseguridad extremadamente grave y en gran medida ignorado.
El riesgo se agrava porque la introducción de miles de millones de palabras en los sistemas de aprendizaje automático de las grandes empresas tecnológicas se realiza ahora en países con salarios bajos. Esto se puso de relieve en un reciente episodio de «60 Minutes» sobre trabajadores de Kenia que ganan 2 dólares la hora, alimentando con datos los sistemas de aprendizaje automático de las empresas tecnológicas estadounidenses.
Los malos actores pueden atacar la IA estadounidense insertando información errónea peligrosa en Kenia o en cualquier otro país de salarios bajos. Por supuesto, también pueden lanzar ataques de puerta trasera aquí, donde la IA se utiliza para escribir código, y luego se pierde el control de ese código.
En su artículo de Binding Hook, Reveron y Savage hacen una observación crítica sobre la IA. No es sólo otro sistema informático más avanzado. Es fundamentalmente diferente y menos manejable por sus amos humanos. Carece de una teoría subyacente que explique su comportamiento anómalo, razón por la cual los especialistas en IA que entrenan los sistemas de aprendizaje automático no pueden explicar este comportamiento.
El despliegue de una tecnología con graves deficiencias es siempre arriesgado hasta que se descubra una forma de compensarlas. Problemas dentro son problemas fuera.
En Twitter: @llewellynking2
Llewellyn King es productor ejecutivo y presentador de «White House Chronicle» en PBS.