Investigación en IA: Entrevista a Karina Gibert, investigadora y asesora de gobiernos en IA

Hablamos con Karina Gibert, Directora del Centro de Investigación Intelligent Data Science & IA de la UPC, de los últimos avances y tendencias en IA que se están probando actualmente en los centros de investigación y cómo se están implementando en las empresas y cómo han transformado diversos sectores de nuestra economía. Gibert, que también asesora a gobiernos y a la Comisión Europea en temas relacionados con el marco ético de la IA, reflexiona en esta entrevista sobre los sesgos algorítmicos y sobre si la IA puede ayudar a crear un mundo más justo.

¿Cuál es el impacto que ha tenido la IA en el mundo de la empresa? ¿Cuáles son las principales transformaciones que está provocando la IA en los sectores productivos?
Hace tiempo que se hace investigación en IA y que se transfiere a todos los ámbitos porque es un sector transversal. LA IA es una disciplina instrumental que lo que hace es resolver problemas de otros. Desde que ha hecho este salto cualitativo tan grande y ha irrumpido de esta manera tan exagerada en el sector productivo, yo diría que los sectores donde se ha transferido más son los de retail y business pero también en los de salud y medio ambiente. Nosotros, por ejemplo, tenemos supervisores inteligentes de plantas depuradoras de aguas residuales en el ámbito de la industria 4.0. Hay mucha IA que está permitiendo hacer mantenimiento predictivo en las máquinas. En el ámbito logístico destacaría todo el tema de stocks, la posibilidad de anticiparse a la demanda, y todos los avances en marketing digital. En el ámbito de la salud yo diría que lo más espectacular sería toda la aportación que ha hecho la IA en la medicina personalizada y de precisión y al diagnóstico basado en imagen médica. Hay hospitales que ya tienen IA revisando tumografías, radiografías. Estas IAs ya están viendo cosas que el ojo humano todavía no ha detectado y permiten prevenir enfermedades en un estadio mucho más inicial. Sin olvidarme del impacto en el ámbito del elearning, con experiencias inmersivas realmente interesantes, y de todo lo que tiene que ver con la interficie del lenguaje –bots, chatbots…- y que ahora con la disrupción de la IA generativa van a dar un salto cualitativo y a tener nuevas funcionalidades.

Por tanto, no hay sector que no haya quedado impactado por la IA.
Así es. Incluso podríamos hablar de la banca, que hace tiempo que está utilizando algoritmos de IA para evaluar la morosidad, para saber si se puede fiar de un cliente para darle o no un crédito. La administración pública también dispone de mecanismos de IA que ayudan a seleccionar criterios de elegibilidad para prestaciones sociales, para ayudas. Aquí en Catalunya tenemos uno para decidir si se le da permiso a un preso el fin de semana. Hay muchos ámbitos donde ya se ha transferido la IA al sector productivo.

¿Podemos decir que hay un antes y un después en el mundo empresarial a partir de la IA? ¿Podemos hablar de un nuevo paradigma?
Totalmente, porque la IA permite en tiempo real poder estar asistiendo a la toma de decisiones de todo tipo. Sí que es un cambio sustancial. Nos está abriendo el camino para poder hacer toma de decisiones basada en datos de forma integrada. Lo que nos falta es normalizar la integración del dato en la toma de decisiones como algo habitual en las empresas. Esta es para mí la principal asignatura pendiente.

¿Qué investigación se queda en el laboratorio, la que no se llega a transferir a las empresas?
Investigaciones que no llegan a las empresas hay muchísimas, no solamente las que se desarrollan espontáneamente en los grupos de investigación sino mucha de la investigación que se subvenciona en programas europeos y en programas nacionales. Llevamos 20 años de subvenciones. Muchos de los proyectos en los que se han invertido grandes cantidades de fondos públicos donde han interactuado consorcios europeos. Cada uno ha aportado su investigación, ha hecho su transferencia. Pero el todo, el gran avance que ha habido en el proyecto, raramente se llega a transferir. Europa está muy preocupada en este sentido y pide cada vez más que los modelos de explotación estén en las propuestas para intentar superar esto.

¿Cuáles serían los principales beneficios de la IA para las empresas, así como las principales limitaciones?
En el sentido en que la IA te permite analizar tu ecosistema de manera muy rápida y completa y te da información relevante para la toma de decisiones, si lo sabes hacer bien los beneficios son enormes porque optimizas procesos, mejoras gestión, anticipas necesidades… Y a nivel de negocio esto debería ser una mejora. En cuanto a las limitaciones, una de las más significativas tiene que ver con la articulación del uso de datos. En Europa tenemos un marco ético que no permite utilizar datos de cualquier manera, sino que todo se debe hacer bajo unas pautas de preservación, de privacidad y seguridad. A lo que añadiría otra limitación: a veces las empresas pequeñas no tienen tantos datos para entrenar una AI muy potente. Ahí hay que buscar modelos más consorciados, de donación de datos, que se puedan utilizar para entrenar modelos que aproveche un consorcio de empresas pequeñas, por ejemplo, que sean del mismo sector. Eso es un gran reto, porque ceder o donar el dato puede poner en entredicho parte de tu core business, lo que provoca muchas reticencias. Hay una tendencia nueva de datos federados, para que el dato no se mueva de donde está y se puedan entrenar modelos grandes. Se está hablando también de hacer bases de datos públicas sintéticas, para estas empresas más pequeñas. Realmente, hay muchas alternativas para que una empresa pequeña que no tiene tantos datos pueda aprovechar este potencial.

¿Es cierto el mito de que si no tienes muchos datos no puedes utilizar la IA?
Sí que es cierto que los métodos basados en datos necesitan muchos datos pero también hay ramas de la IA son de gran ayuda cuando no tienes datos. Por ejemplo, pueden ayudar a ordenar procesos y a ver dónde se están duplicando cosas. Es decir, existe una rama de la IA que no es de datos pero que te puede ayudar a definir tu hoja de ruta para conseguir la infraestructura de datos que necesitas para poder hacer la transformación digital como toca. Sin embargo, sí es cierto que la calidad de las predicciones será menor si utilizas menos datos. Aquí hay un problema de competitividad enorme, porque el sector de la IA es un sector global, porque hay múltiples aplicaciones disponibles a las que podemos acceder en cuestión de segundos.

¿Cuáles son los principales retos sobre el marco ético de la IA que debatís en la UE?
El marco de referencia que utilizamos está basado en 8 ejes, entre los cuales destacan la falta de sesgos, la robustez, la transparencia, o el wellness desde el punto de vista socioambiental. Aquí hay un gran debate en torno a la transparencia. Y este debate gira en torno a la siguiente pregunta: ¿Transparencia es lo mismo que abrir el código? Yo me imagino una empresa que invierte durante años para conseguir una solución tecnológica que gana tiempo, que gana calidad, que es su core business. ¿Cómo se sostiene el negocio después de publicar el código en abierto? Lo que quiero decir es que es importante ser transparente pero a veces es difícil llevarlo a cabo.

Otro debate de gran actualidad gira en torno a la IA y a la justicia social. Los algoritmos, tal como están ahora, ¿perjudican a ciertos colectivos?
En esta escalada libre de la IA al sector productivo se han detectado frecuentes casos de disfunción de IAs que acaban beneficiando a una parte de la población, a veces son hombres en detrimento de las mujeres, a veces son jóvenes en detrimento de los ancianos, a veces son personas ricas en detrimento de las pobres. Y al final lo que tienes es un algoritmo de IA que toma decisiones que están incrementando la desigualdad social o vulnerando derechos fundamentales. Algunas veces es el algoritmo lo que está mal, pero otras es que se ha entrenado el algoritmo con unos datos que no están representando bien al colectivo donde este algoritmo tiene que actuar. En IA se coge el dato que se tiene más a mano, no se ha diseñado la base de datos de entrenamiento.

¿Eres optimista con el progreso social en el futuro debido a la IA?
Espero que seamos capaces de acotar el rol social que le damos a la IA para que nos podamos quedar con todos los beneficios, con estas inteligencias que son capaces de detectar que va a haber una avería en una planta de agua potable antes de que haya una pandemia de salmonelosis en una ciudad, con IA que es capaz de detectar un tumor cerebral cuando no hay ni síntomas. Deberíamos encontrar la forma de darle un rol a la IA para que nos permita aprovecharnos de todas las ventajas y beneficios sin caer en esa parte más oscura de coger datos y no avisar al usuario. Hay que preservar a las personas y hay que evitar hacer un mal uso de los datos personales.

¿Estás de acuerdo con el enfoque de las noticias que leemos en los medios de comunicación sobre la evolución y el impacto de la IA?
A veces en los medios hay un discurso un poco tremendista, incluso apocalíptico, cuando se habla de la IA. Pero al final hablamos de algo que podemos desconectar. No estamos hablando de algo que está fuera de control. Lo que tendríamos que hacer todos es interesarnos por adquirir un conocimiento mínimo, básico, sobre la IA para tener el criterio sobre cómo nos relacionamos con la IA. Me refiero, por ejemplo, a entender que cuando te bajas una app que es gratis y aceptas unas cookies que no te lees igual allí te estás vendiendo tu prima del seguro. En este sentido, todos tenemos nuestra responsabilidad: los científicos para desarrollarla bien, las instituciones para regularla, los gobiernos y la industria para no abusar de la ingenuidad del usuario. Estos mismos usuarios también deberían salir de esta cultura consumista, en la que consumes sin pensar. A mí lo que me preocupa más es que se pone a disposición de todo el mundo una herramienta con una potencia importante, sin ningún tipo de instrucción: aquí la tenéis y que cada uno haga lo que quiera con ella. Tú ahora te encuentras gente que la usa para jugar y otros que le hacen preguntas y se toman las respuestas como una verdad absoluta y toma decisiones en función de, y quizás ni siquiera es consciente de que todos los modelos de IA tienen un riesgo de error. Por tanto, nunca nadie debería tomar decisiones sin verificar si la respuesta que nos da la IA es correcta o no. Aunque tengamos un 95% de fiabilidad, hay un 5% de casos en los que nos dará una recomendación equivocada. No tenemos conciencia de este riesgo de error.