Logo de la Universdad de Valencia Logo Cátedra de Gobierno Abierto, Participación y Open Data (PAGODA) Logo del portal

Presente y futuro de la inteligencia artificial... por Juan José Escribano Otero

  • 28 octubre de 2021
 

Presente y futuro de la inteligencia artificial inclusiva

Juan José Escribano Otero
Codirector de Inteligencia Artificial Inclusiva (IAI)
OdiseIA (Observatorio del impacto social y ético de la IA)

Antecedentes

Hay mucho interés y muchos recursos implicados en el desarrollo tecnológico de la IA y la robótica inteligente (androides y similares). Muchos equipos de investigación y muchas empresas de desarrollo están interesados en sus capacidades. Es normal, las posibilidades que ofrecen son muy tentadoras y su capacidad para convertirse en negocios, en servicios públicos, en piezas fundamentales de una nueva sociedad data-driven, hacen inevitable su crecimiento.

"La IA es la nueva electricidad", según Andrew Ng, director del laboratorio de Inteligencia Artificial en Stanford y cofundador de Coursera. La analogía es muy gráfica y cada vez más nítida: en muchos de los desarrollos tecnológicos de “gran consumo”, la IA aparece como elemento imprescindible y su uso se recibe como garantía de modernidad y de futuro. Los navegadores, los altavoces inteligentes, los servicios automáticos de atención a clientes y usuarios, los analizadores de mercados financieros, de consumos energéticos de vehículos, viviendas y empresas, los sistemas de monitorización de ciudades, los recomendadores personalizados de compras, y un largo etcétera, utilizan técnicas de inteligencia Artificial para ofrecer su servicio.

Por seguir con las analogías, muchos analistas empresariales afirman que “el dato es el nuevo dolar”, explicando que las compañías, los productos y servicios (también los servicios públicos, ¿por qué no?) tienen a su disposición una nutrida colección de herramientas para la colección y procesamiento de datos que les puede permitir analizar su servicio, mejorarlo y adaptarlo a nuevas situaciones, añadiendo o perfilando funcionalidades. De hecho, concluyen, quien no haga uso del conocimiento que se puede extraer de estos datos, pronto quedará obsoleto... como la peseta, por seguir con el símil monetario.

Electricidad y moneda en la misma cesta es, sin duda, un riesgo, y un indicio de lo versátil y poliédrico que resulta la IA como herramienta de desarrollo. Para poder ofrecer servicios adecuados para la sociedad en general, habrá que tener en cuenta muchos aspectos.

Uno de los más interesantes es su aspecto técnico, como mejorar la eficacia de un dispositivo para cumplir las misiones que debe realizar, o su eficiencia, es decir, cumplir su cometido con el menor consumo de recursos (de dinero, de tiempo, de necesidades de mantenimiento, de espacio, etc.) posible. Es en este escenario donde se concentran las empresas (y sus recursos humanos y financieros) y la mayoría de los grupos de investigación, financiados directa o indirectamente por dichas empresas.

Pero otro de los aspectos interesantes tiene que ver con lo que ocurre “fuera”, alrededor del dispositivo, del producto, del despliegue del servicio tecnológico. Buena parte de la utilidad del nuevo sistema tiene que ver con su interfaz con el usuario de dicho sistema. Muchos desarrollos previos, técnicamente solventes, incluso tecnologías claramente mejores a sus competidoras, se han quedado fuera del mercado por diversas razones, algunas económicas, otras estratégicas y unas terceras, por un rechazo del consumidor a su forma de operar, bien por su dificultad de manejo, bien por su estética o por cualquier otra razón.

Términos con “usabilidad” (o facilidad de uso), accesibilidad, interacción hombre-máquina, son desde siempre, elementos a tener en cuenta en la evaluación sobre la calidad de cualquier elemento tecnológico. De hecho, en las normativas internacionales para medir la calidad del software, por ejemplo, la usabilidad y la accesibilidad son dos de los criterios imprescindibles que conviene auditar.

Expertos, como Jakob Nielsen, desde su empresa Nielsen Norman Group (https://www.nngroup.com/) trabajan desde hace décadas en la creación de recomendaciones para medir dicha facilidad de uso (https://www.nngroup.com/articles/ten-usability-heuristics/)

Por otra parte, organizaciones como la Web Accesibility Initiative (WAI; https://www.w3.org/WAI/) establece pautas y certificaciones que miden la accesibilidad de los recursos accesibles en la web, ya sean documentos de texto, imágenes o vídeos.

 

Descripción de IAI

Todos los antecedentes nombrados, y otros similares, expresan la necesidad de realizar acciones encaminadas a tomar conciencia sobre la necesidad de adaptar los nuevos elementos de la sociedad de la información y el conocimiento para que no se conviertan en arietes de barreras entre los que pueden usar el servicio (y adquirir el conocimiento) y los que no pueden.

En el caso de los desarrollos actuales de dispositivos basados en IA dedicados al gran público y los previsibles en los próximos años, esta necesidad de velar por el desarrollo “para todos” se hace más difusa porque dicha universalidad tiene que ser contemplada desde el diseño del algoritmo, el software posterior, la recolección y gestión de los datos que se usarán para el entrenamiento y los ajustes del aplicativo, e incluso el hardware o el servicio que llegará al usuario final.

Esta mayor complejidad viene acompañada, además, de una gran profundidad y relevancia ya que cada vez más procesos y decisiones (laborales, de salud, de ocio, de crecimiento personal, de relación social, etc.) son delegados en todo o en parte a estos dispositivos. Características como la trazabilidad, la explicabilidad, equidad o transparencia, ya han sido nombradas y discutidas en multitud de ocasiones y se insiste en que son esenciales para un uso responsable de la IA en servicios que afecten al público en general, ya sean desde las administraciones públicas como desde entidades privadas.

Pero volvamos al principio: muchas empresas y grupos de investigación que consiguen financiación de dichas empresas dedican muchos recursos al desarrollo de servicios de amplio espectro, y pretenden, como es natural, recuperar su inversión de alguna forma, bien monetizando el servicio (cobrando por su uso), bien consiguiendo difusión de su marca y su producto, bien ofreciendo el servicio gratuito para conseguir muchos datos de los usuarios (“el dato es el nuevo dólar”). No hay nada intrínsecamente malo en ello, ninguna objeción.

Estas organizaciones establecen siempre una pequeña colección de KPI (Key Performance Indicator) para medir el éxito, o no, del lanzamiento. Y es aquí donde el modelo de servicio, si se basa exclusivamente en factores empresariales, en ese retorno de la inversión (ROI, del inglés return on investment), puede producir o aumentar brechas sociales, sesgos que impiden el desarrollo de personas concretas en esta sociedad basada en la nueva electricidad, la IA, y el nuevo dinero, el dato.

Un ejemplo. La inmensa mayoría de los navegadores actuales basados en el servicio GPS ofrecen rutas para ir de un punto A a otro B y dan a elegir entre trayectos en coche privado, en transporte público, en bicicleta o andando. Con estas opciones, el desarrollador del servicio se asegura que cubre el 95% de las situaciones en las que se puede encontrar su usuario potencial. Como era previsible, muchos servicios cuentan ya con que sus clientes tendrán a mano uno de estos navegadores para llegar a su local. Es lo normal, lo esperable, y lo que se tiene en cuenta para calcular ROI y KPI de lo que sea.

El problema está en la definición de “usuario potencial” anterior al calculo de ese 95%. Esos itinerarios, esas opciones, ¿cuántas veces serán útiles para una persona que se desplaza en silla de ruedas? Ninguna. Las personas que utilizan una silla de ruedas de forma permanente o por algún periodo de tiempo (un accidente o una enfermedad) no deben ser usuarios potenciales de estos navegadores, o al menos, no de forma directa. Necesitarán de otras soluciones, de otra información para completar le servicio. Si un determinado servicio necesita de esta solución tecnológica, habrá personas excluídas de su uso desde el principio, pero si no son un porcentaje significativo, si su número no pone en peligro el ROI, el enfoque puramente empresarial no se dará por enterado y el servicio será una realidad.

Otro aspecto interesante sobre los desarrollos de la inteligencia artificial que tiene que ver con su capacidad inclusiva es la adaptabilidad. Un desarrollo basado en IA, como muchos de los que utilizan machine learning o más concretamente deep learning son capaces de procesar una gran cantidad de datos, tantos, que podrían tener en cuenta suficientes aspectos del entorno del usuario como para dar un servicio personalizado.

Por poner un ejemplo, un dispositivo activado por la voz, como un asistente personal de un smartphone o de un altavoz inteligente, puede ser utilizado por varios miembros de una misma familia. Tal y como está desarrollado ahora, el dispositivo en cuestión reaccionará a cualquier voz de la familia de la misma forma. No obstante, en un futuro cercano, sería posible exigirle que no responda lo mismo ante la misma petición si quien le solicita el servicio es el hijo pequeño, de 12 años, la hermana de 17 años con síndrome de Down, la madre del niño o incluso la abuela con deterioro cognitivo con demencia senil. Si la petición le llega en francés, la respuesta podría ser en francés mientras que, si llega en español, responde en español. Un altavoz tal, que adapta su voz y la calidad de su respuesta a quien hace la pregunta será, sin duda, un avance significativo a la versión estándar actual. ¿Ciencia ficción? Pues depende. Dispositivos que se adapten a una gran gama de usuarios concretos, son ya técnicamente posibles. Dispositivos que sean cien por cien inclusivos, que tengan en cuenta toda la diversidad posible, eso no, esos aún están lejos. Sobre todo, si no hacemos algo ahora mismo para añadir elementos de inclusividad en todas las definiciones de estos desarrollos.

No nos cabe duda que estos avances se producirán, más pronto que tarde, pero el desafío no es impulsar su inevitable desarrollo, sino su normalización. Sería un paso atrás en la tendencia actual de normalización de la diferencia si se producen dos líneas de productos, los dedicados al “estándar” mayoritario y los productos “para los diferentes”.

 

Fuente: https://unsplash.com/photos/B2OV_nwcbxM

 

Una observación más, ahora sobre los términos estándar y diferente. La sociedad actual es diversa. Las sociedades avanzadas como la nuestra, además, siente la obligación de respetar esa diversidad, de no esconderla ni estigmatizarla. Es una medida inteligente, además de ética. Porque, de una forma u otra, absolutamente todos y todas somos o seremos diferentes en algún momento de nuestra vida, nos saldremos del estándar, bien por una enfermedad, un accidente o por el paso de los años: el tamaño de letra aceptable para mis 18 años, ya no lo es a mis 53. Y me imagino que las diferencis irán a más en el futuro. Pensar en la accesibilidad universal de servicios y ponerla como objetivo, es, sin duda, inteligente, egoísta y altruista a un mismo tiempo.

El primer desafío, entonces, es conseguir que todos los dispositivos desarrollados sean utilizables por todos sus potenciales usuarios, entendiendo potencial usuario como toda persona que cumpla los requisitos legales para usarlo. Para lograrlo, puede que el primer paso sea llegar a tener el mismo nivel de desarrollo (certificaciones, recomendaciones, pautas) que tienen los contenidos en la web para asegurar y medir la usabilidad y la accesibilidad, en los desarrollos de inteligencia artificial a disposición de la población general.

 El segundo objetivo es aún más ambicioso. El primero habla de accesibilidad universal, el segundo de inclusividad universal. ¿Cuál es la diferencia? La diferencia no radica en el “qué”, sino el en “cómo” conseguir ese “qué”.

Si un servicio necesita una aplicación para ser consumido y el fabricante saca al mercado dos versiones de dicha aplicación, una para el usuario estándar y otra con adaptaciones específicas para superar las barreras propias de cada diversidad funcional concreta, sin dejarse ninguna barrera posible por superar, habrá conseguido accesibilidad total y merecerá, sin duda, universal reconocimiento.

Si en el mismo servicio en lugar de dos versiones de aplicación, solo hay una en el mercado, y la aplicación reacciona y se adapta al usuario en concreto y a su diversidad funcional, a su estado de ánimo en ese momento, sin identificarlo ante los demás como “usuario diverso que requiere de adaptación”, entonces habrá conseguido la inclusividad total. En esta hipótesis, se presentan dos ventajas frente a la ya idílica versión anterior. Una, todas las personas usan la misma aplicación, adaptada según quien sea, pero la misma por lo que no hay brecha social ni se dan argumentos para la discriminación. Dos, esa única aplicación adaptativa, inclusiva, podrá reaccionar convenientemente a los cambios que tenga el usuario a lo largo de su vida. Es decir, el usuario no tendrá que descargarse la versión “para viejos” cuando envejezca, con el componente de frustración y angustia que eso puede conllevar para no pocas personas.

Un riesgo es decidir, seguidos por reglas lógicas, que el mejor camino para lograr el objetivo final es recorrerlo en dos fases consecutivas. Primero, conseguir la accesibilidad total y, segundo, desde allí alcanzar la inclusividad completa. No es buena idea. Si lo hacemos de esta forma, es posible que algunas de las dcisiones, acertadas para conseguir la accesibilidad, no lo sean tanto para la inclusividad. Si esto se produce, el salto de un objetivo al otro obligará a deshacer camino ya andado. La resistencia a estos pasos hacia atrás es a menudo tan intensa, que se hace imposible superarla.

En lugar de eso, de pensar en el camino como dos etapas separadas, conviene tener en cuenta el objetivo final, la inclusividad total, desde las primeras etapas del desarrollo de una aplicación. Ciertamente, será difícil lograr el éxito en el corto plazo, pero los avances que se produzcan servirán de nuevo punto de partida para las siguientes iteraciones.

Resumiendo, la Inteligencia Artificial Inclusiva pretende promover el diseño usable e inclusivo de aplicaciones de IA, para que se adapte a cada persona (y no la persona a la aplicación) y, por tanto, evitando “brechas sociales” de origen tecnológico.

Para conseguir la inclusividad debemos tenerla en cuenta desde la etapa de diseño, desde el principio, como principio de diseño: inclusivo por diseño.

 

IAI en la actualidad y proyecto de futuro

Desde el área de IAI de OdiseIA, y por tod lo oexpuesto hasta ahora, creemos que es crucial influir, desde ya mismo, en el futuro desarrollo de “servicios al público” en general, que incluye los servicios públicos y aquellos servicios de titularidad privada que tengan como objetivo influir en la sociedad en general, para que constituyen avances significativos y sostenibles hacia una inclusividad completa.

Para lograr el objetivo, hemos iniciado en proyecto de análisis que culminará con la redacció nde un manifiesto IAI.

Dicho proyecto identifica dos partes en el proceso de construcción de aplicaciones y dispositivos IA sobre las que se pueden realizar actuaciones concretas:

 

  1. Creación de los modelos de IA para automatización, predicción y toma de decisiones.
  2. Creación de sistemas de interacción con usuarios mediante productos concretos.

 

Para lo segundo, se investiga en conceptos como Ergonomía del Conocimiento, Responsive Inclusive Design (RiD) e Inteligencia Emocional Artificial (IEA), además del de accesibilidad de productos software, naturalmente. Este tipo de desarrollos suelen ser más concretos, muy dependientes del servicio en cuestión, no tan generalista, y queda fuera del alcance del proyecto planteado en estos momentos, aunque sin duda, se verán influenciados por los resultados que se consigan en él.

 

El proceso de creación de estos modelos presenta varios pasos en los que se pueden producir situaciones de exclusión, intencionadas o no:

  • Selección y procesamiento de datos.
  • Construcción de modelos.
  • Evaluación de los modelos.

 

Selección y procesamiento de datos

Durante este proceso aparecen múltiples sesgos. Existe conciencia social sobre este asunto, pero incluso esta conciencia está sesgada hacia los problemas relacionados con la distribución de los datos (por ejemplo, poca presencia de etnias minoritarias, casos negativos relacionados con el género o la identidad sexual). Pero se hace poco énfasis en cuestiones como los tipos de variables elegidas para entrenar el modelo, que son una fuente de sesgos. Hay muchos reportajes periodísticos de lo primero, pero no de lo segundo.

Hay otros dos elementos importantes. Uno, las diferentes culturas, fuente de riqueza y de diversidad. Y dos, el envejecimiento de muchas sociedades, que se traduce en usuarios de edad avanzada y necesidades de adaptación.

Para mejorar los conjuntos de datos, los equipos como el de IAI de OdiseIA trabajan en tres líneas:

  • Definir procesos y buenas costumbres que ayuden a minimizar la aparición de sesgos y su detección temprana, análisis de causas y eliminación, si finalmente se producen.

Y las dos siguientes son comunes a las tres etapas:

  • Difundir los resultados entre los miembros de la comunidad (académica y empresarial) y de la sociedad en general como usuarios de IA.
  • Creación o potenciación de plataformas de discusión para facilitar la traslación de buenas prácticas y la compartición de problemas abiertos entre distintos grupos de interés (stakeholders). De esta forma, se pretende potenciar la adopción de un enfoque transversal y holístico de cada situación, así como ganar en capacidad de difusión y conciencia colectiva sobre el asunto.

 

Proceso de construcción de modelos

Durante la fase de construcción de un modelo se deben elegir los algoritmos que proporcionan un mejor resultado. Y el problema se presenta cuando se quiere validar que dichos modelos garanticen una adaptación a la situación y características de cada persona y no provoquen situaciones de exclusión.

Idealmente, y de la misma manera que a un humano le solicitamos una descripción de las razones que le llevan a tomar una decisión, un algoritmo debería proporcionar una representación del proceso que nos permita verificar este hecho. Sin embargo, no todos los algoritmos son capaces de generar estas representaciones y, aunque a día de hoy existen diversos grupos de trabajo que están realizando avances en este sentido, aún queda mucho camino por recorrer.

Para esta fase se proponen la siguiente línea de trabajo, además de los dos comunes ya mencionadas:

  • Crear un repositorio de acceso abierto que ayude a identificar qué algoritmos ofrecen explicación de resultados y cómo se pueden aplicar para explicar concretamente que los modelos generados se adaptan a la persona y a su estado emocional.

 

Proceso de evaluación de resultados

Durante el proceso de evaluación de resultados se termina de decidir qué modelo es el más adecuado para el problema concreto a solucionar y, para ello, se utilizan conjuntos de test que en ocasiones no representan una muestra adecuada de las situaciones que se producen en la práctica.

Por otro lado, las métricas empleadas para elegir el modelo muchas veces se corresponden con métricas de índole académica, sin tener en cuenta las que realmente importan en el ámbito de la aplicación. Y, concretamente, sin tener en cuenta los señalados aspectos de diversidad en el contexto de la aplicación.

En este caso, además de difundir resultados y crear plataformas de buenas prácticas (como en los dos anteriores) la propuesta para lograr avanzar hacia la inclusividad completa incluye la siguiente:

  • Estudiar el impacto al utilizar diferentes tipos de métricas para elegir un modelo que se aplique en producción, adaptándose a las distintas necesidades de inclusión de las personas. Los resultados de estos estudios, de nuevo, deben ser compartidos con la comunidad en general mediante un repositorio de acceso abierto.

 

Primer paso al alcance de todos

Definitivamente, conseguir la inclusión completa es cosa de todos, no solo de los desarrolladores o de los reguladores. De todos.

Es importante conseguir que todos podamos usar la nueva electricidad (y sus múltiples ventajas), o que todos podamos manejar el dinero (los datos) con cierta normalidad.

Por eso, el proyecto presentado en este documento incluye una herramienta para que, quien quiera, pueda participar dando su visión de lo que debiera tener como característica un servicio al público basado en IA para ser considerado “inclusivo”.

Si quieres participar, puedes completar este formulario. Cuenta, desde ahora mismo, con nuestro agradecimiento.

 


 

 

Juan José Escribano Otero
Juan José Escribano Otero

Juan José Escribano es codirector del área de Inteligencia Artificial Inclusiva (IAI) de OdiseIA Observatorio del impacto social y ético de la IA.