Logo de la Universdad de Valencia Logo Cátedra de Gobierno Abierto, Participación y Open Data (PAGODA) Logo del portal

Algoritmos inteligentes con límites éticos por Idoia Salazar

  • 21 octubre de 2021
 

Algoritmos inteligentes con límites éticos

Idoia Salazar
Presidenta Observatorio del Impacto Social y Ético de la Inteligencia Artificial- OdiseIA.
Profesora Universidad CEU San Pablo

 

La inteligencia artificia genera desconcierto ya desde su propio nombre. ¿Puede una máquina llegar a ser inteligente? ¿No era la inteligencia algo únicamente intrínseco a los seres humanos? Y no solo esto: resulta que a la máquina le estamos dando ojos, nariz, boca, extremidades… Incluso hay compañías desarrollando musculatura y piel artificial para cubrir su esqueleto artificial. Robots como el ya mundialmente famoso Sophia son capaces de simular sentimientos con su mirada. Sophia ha despertado tal expectación que le han concedido la ciudadanía en Arabia Saudí y recorre el planeta dando conferencias. Es paradójico. Somos nosotros, los humanos, los que estamos concediendo licencias, por un lado, a la vez que exaltamos nuestra indignación al respecto.

Analicemos, brevemente, uno de los porqués de nuestra aflicción respecto a estas nuevas tecnologías. Y para ello rememoremos la célebre teoría de Darwin sobre la selección natural: sólo el que mejor se adapte al cambio sobrevivirá. Así, a lo largo de miles de años, hemos ido adquiriendo nuestras peculiaridades como especie. Poco a poco y sin pausa, pero poco a poco. La adaptación ha sido gradual y, por eso, ha sido natural. Ese proceso continuará sin duda, pero lo hará, también indudablemente, complementado por nuestra naturaleza impaciente; por la ya llamada selección artificial. ¿Por qué esperar a que pasen generaciones y generaciones si con un chasquido de dedos, a través de la tecnología, podemos llegar a ser más inteligentes, ver y oír mejor y modificar nuestro ADN para evitar y prevenir enfermedades (tecnología CRISPR) ahora mismo? No mis hijos, ni mis nietos: yo mismo. Los llamados transhumanistas defienden a pies juntillas el uso de la tecnología para mejorar la calidad de vida. Si es posible, ¿por qué no?

Naturalmente o no, simplemente, la humanidad continúa su camino, siempre en busca de la mejora en la calidad de vida. Y los sistemas de inteligencia artificial realmente la traen. Esta tecnología permitirá aprovechar para nuestro beneficio el ya llamado petróleo del siglo XXI: los datos; el big data. Nosotros, los humanos, no tenemos capacidad de procesar esta inmensidad que crece cada día a un ritmo exponencial. Así pues, ¿por qué no dotar a las máquinas de la suficiencia para analizarlos, gestionarlos, incluso llegar a conclusiones precisas? Supondría una gran ayuda; una colaboración interesante que ahorraría tiempo y dinero. Pero ahí viene el problema. Confundimos esas conclusiones con decisiones inamovibles. Estas dos palabras, toma de decisiones, asociadas a los algoritmos de inteligencia artificial, tienen últimamente una connotación negativa. ¿Podrán las máquinas tomar decisiones por sí mismas, sin la supervisión de un ser humano? Y mi respuesta es: si queremos, podrán (incluso pueden ya en la actualidad), pero, ¿es eso realmente lo que buscamos o deberíamos buscar en la IA? Puede ser que, en procesos sencillos e intrascendentes, sí sea útil a la hora de ganar tiempo y agilizar tareas. Desde luego no lo es en los complejos: por ejemplo, los asociados a las decisiones judiciales o médicas. En estos últimos casos, ya existen asesores de jueces y abogados que son un sistema de IA —como es el caso del robot-abogado Ross— y, en el caso de los médicos, el asistente Babylon. Este último ya es consultado por miles de personas en la actualidad y muchas de estas confían ciegamente en sus diagnósticos.

Realmente, la inteligencia artificial puede ser tremendamente útil para ambos campos. La alta capacidad y rapidez de análisis de los algoritmos permite agilizar las labores judiciales. Asimismo, en el ámbito de la salud, sistemas de inteligencia artificial como Watson, de IBM, están ya siendo usados para la personalización de tratamientos contra el cáncer y otras enfermedades. Que aún tiene fallos, que no es infalible, por supuesto. Pero lo cierto es que los humanos también los tenemos, incluso más; y la IA también puede tener sesgos en su toma de decisiones, propiciadas por los propios intereses de los programadores iniciales, pero nosotros, como humanos, también tenemos sesgos procedentes de nuestro histórico, de nuestra genética, de nuestras vivencias. Aun así, probablemente los sesgos de la IA sean menores que los nuestros a la hora de tomar una decisión trascendente. 

 

La ética no es la misma en todo el mundo

En cualquier caso, el hecho de que los ‘algoritmos inteligentes’ necesitan incluir en su programación ciertos límites éticos es indudable. Sin embargo, ser drástico al respecto e intentar incluir solo principios universales, no parece que sea lo más apropiado en este caso. El algoritmo en cuestión debería personalizarse con unos u otros límites éticos en función de la labor que va a desempeñar, la situación específica o el tipo de cultura en el que se encuentra ‘trabajando’. Probablemente esta sea una de las pocas fórmulas que funcionarán para establecer relaciones de cordialidad humanos-robots. Por mucho que hablemos de Aldea Global y de Globalización, lo cierto es que continuamos siendo recelosos de nuestras particularidades, de nuestras culturas. El Hombre, como ciudadano del mundo, -hablando en general- sigue sin tender a mezclarse en su totalidad.

 

Fuente: https://unsplash.com/photos/naSAHDWRNbQ

 

Sin embargo, dejando de lado esta última observación y teniendo en cuenta la clara necesidad de regulación ética de estas tecnologías, cada vez más acuciante, son muchas las instituciones que abogan por la creación de un organismo internacional que regule el Big Data y las actuaciones de las IA. En este sentido el Parlamento Europeo aprobó un informe en 2017 sobre Robótica que establecía un Código Ético de conducta de la IA. En él se señala que es necesario un “un marco de guía ético para el diseño, producción y uso de los robots” que sirva de complemento a las diferentes recomendaciones puramente legales que se realizan.” Y ve necesario profundizar en una nueva disciplina, la “roboética”. Su principal objetivo es que los principios éticos deben dirigirse a la humanidad - diseñadores, productores y usuarios de los robots– y no únicamente a los robots. Entre los principios fundamentales que se recogen en la resolución están los siguientes:

  • Proteger a los humanos del daño causado por robots: la dignidad humana.
  • Respetar el rechazo a ser cuidado por un robot.
  • Proteger la libertad humana frente a los robots.
  • Proteger la privacidad y el uso de datos: especialmente cuando avancen los coches autónomos, los drones, los asistentes personales o los robots de seguridad.
  • Protección de la humanidad ante el riesgo de manipulación por parte de los robots: Especialmente en ciertos colectivos –ancianos, niños, dependientes- que puedan generar una empatía artificial.
  • Evitar la disolución de los lazos sociales haciendo que los robots monopolicen, en un cierto sentido, las relaciones de determinados grupos.
  • Igualdad de acceso al progreso en robótica: Al igual que la brecha digital, la brecha robótica puede ser esencial.
  • Restricción del acceso a tecnologías de mejora regulando la idea del transhumanismo y la búsqueda de mejoras físicas y/o mentales.

Existen otras otras iniciativas, a nivel internacional, dedicadas a la formulación de principios éticos para estas peculiares tecnologías autónomas, como el documento 'Ethically Aligned Design' elaborado por el IEEE (Institute of Electrical and Electronics Engineers), la cumbre global 'AI for Good' organizada por ITU (International Telecommuication Union) o las conferencias internacionales AAAI/ACM sobre Inteligencia Artificial, Ética y Sociedad. También empresas privadas como IBM, Microsoft y Google Deep Mind están desarrollando sus propios códigos éticos en Inteligencia Artificial y, ante los grandes retos que supone esta tecnología, unen sus fuerzas con iniciativas como la llamada 'Partnership on AI' o 'Open AI'.

 

Una de las más destacadas iniciativas para promover el correcto uso de la IA es el del Future of Life Institute dependiente de la Universidad de Oxford en el Reino Unido. Ellos crearon los 'Asilomar AI Principles', una lista de 23 principios fundamentales a tener en cuenta desarrollados bajo un lema que deja claro su objetivo: La tecnología actual está dando a la vida un potencial de florecer..o para autodestruirse como nunca antes había ocurrido. ¡Marquemos la diferencia!:

  1. Objetivo de investigación: El objetivo de la investigación en IA debe ser crear, no ‘inteligencia no dirigida’, sino ‘inteligencia’ que suponga un beneficio para la humanidad.
  2. Fondos de investigación: La inversion en IA debería estar acompañada por fondos para la investigación para asegurar su uso responsable y beneficioso en todas las áreas en las que se pueda aplicar.
  3. Enlace entre ciencia y política: Debe de haber un intercambio constructivo y saludable entre los investigadores en IA y las políticas y regulaciones de los Gobiernos.
  4. Cultura de Investigación: Se debe extender la cultura de la cooperación, confianza y transparencia entre los investigadores y desarrolladores de estas tecnologías.
  5. Normas de seguridad: Los equipos que desarrollan sistemas de IA deben cooperar para evitar que se recorten las normativas en seguridad.
  6. Seguridad: Los sistemas con Inteligencia Artificial deben de ser seguros y verificables durante toda su vida operativa.
  7. Falta de transparencia: Si una IA causa daño, debería de ser posible saber por qué ha ocurrido.
  8. Transparencia en el ámbito judicial: Cualquier involucración de un sistema autónomo en el proceso de decisiones judiciales debe de conllevar una clara explicación auditable por una autoridad competente humana.
  9. Responsabilidad: Los diseñadores de programas avanzados de IA son partes interesadas en las implicaciones morales derivadas de su uso, y tienen la responsabilidad y la oportunidad de delimitar estas implicaciones.
  10. Valores alineados: Los sistemas IA, con alto grado de autonomía, deben de ser diseñados para que sus objetivos y su comportamiento durante sus operaciones estén alineado con los valores humanos.
  11. Valores humanos: Los sistemas de IA deben de ser diseñados para que sean compatibles con las ideas de dignidad humana, derechos, libertades, y diversidad cultural.
  12. Privacidad personal: Las personas debemos de tener el derecho para acceder, manejar y controlar los datos que las IA generen y analicen.
  13. Libertad y privacidad: La aplicación de IA a los datos personales no debe restringir irremediablemente la libertad real o percibida de las personas.
  14. Beneficio compartido: Las tecnologías de IA que se desarrollen deben de suponer un beneficio para la mayoría de las personas.
  15. Prosperidad compartida: La prosperidad económica creada por la IA se debe compartir en todo el mundo, para beneficio de toda la humanidad.
  16. Control humano: Los humanos debemos elegir cómo y cuándo delegar las decisiones en los sistemas de Inteligencia Artificial autónomos, para lograr los objetivos elegidos por los humanos.
  17. No subversión: El poder conferido por el control de los sistemas de IA altamente avanzados deben respetar y mejorar, en lugar de subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.
  18. Carrera armamentística de la IA: El desarrollo de armas letal autónomas debe de ser evitado.

Cuestiones a largo plazo

  1. Precaución sobre la capacidad: Al no haber consenso, debemos evitar suposiciones sólidas con respecto a los límites superiores de las capacidades futuras de la IA.
  2. Importancia: la IA fuerte puede representar un cambio profundo en la historia de la vida en la Tierra, y debe planearse y administrarse con cuidados y recursos proporcionales.
  3. Riesgos: Los riesgos que plantean los sistemas de Inteligencia Artificial, especialmente los riesgos catastróficos o existenciales, deben de estar sujetos a esfuerzos de planificación y mitigación acordes con el impacto esperado.
  4. Auto-mejora: los sistemas de IA diseñados para auto-replicarse o auto-mejorarse podría llevar a un aumento rápido de la calidad o cantidad de esos sistemas de IA. Por este motivo este proceso debe de estar sujeto a estrictas medidas de seguridad y control.
  5. Bien Común: La superinteligencia –en el caso de que llegue la Singularidad Tecnológica- debe de ser solamente desarrollada en los servicios en los que estén claros los ideales éticos, y para beneficio de toda la humanidad, no solamente para un país, empresa u organización.

 

 

¿Ha tomado la máquina la decisión correcta?

Uno de los grandes temas actuales en investigación que sería necesario comprender para saber si una IA ha actuado de manera ética y objetiva o no, es que nos proporcionara una explicación del proceso que ha seguido para la toma de la decisión.

Los algoritmos son inicialmente programados para una tarea, pero gracias a los desarrollos en 'Deep Learning[1]' son capaces de 'aprender', de auto-mejorarse con el objetivo de llegar a conclusiones más precisas. Todos estos 'razonamientos' de la IA ocurren en una compleja arquitectura de redes neuronales denominada 'Black Box' o caja negra de la Inteligencia Artificial. En última instancia tenemos la decisión, pero no cómo ha llegado a la misma, ni en qué se ha basado. Lo cual supone un serio problema para muchas de sus aplicaciones, por ejemplo, en el ámbito del derecho o la medicina. De hecho, la Unión Europea ya está exigiendo a las empresas que si usan IA para la toma de algunas decisiones que afecten de alguna manera a cualquier sector de la sociedad, deben de proporcionar la explicación a esa decisión.

Así, son muchos los que dirigen la investigación hacia este campo. Entre ellos la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA), que financia varios proyectos sobre esta temática bajo el marco de su programa ‘Explainable Artificial Intelligence (XAI)’.

El desarrollo de la Inteligencia Artificial es imparable, teniendo en cuenta que las empresas, a nivel mundial, están viendo sus grandes y revolucionarias ventajas, a todos los niveles, y promueven las inversiones económicas para que continúe su evolución. Teniendo en cuenta este hecho, su rápido avance y su clara repercusión en la sociedad, los organismos regulatorios de todos los países implicados deben de hacer un esfuerzo inmediato proporcional para fomentar el buen uso y correcto desarrollo de estas tecnologías. Gobiernos, organismos, nacionales e internacionales, y empresas, públicas y privadas, tienen la difícil tarea de avanzar de la mano para conseguir el objetivo de deseado y que no se pierda el control.

 

El Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA)

Todo este esfuerzo legislativo sobre los aspectos éticos de la Inteligencia Artificial se fundamenta en la capacidad de la IA en modificar los procesos habituales de la sociedad, de influir tanto en el cómo se realizan esos procesos, y hasta en qué procesos son posibles y cuales hay que abandonar. Es decir, el desarrollo de la Inteligencia Artificial de “gran consumo”, como las aplicaciones que comienzan a liberarse en la actualidad, tienen y tendrán, inevitablemente, un impacto sin precedentes en la sociedad que las reciba.

 

Y la sociedad comienza, por lo tanto, a movilizarse. Así, a falta de una legislación aplicable sobre la IA, y a su espera, algunas organizaciones y empresas, que trabajan ya con esta tecnología, ya aplican sus principios de ética e IA para prevenir consecuencias negativas indeseables. Sin embargo, la mayoría sigue ignorando esta necesidad.

 

Surgen Asociaciones y observatorios como el español OdiseIA (fundado en 2019), Observatorio del impacto social y ético de la inteligencia Artificial, independiente y sin ánimo de lucro, que tiene por misión “observar, prevenir y mitigar los desafíos del uso de la inteligencia artificial como oportunidad disruptiva.” OdiseIA trabaja para aumentan la concienciación empresarial a este respecto, realizando medidas concretas y de impacto real para llegar a conseguir un uso responsable de estas tecnologías. Además, inciden en otro punto importante, la necesidad de eliminar los prejuicios existentes, y la explicación de los riesgos y ventajas reales, a través de la formación y divulgación a todos los niveles.

 


 

Idioia Salazar
Idoia Salazar

 

Cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA).

Miembro del equipo de expertos del Observatorio de Inteligencia Artificial del Parlamento Europeo. Periodista, decidida a contribuir al desarrollo ético y responsable de la Inteligencia Artificial. Profesora Dra. en la Universidad CEU San Pablo, especializada en Ética en Inteligencia Artificial. Autora de: ‘El Algoritmo y yo: GuIA de convivencia entre seres humanos y artificiales' y otros 3 libros sobre el impacto social de la IA y otras nuevas tecnologías. Miembro fundador de la revista de Springer AI and Ethics y miembro del Global AI Ethics Consortium