University of Valencia logo Logo Privacy and Digital Transformation Chair Microsoft-UV Logo del portal

  • Representative picture of the publication

    Auditing the quality of datasets used in algorithmic decision-making systems [Auditoría de la calidad de los datasets utilizados en los sistemas algorítmicos de toma de decisiones]

    Iñigo de Miguel Beriain, Pilar Nicolás Jiménez (UPV/EHU), María José Rementería, Davide Cirillo, Atia Cortés, Diego Saby (Barcelona Supercomputing Center), and Guillermo Lazcoz Moratinos (CIBERER – ISCIII)

    (2022). Informes

    Parlamento Europeo. No.Estudios

    Los sesgos se consideran comúnmente como uno de los efectos más perjudiciales del uso de la inteligencia artificial (IA). Por lo tanto, la UE se compromete a reducir su incidencia tanto como sea posible. Sin embargo, la existencia de sesgos es anterior a la creación de herramientas de IA. Todas las sociedades humanas están sesgadas: la IA solo reproduce lo que somos. Por lo tanto, oponerse a esta tecnología por este motivo simplemente ocultaría la discriminación y no la evitaría. Corresponde a la supervisión humana utilizar todos los medios disponibles, que son muchos, para mitigar sus sesgos. Es probable que, en algún momento en el futuro, las recomendaciones hechas por un mecanismo de IA...

    Los sesgos se consideran comúnmente como uno de los efectos más perjudiciales del uso de la inteligencia artificial (IA). Por lo tanto, la UE se compromete a reducir su incidencia tanto como sea posible. Sin embargo, la existencia de sesgos es anterior a la creación de herramientas de IA. Todas las sociedades humanas están sesgadas: la IA solo reproduce lo que somos. Por lo tanto, oponerse a esta tecnología por este motivo simplemente ocultaría la discriminación y no la evitaría. Corresponde a la supervisión humana utilizar todos los medios disponibles, que son muchos, para mitigar sus sesgos. Es probable que, en algún momento en el futuro, las recomendaciones hechas por un mecanismo de IA contengan menos sesgos que las hechas por seres humanos. A diferencia de los humanos, la IA se puede revisar y sus fallas se pueden corregir de manera consistente. En última instancia, la IA podría servir para construir sociedades más justas y menos sesgadas. Este estudio comienza brindando una descripción general de los sesgos en el contexto de la inteligencia artificial y, más específicamente, en las aplicaciones de aprendizaje automático. La segunda parte está dedicada al análisis de los sesgos desde el punto de vista jurídico. El análisis muestra que las deficiencias en esta área exigen la implementación de herramientas regulatorias adicionales para abordar adecuadamente el problema del sesgo. Finalmente, este estudio presenta varias opciones de política en respuesta a los desafíos identificados.

    Read more Hide

    Cita APA 7

    Beriain, I. de M., Nicolás Jiménez, P., Rementería, M.J., Cirillo, D., Cortés, A., Saby, D., & Lazcoz Moratinos, G. (2022). Auditing the quality of datasets used in algorithmic decision-making systems. European Parliament. Doi: 10.2861/98930

    DOI: 10.2861/98930
    ISBN: 978-92-846-9681-9
  • Representative picture of the publication

    Governing data and artificial intelligence for all. Models for sustainable and just data governance. (Gobernando datos y la Inteligencia artificial para todos. Modelos para una gobernanza de datos sostenible y justa)

    Joan Lopez Solano, Aaron Martin, Siddharth de Souza y Linnet Taylor.

    Bruselas, Bélgica: European Parliamentary Research Service , 2022. Informes

    Scientific Foresight Unit (STOA).

    Con un enfoque particular en la Inteligencia artificial (IA), este estudio identifica y examina opciones de políticas para el marco de gobernanza de datos de la UE que se alinean con una perspectiva de justicia de datos. Un enfoque de justicia de datos es aquel que se centra en la equidad, el reconocimiento y la representación de intereses plurales, y la creación y preservación de bienes públicos como sus objetivos principales. El análisis ofrece una evaluación de la estrategia de gobernanza de datos de la UE en general y opciones de políticas específicas para la ley de IA, la ley de gobernanza de datos y la ley de datos. Se proponen cuatro puntos de referencia para una buena gobernanza de...

    Con un enfoque particular en la Inteligencia artificial (IA), este estudio identifica y examina opciones de políticas para el marco de gobernanza de datos de la UE que se alinean con una perspectiva de justicia de datos. Un enfoque de justicia de datos es aquel que se centra en la equidad, el reconocimiento y la representación de intereses plurales, y la creación y preservación de bienes públicos como sus objetivos principales. El análisis ofrece una evaluación de la estrategia de gobernanza de datos de la UE en general y opciones de políticas específicas para la ley de IA, la ley de gobernanza de datos y la ley de datos. Se proponen cuatro puntos de referencia para una buena gobernanza de datos, en línea con los principios de justicia: preservación y fortalecimiento de la infraestructura y bienes públicos, inclusión, impugnabilidad y rendición de cuentas, y responsabilidad global. Explorando ejemplos de diferentes modelos de gobernanza, examinamos cómo se cruzan estos modelos y opciones, y qué lecciones ofrecen para el caso de la UE.

    Read more Hide

    Cita en APA 7

    Lopez Solano, J., Martin, A., De Souza, S., & Taylor, L. (2022). Governing data and artificial intelligence for all. Models for sustainable and just data governance. European Parliamentary Research Service, European Parliament. DOI 10.2861/915401

     

    DOI: 10.2861/915401
    ISBN: 978-92-846-9623-9