La manera en que la Inteligencia Artificial ha de desarrollarse e implementarse y los posibles sesgos del machine learning han cobrado especial relevancia en los últimos años. A pesar de las ventajas, inconvenientes y retos que plantea, la realidad es que ya forman parte de nuestro día a día. A lo largo de las últimas décadas la capacidad de computación ha aumentado exponencialmente. Esto, junto a la implementación global de Internet y a un aumento en la capacidad de creación, almacenamiento y gestión de datos, ha facilitado la implementación a gran escala de distintos sistemas basados en IA o ML.
Al mismo tiempo, se han puesto en marcha diversas propuestas regulatorias (de ámbito internacional, europeo y nacional) con el objetivo de establecer directrices básicas para detectar y evitar decisiones sesgadas o discriminatorias, así como iniciativas para definir los límites éticos tanto en el desarrollo como en la aplicación de estas tecnologías. Otro de los retos más urgentes es el marco de transparencia por el que se deben establecer los canales de acceso y supervisión de la IA y de los productos en los que se incorpora, sin llegar a dañar la propiedad intelectual.
Bajo este prisma, Adigital ha elaborado, en colaboración con Éticas, el documento “A.I.: transparency and ethics certifications”, en el que se realiza un análisis pormenorizado del estado del arte de las certificaciones de ética y transparencia de la inteligencia artificial. El documento se ha presentado en el contexto de la participación de Adigital en la Conferencia Ministerial de la Economía Digital de la OCDE, celebrada en Las Palmas de Gran Canaria del 13 al 15 de diciembre, y forma parte también de los trabajos que Adigital desarrolla para diseñar la primera certificación de transparencia algorítmica para empresas de España.
La transparencia de la IA, precursor de los análisis éticos y de impacto
Desde la perspectiva del usuario, la transparencia en la IA debe entenderse como un mecanismo capaz de incrementar su confianza en sistemas complejos y no deterministas mediante la comprensión – incluso cuando esta es superficial – tanto de la estructura como de los flujos de información en dichos sistemas. Sin embargo, es importante remarcar que la transparencia en sí no garantiza la calidad o equidad de los resultados producidos por la IA.
En este sentido, la transparencia debe entenderse como un pilar instrumental para garantizar que los distintos actores interesados tengan acceso a suficiente información como para poder tomar una decisión sobre la adopción de un sistema algorítmico y, en tal caso, los riesgos que ello conlleva. Esto, por otro lado, solo es posible si el propósito, la arquitectura, los beneficios y peligros, o los mecanismos de corrección de dichos sistemas son suficientemente claros. En última instancia, la transparencia debe entenderse como un precursor de los análisis éticos y de impacto, pues fomenta la responsabilidad y la visión crítica sobre los outputs que generan estos sistemas.
En este sentido, la transparencia suele entenderse como un mecanismo que favorece o permite la explicabilidad de los sistemas de inteligencia artificial. Al aportar información sobre los aspectos técnicos y los principios de un sistema en cuestión permite explicar los resultados proporcionados por el mismo o, como mínimo, contextualizarlos con mayor precisión tanto en el ámbito técnico como el social.
Por otro lado, la discusión sobre la transparencia se puede abordar desde distintos puntos de vista: por un lado, puede conceptualizarse como un ejercicio que pretende informar sobre un único modelo dentro de un servicio. Por otro lado, puede entenderse como la información sobre un servicio en su totalidad sin indagar en sus elementos, o en relación a la recolección y gestión de datos.
El documento “A.I.: transparency and ethics certifications” de Adigital y Éticas evalúa con detalle cada uno de estos aspectos, las iniciativas de estandarización en marcha, el entorno regulatorio y las certificaciones ya existentes.