Chocola Studio

Novedades en nuestro trabajo en innovación responsable

En este último año, los sistemas de inteligencia artificial (IA) han propiciado avances en nuestro trabajo en áreas como desarrollo de productos inclusivos, el apoyo a las pequeñas empresas y para quien busca un empleo. También hemos podido ver su potencial para dar respuesta a grandes necesidades globales, como la previsión y la planificación de la respuesta humanitaria cuando se producen catástrofes naturales, los retos medioambientales globales o la innovación científica.
 
La IA es un campo emocionante, tanto desde el punto de vista técnico como por los beneficios sociales que puede aportar. Sin embargo, para materializar todo su potencial, es preciso desarrollarla de una manera responsable, bien meditada y sopesando una serie de aspectos éticos fundamentales. De forma inherente, cualquier promesa de una gran recompensa también implica riesgos, y, por eso, nos hemos marcado el compromiso de desarrollar la IA de una forma ética y beneficiosa para la sociedad.
 
Nuestros Principios de la inteligencia artificial guían el modo en que integramos la investigación sobre IA en los productos y servicios de Google y nuestra interacción con colaboradores externos. Internamente, aplicamos estos Principios de forma sistemática a través de programas de formación, revisiones éticas de nuestra IA y herramientas técnicas. En Google hay más de 200 personas que trabajan a tiempo completo en la compilación e implantación de prácticas responsables sobre desarrollo de IA.
 
También nos hemos comprometido a divulgar las lecciones que aprendemos con otros agentes del sector (ver nuestros posts de 2018, 2019, 2020 y 2021, y las Actualizaciones de los avances en principios de IA que publicamos anualmente).
 
Formación interna
 
Definir principios es, desde luego, importante, pero para llevarlos a la práctica hace falta formación y un diálogo constante.
 
Nuestra formación en Principios de la IA se puso en marcha a finales de 2019 y, hasta ahora, se ha impartido a más de 32.000 empleados de Google a todos los niveles. No hemos dejado de ampliar y poner al día estos cursos, aprovechando nuestro conocimiento —cada vez mayor— de lo que se requiere para que el aprendizaje híbrido y a distancia resulte eficaz. Así, por ejemplo, siguiendo los comentarios de nuestros Googlers, este año hemos transformado nuestro curso de autoaprendizaje de Ética de la tecnología en cuatro módulos en un único módulo que ofrece una inmersión en profundidad. Del mismo modo, hemos puesto en marcha el Responsible Innovation Challenge, una colección de entretenidos rompecabezas, test y juegos online muy útiles para sensibilizar sobre los Principios de la IA y medir hasta qué punto nuestros empleados interiorizan determinados conceptos éticos, por ejemplo, evitar sesgos parciales. Hasta ahora han participado más de 13.000 de nuestros empleados.
 
Otra experiencia piloto ha sido el nuevo taller Moral Imagination, consistente en una serie de actividades inmersivas presenciales y en vídeo, de dos días de duración, dirigidas a nuestros equipos de producto, en las que repasamos las implicaciones éticas de productos potenciales con IA. Hasta la fecha, 248 personas de 23 equipos de investigación y producto de Google han realizado este taller. Como resultado, ha aumentado tanto el número como la profundidad de la consultas sobre ética de la IA durante el desarrollo de productos.
 
A la hora de desarrollar materiales de formación interna, procuramos incorporar aportaciones tanto de los empleados de Google como de expertos externos. Este año, cuando organizamos un taller presencial para formar a nuestros equipos internos de experiencia de usuario y de producto sobre el concepto de la explicabilidad de la IA, previamente hicimos un taller piloto con expertos externos, aprovechando la reunión de mayo de Trust, Transparency and Control Labs.
 
Creemos que este enfoque complementa muy adecuadamente programas internos como el AI Principles Ethics Fellows, de seis meses de duración, en el que este año han participado Googlers de 17 oficinas de todo el mundo. Igualmente, acabamos de lanzar una versión de este programa adaptada a altos directivos.
 
Cómo llevar los principios a la práctica
 
Nuestro enfoque de la innovación responsable con IA comienza en una fase temprana, antes incluso de que nuestros equipos planifiquen una nueva aplicación con IA. Cuando un equipo empieza a crear un modelo de aprendizaje automático, un conjunto de datos o una característica de un producto, puede acceder a expertos para hacerles consultas o participar en análisis con herramientas de IA responsable desarrolladas por Google, o solicitar la realización de pruebas proactivas de imparcialidad (ProFair). Antes del lanzamiento, el equipo puede solicitar que se lleve a cabo una revisión del producto conforme a los Principios de la IA.
 
Para ello, disponemos de revisores de Principios de IA, capaces de efectuar una evaluación estructurada para identificar, medir y analizar el riesgo potencial de que el producto cause daños. La calificación de riesgo se centra en la gravedad de los efectos para las personas y la sociedad si no se ofrecieran soluciones o estas no fueran eficaces. Los revisores también tienen en cuenta las conclusiones de miles de revisiones anteriores conforme a los Principios de la IA, realizadas desde 2019.
 
Cuando los revisores identifican cuestiones con un riesgo medio o alto, como problemas de exclusión en un producto o aspectos potenciales de privacidad o seguridad, trabajan con los equipos relevantes para resolverlos. Las revisiones pueden concluir con una aprobación, una aprobación con condiciones o recomendaciones, o una no aprobación. Cualquier nueva aplicación de IA susceptible de afectar a varias áreas de producto se eleva a un Consejo de Revisión de Tecnologías Avanzadas, consistente en un grupo de altos cargos de investigación, producto y negocio, que debe tomar una decisión final.
 
Como complemento al trabajo de nuestros expertos internos en Principios de IA, con frecuencia trabajamos también con asesores externos de prestigio. Un ejemplo: uno de nuestros equipos tenía intención de utilizar IA para elaborar un conjunto de datos casi en tiempo real con el fin de medir de manera fiable la cobertura de la superficie terrestre, para aplicaciones medioambientales y sociales. El equipo solicitó una Revisión conforme a los Principios de la IA. A la vista de las conclusiones, colaboró con el grupo a cargo de la revisión en el diseño de distintas salvaguardas. A su vez, el equipo de revisión trabajó con expertos externos del Instituto de Recursos Mundiales y de BSR. Siguiendo el ejemplo de datos y servicios abiertos de la Misión Copérnico de la Comisión Europea, el equipo de producto aplicó una política de datos abiertos. En concreto, permitió el libre acceso bajo una licencia CC-BY-4.0 a los datos de entrenamiento y test del modelo de aprendizaje automático que se utilizó para generar el conjunto de datos, junto con el conjunto de datos en sí. Del mismo modo, publicó el modelo en Github bajo una licencia Apache 2.0. Recientemente hemos publicado un Codelab dirigido a desarrolladores, que les permite repasar el proceso de revisión ética y aplicar las conclusiones a sus propios proyectos.
 
Proceso de revisión de los principios de IA de Google: Cómo evaluamos las nuevas investigaciones y aplicaciones de IA para que se ajusten a nuestros Principios
 
Algunos de nuestros proyectos, como pueden ser los que desarrollan métodos de investigación para evaluar la desinformación o los conjuntos de datos — que requieren un determinado grado de diversidad — suelen recibir aprobaciones condicionales antes de pasar a la fase de lanzamiento. Una condición habitual que se impone a los equipos es la de realizar pruebas ProFair, en las que participan personas con antecedentes muy variados. A menudo, estas pruebas se llevan a cabo en colaboración con nuestro equipo central de Inclusión y Equidad de Productos. Este año sin ir más lejos, el número de consultas ProFair se ha duplicado con respecto al año pasado. Un enfoque típico muy utilizado consiste en crear y publicar documentación detallada en forma de tarjetas de datos y tarjetas de modelos, con un objetivo de transparencia y rendición de cuentas. En este último año, el número de revisiones conforme a los Principios de la IA que han acarreado medidas de mitigación basadas en tarjetas de datos o modelos ha aumentado un 68%.
 
Como ya hemos dicho, hemos incorporado comités específicos de revisión y gobernanza de la IA en determinadas áreas de producto (como Cloud y Health). De este modo, tanto el Comité de Ética del área Health como los equipos de Cloud tienen a su disposición asesoramiento especializado en el que basar sus decisiones, por ejemplo, en el momento de elaborar políticas en el caso de que se tenga que discontinuar los Informes de Movilidad Local asociados a la COVID-19 y de los Pronósticos sobre la COVID-19 por si se produce alguna situación que pueda afectar a la calidad de los datos. Este año hemos ampliado este planteamiento especializado con un proceso de revisión según los Principios de la IA para hardware de consumo.
 
Conviene señalar que, aparte de las revisiones formales, los equipos de producto de Google siguen habitualmente prácticas responsables en lo tocante a la IA. En YouTube estamos trabajando con una combinación más específica de clasificadores, palabras clave en otros idiomas e información de analistas regionales, en el marco de una colaboración con nuestros investigadores sobre nuevas herramientas para una inteligencia artificial equitativa. El equipo de Fotos ha participado en una Mesa redonda sobre investigación en IA justa con un grupo de asesores externos, en la que se han discutido problemas potenciales de equidad. Por su parte, el equipo de Gboard ha implantado un nuevo concepto de  privacidad por diseño aplicado al aprendizaje automático federado. Todas estas iniciativas no corresponden a mandatos de las revisiones conforme a los Principios de la IA, sino que reflejan una interiorización de esos principios a todos los niveles de Google.
 
Herramientas e investigación
 
A principios de 2022, creamos una recopilación abierta con más de 200 artículos de investigación, con el objetivo de facilitar el acceso a nuestras publicaciones sobre IA responsable. No dejamos de lanzar, perfeccionar y consolidar recursos técnicos, entre los que destacan las siguientes herramientas proactivas:
  • La escala de tonos de piel Monk, desarrollada por el Dr. Ellis Monk, profesor de sociología de la Universidad de Harvard. Esta escala ofrece un espectro de tonos de piel de todo el mundo, para uso en la evaluación y las consideraciones de imparcialidad de la IA.
  • La herramienta Know Your Data (KYD) facilita a los desarrolladores una serie de tareas, por ejemplo, identificar con rapidez problemas de imparcialidad. De hecho, lleva integrada la Escala de Monk para ayudar a los desarrolladores a detectar posibles sesgos parciales asociados al tono de piel.
  • La herramienta Language Interpretability Tool (LIT) es una nueva metodología que ayuda a los desarrolladores a sondear los modelos de aprendizaje automático, con el fin de entender mejor su comportamiento, realizar pruebas y corregir errores.
  • Counterfactual Logit Pairing contribuye a garantizar que la predicción de un modelo no varía cuando se eliminan o sustituyen atributos sensibles o términos identitarios que sí figuran en un ejemplo. Recientemente, esta herramienta se ha añadido a la Biblioteca de modificación de modelos de TensorFlow (ver artículo de investigación para más información).
  • Igualmente, queremos que nuestros equipos midan sus progresos en el campo de los Principios de la IA. Para ello, estamos probando una herramienta interna que les ayuda a evaluar cómo se han desarrollado los modelos de ML, comparándolos con las prácticas más avanzadas, revisiones anteriores y con nuestro trabajo sobre ética, equidad y derechos humanos.
  • Los equipos de producto de Google utilizan habitualmente muchas herramientas de IA responsable desarrolladas por científicos. Por ejemplo, los equipos de Fotos, Pixel y Google Imágenes han incorporado  la escala de tonos de piel de Monk.

Participación externa
No cabe duda de que el desarrollo y la implantación responsables de la IA es un proceso a largo plazo. A nosotros nos parece que también debería ser un proceso colaborativo. Por ello, colaboramos estrechamente con administraciones públicas de Europa, Oriente Medio y África, América Latina, Asia-Pacífico y Estados Unidos en el desarrollo de una reglamentación sobre la IA que facilite la innovación en todo el mundo, para empresas de todos los tamaños. Una de las cosas que hacemos es publicar nuestra visión de la IA responsable y las recomendaciones, comentarios y respuestas a solicitudes de información abiertas. Asimismo, hemos puesto en marcha y lideramos una iniciativa con la Organización Internacional de Normalización (ISO/IEC PWI TS 17866) para divulgar buenas prácticas en el desarrollo de la IA.
Muchos de estos esfuerzos tienen la vista puesta en el futuro, pero la IA responsable es un desafío al que también hay que dar respuestas inmediatas. Por ello, pensando en los actuales socios y clientes de Google Cloud que necesitan acceso a las mejores prácticas para implantar en sus organizaciones IA responsable y con buenas dosis de gobernanza, hemos introducido una serie de prerrequisitos sobre IA responsable en la Especialización en ML de Google Cloud Partner Advantage; entre ellos, superar el curso de formación Aplicación de los principios de la IA con Google Cloud, desarrollado recientemente.
En otro orden de cosas, hemos publicado una introducción gratuita a la IA y el aprendizaje automático, dirigida a alumnos de primaria y secundaria, con el que esperamos contribuir a la formación de la próxima hornada de expertos en IA. En Estados Unidos, continúa en marcha nuestro programa externo Responsible Innovation Fellowship, dirigido a estudiantes de centros HBCU, que dan servicio principalmente a la comunidad afroamericana.
Nuestra preocupación por la innovación responsable nos exige seguir de cerca los mercados emergentes en los que se están haciendo desarrollos de IA. En ese sentido, hemos abierto un nuevo centro de investigación de IA en Bulgaria y hemos ampliado el apoyo a empresarios africanos cuyas empresas hacen uso de la IA, a través de Google for Startups Accelerator: Africa.
Todos estos ejemplos son tan solo una muestra de nuestro compromiso a largo plazo con una innovación responsable. También reflejan nuestra capacidad de cambio y nuestra vocación de exigir altos estándares de fiabilidad para la IA. Asimismo, mantenemos nuestro compromiso de compartir información útil sobre nuestro proceso de trabajo, entre otras cosas porque las prácticas sobre IA responsable no dejan de evolucionar.

 

<!–INSTRUCTIONS Enter info below to be used in google.com/about site blog syndication. Leave elements empty if there is no valid data. Example: http://1.bp.blogspot.com/-mX0dxJxp8dg/Vo8MSdxypWI/AAAAAAAARsI/EjaFhvgAEgc/s1600/Beutler_Google_Giftwrap_-v2TW.png –>

source