Directrices de IA responsable para directivos

Directrices de IA responsable para directivos

Directrices de IA responsable para directivos y mejores prácticas a la hora de crear aplicaciones inteligentes.

Para muchas organizaciones, la IA representa una oportunidad para innovar o modernizar las aplicaciones inteligentes y desbloquear una eficiencia, personalización y conocimiento sin precedentes. Mediante el uso de la IA, el aprendizaje automático y el análisis de datos, las aplicaciones inteligentes están preparadas para transformar la forma en que las empresas crean y ofrecen valor a sus clientes.

Sin embargo, las organizaciones deben asegurarse de que su entusiasmo por adoptar la IA no eclipse su responsabilidad de utilizarla de forma ética. A medida que su organización inicia su estrategia de aplicaciones inteligentes, debe estar atenta al impacto de sus innovaciones en la sociedad, el medio ambiente y la reputación. El uso responsable de la IA requiere un cuidadoso equilibrio.

Este equilibrio es crucial en una era en la que la inteligencia basada en datos puede redefinir las industrias y las experiencias de los usuarios. Debes ser capaz de utilizar las capacidades de la IA evitando al mismo tiempo acciones que puedan causar daños. Para muchas organizaciones, existen varias barreras para lograr ese equilibrio.

Barreras a la adopción de la IA para la innovación de aplicaciones inteligentes

Barrera: Complejidad

  • Descripción: La creación de aplicaciones inteligentes implica el uso de tecnologías complejas como el aprendizaje automático y la IA generativa. Surgen preocupaciones sobre la escasez de talento cualificado, los retos de integrar estas tecnologías con los sistemas existentes, la necesidad de garantizar datos relevantes y de alta calidad, y la mejor manera de comprender las amplias capacidades y limitaciones de la IA.
  • Mitigación: Utilizar herramientas y servicios integrados y totalmente gestionados que simplifiquen los complejos procesos de IA y análisis de datos.

Barrera: Miedo a lo desconocido

  • Descripción: Algunas organizaciones se enfrentan a problemas relacionados con la posible reacción de los clientes y una percepción negativa de la IA y los problemas laborales. Además, existe la preocupación de que las inversiones sustanciales en IA no garanticen la aceptación de los usuarios, especialmente porque algunos usuarios que son más lentos a la hora de adoptar nuevas tecnologías pueden dudar de la eficacia y precisión de las capacidades de IA.
  • Mitigación: Asociarse con un proveedor de tecnología de confianza que tome medidas procesables para investigar y comprender las aplicaciones de IA y sus posibles impactos en las poblaciones humanas.

Barrera: Riesgos de cumplimiento y seguridad

  • Descripción: Existe preocupación por la seguridad, la privacidad y la protección de los datos, especialmente en sectores regulados como la sanidad y los servicios financieros. Además, la necesidad de una IA explicable, la adhesión a prácticas de IA responsables y los problemas de cumplimiento relacionados con la dificultad de rastrear los procesos de toma de decisiones de la IA están llenos de riesgos.
  • Mitigación: Utilizar herramientas y servicios nativos de la nube con seguridad y cumplimiento incorporados para garantizar que los datos, la aplicación y los sistemas de IA estén protegidos en todos los niveles de producción y despliegue.

Para muchas organizaciones, enfrentarse a estos retos será una experiencia nueva. A pesar de los riesgos potenciales asociados a la integración de la IA, la mayoría de los ejecutivos creen que los beneficios merecen la pena. La clave para superar estos riesgos percibidos es implementar directrices que le permitan utilizar la IA de forma responsable, siendo consciente de los impactos potenciales de sus aplicaciones inteligentes.

Principios de la IA responsable

Estos son los seis principios que Microsoft ha identificado como fundamentales para el desarrollo y uso de la IA.

  1. Equidad: Los sistemas de IA deben tratar a todas las personas de forma justa.
  2. Fiabilidad y seguridad: Los sistemas de IA deben funcionar de forma fiable y segura.
  3. Privacidad y seguridad: Los sistemas de IA deben ser seguros y respetar la privacidad.
  4. Inclusión: Los sistemas de IA deben capacitar a todo el mundo e implicar a las personas.
  5. Transparencia: Los sistemas de IA deben ser comprensibles.
  6. Responsabilidad: Las personas deben ser responsables de los sistemas de IA.

Ventajas de innovar con IA

Sal rápidamente al mercado con aplicaciones y servicios inteligentes diferenciados. Construye y despliegua soluciones y experiencias digitales que impulsen los resultados empresariales a largo plazo y establezcan su organización como líder del sector.

Aumente la eficiencia a la vez que reduce la deuda tecnológica. Encuentra formas de optimizar recursos y eliminar costes innecesarios.

Atrae y potencia el talento de los desarrolladores. Proporciona a tus equipos las herramientas necesarias para desarrollar con rapidez, independientemente de su nivel de conocimientos.

Cómo utilizar las ocho directrices

En última instancia, la IA responsable consiste en impulsar un cambio cultural dentro de una organización. Para que las prácticas de IA responsable sean realmente operativas se requieren amplios cambios en el liderazgo, la gobernanza, los procesos y el talento.

Las ocho directrices esbozadas en este libro electrónico se centran en los procesos de desarrollo y entrega de aplicaciones inteligentes para proporcionar una manera formalizada de anticipar y mitigar los riesgos de los sistemas de IA. Dado que cada caso de uso aporta un contexto y un conjunto de retos únicos, las directrices no pretenden servir de lista de comprobación ni prescribir opciones de diseño específicas.

Además, su organización debe ver el desarrollo de aplicaciones inteligentes a través de la lente de un entorno normativo que cambia rápidamente. Como tales, estas directrices no deben considerarse una herramienta para lograr el cumplimiento normativo o legal. Los equipos deben trabajar siempre con los departamentos internos pertinentes para garantizar que las aplicaciones de IA que crean cumplen todas las leyes y normativas aplicables en las jurisdicciones en las que se desarrollará, utilizará o comercializará la aplicación.

Estas directrices le ayudarán a crear una sinergia más profunda entre el rendimiento, los objetivos de la organización y los valores. A lo largo del ciclo de vida de desarrollo de la aplicación, los líderes deben recordar los valores de su organización y los principios éticos de la IA en la medida en que su organización los haya formalizado. Inevitablemente, surgirán problemas que requerirán que los equipos de aplicaciones inteligentes tomen decisiones. En estas situaciones, debe confiar en los valores y principios para guiar su pensamiento. También debe buscar diversas perspectivas dentro y fuera de su organización para obtener información de todas las partes interesadas.

Estas directrices se han organizado de acuerdo con las fases clave del ciclo de vida de desarrollo de aplicaciones, reconociendo al mismo tiempo que el desarrollo de aplicaciones inteligentes suele pasar por estas fases de forma iterativa:

  1. Evaluar y preparar
  2. Diseñar, crear y documentar
  3. Validar y dar soporte

Fases de la IA responsable en aplicaciones inteligentes

La IA responsable garantiza que las aplicaciones se diseñen, desarrollen e implementen respetando los valores, los derechos y la dignidad de las personas. La IA responsable también ayuda a prevenir o mitigar los daños potenciales de la IA, como la parcialidad, la discriminación, las violaciones de la privacidad o la manipulación maliciosa.

Estas ocho directrices pueden ayudar a los equipos de desarrollo de aplicaciones a infundir los principios de la IA responsable en sus procesos. A continuación se describe cómo se alinean las directrices con los principios de IA responsable anteriores.

Fase: Evaluar y preparar

Directriz + Acción:

  • (1) Evaluación de los méritos: Evaluar la conveniencia de desarrollar la aplicación teniendo en cuenta los valores de la organización y los objetivos empresariales.
  • (2) Creación del equipo: Formar un equipo que refleje diversas perspectivas con funciones y responsabilidades claramente definidas.

Fase: Diseñar, construir y documentar

Directriz + Acción:

  • (3) Análisis de impacto: Evaluar el impacto potencial de la aplicación incluyendo las aportaciones de expertos en la materia y grupos potencialmente afectados.
  • (4) Detección de riesgos: Evaluar los datos y los resultados del sistema para garantizar la inclusión y descubrir posibles riesgos.
  • (5) Mitigación de riesgos: Diseñar aplicaciones de IA para mitigar los impactos potencialmente negativos en la sociedad y el medio ambiente.
  • (6) Control humano: Incorporar funciones que permitan el control humano y garanticen la rendición de cuentas.

Fase: Validar y apoyar

Directriz + Acción:

  • (7) Validación: Validar el funcionamiento de las aplicaciones inteligentes para garantizar su fiabilidad y seguridad, comprobando los fallos imprevistos y los usos indebidos previsibles propios de las aplicaciones de IA.
  • (8) Comunicación: Comunicar las opciones de diseño, el rendimiento, las limitaciones y los riesgos de seguridad a los usuarios finales.

Ocho directrices para una IA responsable en aplicaciones inteligentes

Directriz nº 1: Evaluación de los méritos

Acción: Evaluar la conveniencia de desarrollar la aplicación teniendo en cuenta los valores de la organización y los objetivos empresariales.

Preguntas que hay que plantearse:

  • ¿Cuáles son los principales casos de uso y beneficios de la aplicación inteligente propuesta? ¿Qué usos están explícitamente fuera del alcance?
  • ¿Cuál es el resultado empresarial deseado para esta aplicación inteligente? ¿Cómo se medirá el impacto empresarial?
  • ¿De qué manera el funcionamiento de la aplicación inteligente y el uso de sus resultados para la toma de decisiones empresariales pueden afectar a los valores fundamentales de la organización?

Directriz nº 2: Creación de equipos

Acción: Formar un equipo que refleje diversas perspectivas con funciones y responsabilidades claramente definidas.

Preguntas que hay que plantearse:

  • ¿Cuenta con un equipo multidisciplinar y diverso (por ejemplo, en cuanto a género, edad, etnia) con una amplia gama de conocimientos funcionales?
  • ¿Qué perspectivas o conocimientos faltan y cómo puede introducirlos, incluyendo fuentes externas al equipo o a la organización?
  • ¿Está estructurado el equipo de modo que los expertos en la materia puedan influir en las decisiones de diseño pertinentes?

Directriz nº 3: Análisis de impacto

Acción: Evaluar el impacto potencial de la aplicación incluyendo aportaciones de expertos en la materia y grupos potencialmente afectados.

Preguntas que hay que plantearse:

  • ¿Cuáles son los modos de fallo previsibles de esta aplicación? ¿Qué situaciones límite podrían provocar fallos y daños?
  • ¿Cuáles son las implicaciones sociales y medioambientales del previsible fallo, mal uso o ataque malintencionado de la aplicación?
  • ¿Cuáles son los posibles usos imprevistos de la aplicación?
  • Evalúe y prepare el escenario: Automatización de las decisiones de aprobación de préstamos
  • ¿Qué PYMES o grupos externos podrían aportar información para tomar decisiones de diseño que reduzcan el riesgo de impacto social negativo y el daño a las personas directa o indirectamente afectadas por la aplicación inteligente?

Directriz nº 4: Detección de riesgos

Acción: Evaluar los datos y los resultados del sistema para garantizar la inclusividad y minimizar el riesgo de daños justos.

Preguntas que hay que plantearse:

  • ¿Qué métricas de equidad (por ejemplo, paridad estadística, probabilidades igualadas), pruebas y criterios de envío utilizará? ¿Cómo validará el equipo de la aplicación inteligente que los datos de formación, incluidos los recogidos a través de API, reflejan los diferentes grupos y tipos de personas que pueden verse afectadas por los resultados del sistema?
  • ¿Cómo medirá el equipo de la aplicación inteligente si los resultados de la aplicación de IA son coherentes con el objetivo elegido (es decir, evitar la fuga de objetivos), las métricas de imparcialidad, las pruebas y los criterios de envío en una amplia variedad de grupos o intersecciones de grupos potencialmente afectados?
  • ¿Cómo garantizará el equipo de la aplicación inteligente el cumplimiento continuado de las métricas de equidad, las pruebas y los criterios tras el despliegue?

Directriz nº 5: Mitigación de riesgos

Acción: Diseñar aplicaciones de IA para mitigar los impactos potencialmente negativos en la sociedad y el medio ambiente. Preguntas que hay que hacerse

Preguntas que hay que plantearse:

  • Supongamos que es posible que se produzcan impactos negativos (por ejemplo, por un fallo del sistema, un uso no planificado, un abuso, un ataque o simplemente un efecto secundario del uso normal). ¿Qué procesos de diseño (por ejemplo, el diseño centrado en el ser humano) y qué opciones pueden reducirlos, mitigarlos o controlarlos?
  • ¿Qué opciones de diseño ayudarán a minimizar el impacto medioambiental adverso de los resultados de la aplicación inteligente y las decisiones relacionadas? ¿Qué opciones de diseño son fundamentales para garantizar una recopilación de datos legítima y transparente y el respeto de la privacidad del usuario?

Directriz nº 6: Control humano

Acción: Incorporar características que permitan el control humano y garanticen la rendición de cuentas.

Preguntas que hay que plantearse:

  • ¿Cómo está diseñando el equipo la aplicación inteligente para capacitar a los humanos aumentando su capacidad de decisión, agilizando las tareas o haciéndolos más eficaces? ¿Qué decisiones o funciones requieren la supervisión humana como componente esencial de la aplicación de IA?
  • ¿Qué mecanismos (por ejemplo, interpretabilidad) apoyarán la comprensión del sistema por parte del usuario final para permitir la auditoría continua, la supervisión y la intervención humana?
  • ¿Qué funciones de la aplicación inteligente permiten a los usuarios personalizar el rendimiento de la IA?
  • ¿Qué canales utilizará la aplicación inteligente para recoger comentarios en directo?
  • ¿Qué funciones de la aplicación inteligente garantizarán experiencias inclusivas para las personas con discapacidad?

Directriz nº 7: Validación

Acción: Valide el rendimiento de la aplicación inteligente en cuanto a fiabilidad y seguridad, comprobando los fallos imprevistos, así como el mal uso previsible propio de las aplicaciones inteligentes.

Preguntas que hay que plantearse:

  • ¿Cómo validará el equipo el rendimiento de la aplicación de IA con respecto a los KPI, métricas, pruebas y criterios empresariales acordados?
  • ¿Cómo validará el equipo el rendimiento de la aplicación de IA con respecto a normas técnicas y puntos de referencia?
  • ¿Cuáles son el entorno y las condiciones en las que se espera que esta aplicación inteligente funcione correctamente y con seguridad?
  • ¿Cómo se asegurará el equipo de que los usuarios finales entienden el caso de uso principal de la aplicación inteligente, los supuestos subyacentes y las limitaciones?
  • ¿Cuáles son los mecanismos para supervisar continuamente el rendimiento empresarial, técnico y de equidad?
  • ¿Qué acciones son necesarias para detectar y prevenir la desviación del modelo para garantizar que los modelos de aprendizaje automático no se degraden con el tiempo?

Directriz nº 8: Comunicación

Acción: Comunicar las opciones de diseño, el rendimiento, las limitaciones y los riesgos de seguridad a los usuarios finales.

Preguntas que hay que plantearse:

  • ¿Qué información e instrucciones debe proporcionar el equipo de la aplicación inteligente a los usuarios finales para permitir un uso seguro y fiable?
  • ¿Cómo se probará y evaluará el sistema para que funcione de forma segura y eficaz (por ejemplo, en caso de fallo) tanto en situaciones normales como en casos extremos?
  • ¿Cómo se comunicarán los resultados del sistema para que los usuarios finales comprendan su funcionamiento?

Conclusión

Los líderes empresariales pueden ser agentes del cambio en las transformaciones culturales de sus organizaciones. También pueden desempeñar un papel importante a la hora de catalizar y facilitar las complejas y a veces complicadas conversaciones necesarias para desarrollar aplicaciones inteligentes de forma responsable. En tales circunstancias, los miembros del equipo deben sentirse cómodos planteando cuestiones delicadas e identificando las lagunas de conocimientos y experiencia. Además, deben sentirse cómodos y seguros con las herramientas y sistemas que utilizan para innovar nuevas aplicaciones o modernizar las existentes.

Las aplicaciones basadas en IA están preparadas para cambiar la forma en que las empresas atienden a los clientes, descubren y procesan la información y personalizan las experiencias. Al lanzar su estrategia de aplicaciones inteligentes, mantenga siempre la IA responsable en primer plano para no correr el riesgo de eclipsar sus ideas innovadoras con consecuencias imprevistas.

¿Quieres saber más sobre Microsoft Copilot? En DQS/ te asesoramos. ¿Por qué no nos preguntas cómo podemos ayudarte?

Información basada el ebook oficial de Microsoft en inglés: «8 Rules for Responsible AI for Business Leaders» que un mes después de haber publicado este post ha sido traducido al castellano: «Pautas de IA responsable para los responsables de la toma de decisiones. Prácticas recomendadas para aplicaciones inteligentes.«

Publicaciones Similares

¿Te ha parecido interesante? ¿Tienes dudas sobre el contenido?
Para cualquier pregunta ponte en contacto conmigo.