IA responsable en Microsoft

IA responsable en Microsoft

A principios del verano pasado, un pequeño grupo de altos dirigentes y expertos en IA responsables de Microsoft empezaron a utilizar una tecnología de OpenAI similar a lo que el mundo conoce ahora como ChatGPT. Incluso para aquellos que habían trabajado estrechamente con los desarrolladores de esta tecnología en OpenAI desde 2019, el progreso más reciente parecía notable. Los desarrollos de IA que habíamos esperado en torno a 2033 llegarían en cambio en 2023.

Si echamos la vista atrás en la historia de nuestra industria, destacan ciertos años decisivos. Por ejemplo, el uso de Internet se disparó con la popularidad del navegador en 1995, y el crecimiento de los smartphones se aceleró en 2007 con el lanzamiento del iPhone. Ahora es probable que 2023 marque un punto de inflexión crítico para la inteligencia artificial. Las oportunidades para las personas son enormes. Y las responsabilidades de quienes desarrollamos esta tecnología son aún mayores. Tenemos que aprovechar este año decisivo no solo para lanzar nuevos avances en IA, sino para abordar de forma responsable y eficaz tanto las promesas como los peligros que nos aguardan.

Es mucho lo que está en juego. La IA puede representar el avance tecnológico más importante de nuestras vidas. Y aunque eso sea decir mucho, hay buenas razones para decirlo. La IA de vanguardia actual es una poderosa herramienta para hacer avanzar el pensamiento crítico y estimular la expresión creativa. No sólo permite buscar información, sino también respuestas a preguntas. Puede ayudar a las personas a descubrir ideas en medio de datos y procesos complejos. Acelera nuestra capacidad de expresar más rápidamente lo que aprendemos. Y lo que es más importante, en los próximos meses y años hará todas estas cosas cada vez mejor.

Todas las nuevas características relacionadas con la IA que Microsoft está lanzando están diseñadas y alineadas con los principios de IA responsable, que incluyen equidad, fiabilidad y seguridad, privacidad y seguridad, inclusión, transparencia y responsabilidad. El enfoque integral de Microsoft promueve una IA que beneficie a la sociedad combinando investigación innovadora, ingeniería excepcional y gobernanza responsable.

¿Qué va a cambiar con la IA en nuestras vidas?

Con el tiempo, la respuesta corta es casi todo. Porque, como ninguna tecnología anterior, estos avances de la IA aumentan la capacidad de la humanidad para pensar, razonar, aprender y expresarnos. En efecto, la revolución industrial está llegando al trabajo del conocimiento. Y el trabajo del conocimiento es fundamental para todo.

Esto brinda enormes oportunidades para mejorar el mundo. La IA mejorará la productividad y estimulará el crecimiento económico. Reducirá la monotonía de muchos trabajos y, cuando se utilice eficazmente, ayudará a las personas a ser más creativas en su trabajo y a tener un mayor impacto en sus vidas. La capacidad de descubrir nuevos conocimientos en grandes conjuntos de datos impulsará nuevos avances en medicina, nuevas fronteras en la ciencia, nuevas mejoras en los negocios y nuevas y más sólidas defensas para la ciberseguridad y la seguridad nacional.

¿Serán buenos todos los cambios?

Aunque nos gustaría que la respuesta fuera afirmativa, por supuesto que no es así. Como todas las tecnologías anteriores, algunas personas, comunidades y países convertirán este avance tanto en una herramienta como en un arma. Por desgracia, algunos utilizarán esta tecnología para explotar los defectos de la naturaleza humana, atacar deliberadamente a la gente con información falsa, socavar la democracia y explorar nuevas formas de avanzar en la búsqueda del mal. Por desgracia, las nuevas tecnologías suelen sacar lo mejor y lo peor de las personas.

Microsoft lleva trabajando desde 2017 para crear una infraestructura de IA responsable. Esta labor se ha desarrollado paralelamente a otras similares en los ámbitos de la ciberseguridad, la privacidad y la seguridad digital. Está conectado a un marco de gestión de riesgos empresariales más amplio que nos ha ayudado a crear los principios, políticas, procesos, herramientas y sistemas de gobernanza para una IA responsable. Por el camino, han trabajado y aprendido junto con los expertos en IA responsable de OpenAI, igualmente comprometidos.

Tanto en Microsoft como en OpenAI son conscientes de que la tecnología seguirá evolucionando, y ambos están comprometidos con el compromiso y la mejora continuos.

Los cimientos de una IA responsable

Durante seis años, Microsoft ha invertido en un programa interempresarial para garantizar que sus sistemas de IA sean responsables por diseño.

  • En 2017, lanzaron el Comité Aether con investigadores, ingenieros y expertos en políticas para centrarse en cuestiones de IA responsable y ayudar a elaborar los principios de IA que adoptamos en 2018.
  • En 2019, se creó la Oficina de IA Responsable para coordinar la gobernanza responsable de la IA y se lanzó la primera versión del Estándar de IA Responsable, un marco para traducir los principios de alto nivel en orientación práctica para nuestros equipos de ingeniería.
  • En 2021, se describieron los elementos clave para poner en marcha este programa, incluida una estructura de gobierno ampliada, formación para dotar a sus empleados de nuevas habilidades, y procesos y herramientas para apoyar la implementación.
  • Y, en 2022, se reforzó la Norma de IA Responsable y se lanzó su segunda versión. En ella se establece cómo se crearán sistemas de IA utilizando enfoques prácticos para identificar, medir y mitigar los daños con antelación, y garantizar que los controles se incorporen a nuestros sistemas desde el principio.

El aprendizaje derivado del diseño y la aplicación del programa de IA responsable de Microsoft ha sido constante y decisivo. Una de las primeras cosas que se hizo en el verano de 2022 fue contratar a un equipo multidisciplinar para que trabajara con OpenAI, se basara en su investigación existente y evaluara cómo funcionaría la última tecnología sin que se le aplicaran salvaguardas adicionales. Como ocurre con todos los sistemas de IA, es importante abordar los esfuerzos de creación de productos con una base de referencia inicial que proporcione un conocimiento profundo no solo de las capacidades de una tecnología, sino también de sus limitaciones. Se identificaron algunos riesgos bien conocidos, como la capacidad de un modelo para generar contenidos que perpetuaran estereotipos, así como la capacidad de la tecnología para fabricar respuestas convincentes, aunque incorrectas en cuanto a los hechos. Como en cualquier faceta de la vida, la primera clave para resolver un problema es comprenderlo.

Con el bagaje de estos primeros conocimientos, los expertos del ecosistema de IA responsable tomaron medidas adicionales. Los investigadores, expertos en políticas y equipos de ingeniería unieron sus fuerzas para estudiar los daños potenciales de la tecnología, crear canales de medición a medida y perfeccionar estrategias de mitigación eficaces. Gran parte de este trabajo no tenía precedentes y, en parte, ponía en tela de juicio su forma de pensar. Tanto en Microsoft como en OpenAI se avanzó rápidamente.

Construir sobre estos cimientos

De cara al futuro, se hará aún más. A medida que sigan avanzando los modelos de IA, habrá que abordar cuestiones de investigación nuevas y abiertas, colmar lagunas de medición y diseñar nuevas prácticas, pautas y herramientas. Se abordará el camino con humildad y el compromiso de escuchar, aprender y mejorar cada día.

Pero los esfuerzos y los de otras organizaciones afines no serán suficientes. Este momento transformador de la IA exige una visión más amplia de las repercusiones de la tecnología -tanto positivas como negativas- y un diálogo mucho más amplio entre las partes interesadas. Debemos mantener conversaciones amplias y profundas y comprometernos a actuar conjuntamente para definir los límites del futuro.

Tres objetivos clave de la IA responsable

Microsoft basa la IA responsable en tres objetivos clave:

  1. En primer lugar, hay que garantizar que la IA se construya y utilice de forma responsable y ética. La historia nos enseña que las tecnologías transformadoras como la IA requieren nuevas normas de circulación. Los esfuerzos proactivos y autorreguladores de las empresas responsables ayudarán a allanar el camino para estas nuevas leyes, pero sabemos que no todas las organizaciones adoptarán prácticas responsables voluntariamente. Los países y las comunidades tendrán que utilizar procesos legislativos democráticos para entablar conversaciones con toda la sociedad sobre dónde deben trazarse las líneas para garantizar que las personas estén protegidas por la ley. En la opinión de Microsoft, una regulación eficaz de la IA debe centrarse en las aplicaciones de mayor riesgo, centrarse en los resultados y ser duradera ante el rápido avance de las tecnologías y los cambios en las expectativas de la sociedad. Para difundir los beneficios de la IA lo más ampliamente posible, los enfoques reguladores en todo el mundo tendrán que ser interoperables y adaptables, al igual que la propia IA.
  2. En segundo lugar, debemos garantizar que la IA fomente la competitividad internacional y la seguridad nacional. Tenemos que reconocer que vivimos en un mundo fragmentado en el que la superioridad tecnológica es fundamental para la competitividad internacional y la seguridad nacional. La IA es la próxima frontera de esa competencia. Con la combinación de OpenAI y Microsoft, y DeepMind dentro de Google, Estados Unidos está bien situado para mantener el liderazgo tecnológico. Otros ya están invirtiendo, y deberíamos tratar de ampliar esa posición entre otras naciones comprometidas con los valores democráticos. Pero también es importante reconocer que el tercer actor principal en esta próxima ola de IA es la Academia de Inteligencia Artificial de Pekín. Y, justo la semana pasada, la china Baidu se comprometió a desempeñar un papel de liderazgo en la IA. Estados Unidos y las sociedades democráticas en general necesitarán múltiples y sólidos líderes tecnológicos que contribuyan al avance de la IA, con un liderazgo político público más amplio en temas como los datos, la infraestructura de supercomputación de la IA y el talento.
  3. En tercer lugar, debemos asegurarnos de que la IA esté al servicio de la sociedad en sentido amplio, no en sentido estricto. La historia también ha demostrado que los avances tecnológicos significativos pueden superar la capacidad de adaptación de las personas y las instituciones. Necesitamos nuevas iniciativas para mantener el ritmo, de modo que los trabajadores puedan ser empoderados por la IA, los estudiantes puedan lograr mejores resultados educativos y las personas y organizaciones puedan disfrutar de un crecimiento económico justo e inclusivo. Nuestros grupos más vulnerables, incluidos los niños, necesitarán más apoyo que nunca para prosperar en un mundo impulsado por la IA, y debemos asegurarnos de que esta próxima ola de innovación tecnológica mejore la salud mental y el bienestar de las personas, en lugar de erosionarlo gradualmente. Por último, la IA debe estar al servicio de las personas y del planeta. La IA puede desempeñar un papel fundamental a la hora de ayudar a abordar la crisis climática, por ejemplo analizando los resultados medioambientales y avanzando en el desarrollo de tecnologías de energía limpia, al tiempo que acelera la transición a la electricidad limpia.

Para hacer frente a este momento, ampliaremos nuestros esfuerzos de política pública para apoyar estos objetivos. Nos comprometemos a formar asociaciones nuevas y más profundas con la sociedad civil, el mundo académico, los gobiernos y la industria. Trabajando juntos, todos necesitamos adquirir una comprensión más completa de las preocupaciones que deben abordarse y de las soluciones que probablemente sean las más prometedoras. Ahora es el momento de colaborar en la definición de las reglas del juego de la IA.

Cuestiones de IA responsable en Microsoft

  • En primer lugar, estas cuestiones son demasiado importantes para dejarlas solo en manos de los tecnólogos. Y, por otra parte, no hay forma de anticipar, y mucho menos de abordar, estos avances sin implicar a las empresas tecnológicas en el proceso. Más que nunca, este trabajo requerirá una gran carpa.
  • En segundo lugar, el futuro de la inteligencia artificial requiere un enfoque multidisciplinar. El sector tecnológico fue construido por ingenieros. Sin embargo, para que la IA sirva realmente a la humanidad, el futuro requiere que reunamos a informáticos y científicos de datos con personas de todos los ámbitos de la vida y de todas las formas de pensar. Más que nunca, la tecnología necesita personas formadas en humanidades, ciencias sociales y con algo más que una dosis media de sentido común.
  • Por último, y quizá lo más importante, la humildad nos servirá mejor que la confianza en nosotros mismos.

Estamos entrando en una nueva era. Tenemos que aprender juntos.

¿Quieres saber más de la IA responsable de Microsoft? En DQS/ te asesoramos. ¿Por qué no nos preguntas cómo podemos ayudarte?

Toda la información (en inglés) la puedes encontrar en el blog de Microsoft: Meeting the AI moment: advancing the future through responsible AI

Publicaciones Similares

¿Te ha parecido interesante? ¿Tienes dudas sobre el contenido?
Para cualquier pregunta ponte en contacto conmigo.