En su segundo informe de Transparencia sobre IA Responsable, la organización detalla cómo ha fortalecido sus capacidades para anticipar riesgos, adaptarse a nuevas regulaciones y acompañar el desarrollo de aplicaciones de alto impacto, consolidando así un modelo de implementación responsable de la IA.
El aumento acelerado en la adopción de la inteligencia artificial en diversas industrias a nivel global plantea el reto de garantizar su desarrollo e implementación de manera segura y ética. En este contexto, Microsoft presentó su Segundo Informe Anual de Transparencia de IA Responsable, que recoge los avances, aprendizajes y compromisos asumidos por la compañía durante un año marcado por la expansión de la IA generativa, la aparición de nuevas regulaciones y el fortalecimiento de prácticas orientadas a generar confianza.
La edición 2025 ofrece una mirada concreta de cómo la organización respondió a las crecientes exigencias en torno al uso responsable de esta tecnología Con inversiones clave, innovaciones en gestión de riesgos y avances en gobernanza para la construcción de una IA confiable.
• Innovaciones para una IA Responsable Durante el último año, la compañía fortaleció sus herramientas para evaluar y mitigar riesgos en modalidades como imágenes, audio y video, e incorporó soporte para sistemas semiautónomos. Estas acciones representan un avance estratégico en la evolución de la gobernanza de la IA y reflejan una inversión orientada al desarrollo de tecnologías más seguras.
• Microsoft consolidó un enfoque proactivo frente a marcos normativos emergentes, como la Ley de IA de la Unión Europea. A través de un programa integral de IA responsable, la organización ha puesto a disposición de sus clientes herramientas y recursos que les permiten operar dentro de estos marcos, reducir barreras regulatorias y fortalecer su preparación a nuevas exigencias legales.
• Microsoft registró un crecimiento en su acompañamiento a sectores sensibles como la salud y las ciencias, donde el uso de IA requiere una gestión temprana de riesgos. Además, destacó la creación del AI Frontiers Lab como una iniciativa clave para la investigación aplicada que aporta a la construcción de sistemas más seguros, eficientes y responsables.
• La compañía mantiene evaluaciones especializadas para revisar modelos de alto impacto y mayor riesgo, incluidos todos los integrados en Azure OpenAI y las versiones del modelo Phi. Para respaldar este proceso, implementó una herramienta que centraliza los requisitos del Estándar de IA Responsable y mejora la documentación técnica.
Compromisos a futuro
Según la Encuesta de IA Responsable de Microsoft de IDC, que recopiló información sobre las actitudes organizacionales y el estado de la IA responsable, más del 30% de los encuestados señala la falta de soluciones de gobernanza y gestión de riesgos como la principal barrera para adoptar y escalar la IA. A partir de esto, Microsoft ha trabajado de manera activa con actores globales para impulsar estándares coherentes relacionados con estas temáticas, aportando al diseño de políticas públicas y a la armonización normativa en diferentes regiones. Una labor que se alinea con una visión compartida de que el desarrollo de esta herramienta debe regirse por principios éticos y prácticas de implementación responsables.
Consciente de que la confianza es esencial para una adopción segura y sostenible, la compañía reafirma su compromiso en tres frentes clave: el desarrollo de herramientas más ágiles para la gestión de riesgos, el fortalecimiento de una gobernanza compartida a lo largo de toda la cadena de valor y la promoción de estándares comunes para la evaluación de impactos.
Estos pilares constituyen la base de su hoja de ruta para garantizar que la IA genere beneficios reales y responsables para las personas, las organizaciones y la sociedad en su conjunto.
Conoce el informe completo en: Nuestro Informe de Transparencia de IA Responsable 2025.