A medida que la IA avanza, todos tenemos un papel que desempeñar para que su impacto sea positivo en las organizaciones y comunidades de todo el mundo. Por ello, nuestro foco es ayudar a los clientes a usar y crear una IA confiable, es decir, que sea segura, vele por la privacidad y se encuentre protegida.
En Microsoft, tenemos el compromiso de garantizar una IA de confianza –Trustworthy AI– y, para ello, desarrollamos tecnología líder en la industria. Nuestras capacidades y compromisos van de la mano con el objetivo de garantizar que nuestros clientes y desarrolladores estén protegidos en todos los niveles.
A tenor de estos compromisos, hoy anunciamos nuevas capacidades en productos para mejorar la seguridad, protección y la privacidad de los sistemas de IA.
Seguridad. La seguridad es la principal prioridad en Microsoft, y la ampliación de nuestra Iniciativa de Futuro Seguro (SFI) enfatiza los compromisos de toda la empresa y nuestra responsabilidad para hacer que nuestros clientes estén más seguros. Esta semana anunciamos nuestro primer Informe de Progreso de la Iniciativa, con actualizaciones que abarcan ámbitos como la cultura, la gobernanza, la tecnología y las operaciones. De esta forma, cumplimos con nuestra promesa de priorizar la seguridad por encima de todo lo demás, guiados por tres principios: seguridad por diseño, seguridad por defecto y operaciones seguras. Además de nuestras propias soluciones, Microsoft Defender y Purview, nuestros servicios de IA incluyen controles de seguridad fundamentales, como funciones integradas para ayudar a evitar ataques de inyección de prompts e infracciones de derechos de autor. Hoy anunciamos dos nuevas capacidades:
- Evaluaciones en Azure AI Studio para facilitar estimaciones de riesgo proactivas.
- Transparencia en las consultas web que Microsoft 365 Copilot proporcionará para ayudar a los administradores y usuarios a comprender mejor cómo la búsqueda web mejora la respuesta de Copilot. (Próximamente).
Los clientes ya están utilizando nuestras capacidades de seguridad. Cummins, una empresa de 105 años de antigüedad conocida por su fabricación de motores y el desarrollo de tecnologías de energía limpia, recurrió a Microsoft Purview para reforzar la seguridad y la gobernanza de su información a través de la automatización de los procesos de clasificación, marcaje y el etiquetado de los datos. Otro caso es el de EPAM Systems, una empresa de ingeniería de software y consultoría empresarial, que implementó Copilot para Microsoft 365 para 300 usuarios debido a la protección de datos que les proporciona. J.T. Sodano, director senior de TI, señala que «teníamos mucha más confianza en Copilot para Microsoft 365, que en otros modelos de lenguaje grandes (LLM), porque sabemos que las mismas políticas de información y protección de datos que hemos configurado en Microsoft Purview aplican a Copilot».
Protección. En términos de seguridad y privacidad, los principios de IA responsable de Microsoft, que se establecieron en 2018, continúan guiando la forma en que construimos e implementamos la IA de forma segura en toda la empresa. En la práctica, esto implica el desarrollo, la realización de pruebas y la monitorización adecuada de los sistemas para evitar comportamientos indeseables, como contenido dañino, la inclusión de sesgos, uso indebido y otros riesgos no deseados. A lo largo de los años, hemos realizado inversiones significativas para crear una estructura de gobernanza, políticas, herramientas y los procesos necesarios para salvaguardar estos principios y desarrollar e implementar la Inteligencia Artificial de forma segura. En Microsoft, nos comprometemos a compartir con nuestros clientes nuestros aprendizajes en este viaje de defensa de nuestros principios de IA responsable. Utilizamos nuestras mejores prácticas y todo lo aprendido para proporcionar a las personas y organizaciones capacidades y herramientas para la creación de aplicaciones de IA que compartan los mismos altos estándares por los que nos esforzamos.
Hoy, compartimos nuevas funcionalidades para ayudar a los clientes a aprovechar los beneficios de la IA y mitigar los riesgos:
- Una capacidad de corrección en la función de detección de fundamentos de Microsoft Azure AI Content Safety, que ayuda a solucionar problemas de alucinación de la IA en tiempo real antes de que los usuarios los vean.
- Seguridad de contenido incrustado –Embedded Content Safety–, que permite a los clientes integrar Azure AI Content Safety en los dispositivos. Esto es importante para escenarios s en los que la conectividad a la nube de los dispositivos sea intermitente o no esté disponible.
- Nuevas evaluaciones para ayudar a los clientes a medir la calidad y relevancia de los resultados y la frecuencia con la que su aplicación de IA genera material protegido.
- Detección de material protegido por código se encuentra en la actualidad en versión preview en Azure AI Content Safety para ayudar a detectar contenido y código preexistentes. Esta funcionalidad ayuda a los desarrolladores a explorar el código fuente público en los repositorios de GitHub, lo que fomenta la colaboración y la transparencia, al tiempo que facilita la toma de decisiones de codificación en base a una mayor información.
Es sorprendente ver cómo los clientes de todos los sectores están utilizando ya las soluciones de Microsoft para crear aplicaciones de IA más seguras y fiables. Por ejemplo, Unity, una plataforma para juegos en 3D, ha utilizado Microsoft Azure OpenAI Service para crear Muse Chat, un asistente de IA que facilita el desarrollo de juegos. Muse Chat usa modelos de filtrado de contenido en Azure AI Content Safety para garantizar el uso responsable del software. Otro ejemplo es ASOS, conocido minorista del sector de la moda con sede en Reino Unido, que cuenta con casi 900 socios de marca, utilizó los mismos filtros de contenido integrados en Azure AI Content Safety para ofrecer interacciones de alta calidad a través de una aplicación de IA que ayuda a los clientes a encontrar nuevos looks.
También estamos viendo impacto en el ámbito educativo. Las Escuelas Públicas de la Ciudad de Nueva York colaboraron con Microsoft en el desarrollo de un sistema de chat seguro y adecuado para el contexto educativo, que ahora están probando en diferentes centros. De manera similar, el Departamento de Educación de Australia Meridional también introdujo la IA generativa en las aulas con EdChat, utilizando la misma infraestructura para garantizar la seguridad de alumnos y profesores.
Privacidad. Los datos son la base de la IA, y nuestra prioridad en Microsoft es ayudar a garantizar que los clientes estén protegidos y cumplan con las normativas a través de nuestros principios de privacidad, entre los que se encuentran el control de usuario, la transparencia y las protecciones legales y regulatorias. Sobre este tema, hoy anunciamos:
- Inferencia confidencial en versión preview en nuestro modelo Azure OpenAI Service Whisper, para que los clientes puedan desarrollar aplicaciones de IA generativa con privacidad verificable de extremo a extremo. La inferencia confidencial garantiza que los datos confidenciales de los clientes permanezcan seguros y privados durante el proceso de inferencia, que es cuando un modelo de IA entrenado realiza predicciones o decisiones basadas en nuevos datos. Esto es especialmente importante en sectores muy regulados, como la sanidad, los servicios financieros, el comercio minorista, la industria y la energía.
- La disponibilidad general de Azure Confidential VMs con GPUs NVIDIA H100 Tensor Core, que permite a los clientes asegurar los datos directamente en la GPU, basándose en nuestras soluciones de computación confidencial.Garantizan que los datos de los clientes permanezcan cifrados y protegidos en un entorno seguro para que nadie acceda a la información o al sistema sin permiso.
- Zonas de datos de Azure OpenAI para la UE y EE.UU. llegarán pronto. Se basan en la residencia de datos existente que proporciona Azure OpenAI Service al facilitar la administración del procesamiento y el almacenamiento de datos de las aplicaciones de IA generativa. Esta nueva funcionalidad ofrece a los clientes la flexibilidad de escalar aplicaciones de IA generativa en todas las regiones de Azure dentro de una geografía, al tiempo que les proporciona el control del procesamiento y el almacenamiento de datos dentro de la UE o los EE. UU.
Hemos observado un creciente interés y entusiasmo de los clientes por la informática confidencial y las GPU confidenciales, como es el caso del proveedor de seguridad de aplicaciones F5, que utiliza máquinas virtuales confidenciales de Azure con GPU NVIDIA H100 Tensor Core para crear soluciones de seguridad avanzadas impulsadas por IA, al tiempo que garantiza la confidencialidad de los datos que analizan sus modelos. Otro ejemplo es la corporación multinacional bancaria Royal Bank of Canada (RBC) que ha integrado la computación confidencial de Azure en su propia plataforma para analizar datos cifrados y preservar la privacidad de los clientes. Con la disponibilidad general de Azure Confidential VMs con GPU NVIDIA H100 Tensor Core, el banco ahora puede utilizar estas herramientas de IA avanzadas para trabajar de manera más eficiente y desarrollar modelos de IA más potentes.
Lograr más con una IA confiable
Todos necesitamos y esperamos una IA en la que podamos confiar. Hemos visto todo lo que es posible cuando las personas tienen las capacidades necesarias para usar la IA de una manera confiable, desde enriquecer las experiencias de los empleados y transformar los procesos empresariales, hasta reinventar la relación con el cliente y reimaginar nuestra vida cotidiana. Con las nuevas capacidades que anunciamos que mejoran la seguridad, la protección y la privacidad, continuamos ofreciendo a los clientes el poder de utilizar y crear soluciones de IA fiables que puedan ayudar a todas las personas y organizaciones del planeta a conseguir más.
En última instancia, Trustworthy AI abarca todo lo que hacemos en Microsoft y es esencial para nuestra misión, pues trabajamos para ofrecer más oportunidades, mayor confianza y proteger los derechos fundamentales, así como avanzar en la sostenibilidad en todo lo que hacemos.