Microsoft ha lanzado un innovador sistema de seguridad diseñado para detectar alucinaciones en las aplicaciones de inteligencia artificial (IA) de sus clientes. Esta solución, integrada en las herramientas Azure AI Studio, tiene como objetivo proteger a los usuarios de posibles ataques maliciosos y respuestas no admitidas, conocidas como alucinaciones.
Microsoft ha lanzado un innovador sistema de seguridad diseñado para detectar alucinaciones en las aplicaciones de inteligencia artificial (IA) de sus clientes. Esta solución, integrada en las herramientas Azure AI Studio, tiene como objetivo proteger a los usuarios de posibles ataques maliciosos y respuestas no admitidas, conocidas como alucinaciones.

Microsoft ha lanzado un innovador sistema de seguridad diseñado para detectar alucinaciones en las aplicaciones de inteligencia artificial (IA) de sus clientes. Esta solución, integrada en las herramientas Azure AI Studio, tiene como objetivo proteger a los usuarios de posibles ataques maliciosos y respuestas no admitidas, conocidas como alucinaciones.

Sarah Bird, directora de productos de inteligencia artificial responsable de Microsoft, explicó en una entrevista con The Verge que estas nuevas características están diseñadas para ser fácilmente accesibles para los clientes de Azure, sin necesidad de contratar equipos especializados para probar los servicios de IA. Las herramientas, potenciadas por LLM, pueden detectar vulnerabilidades potenciales, monitorizar alucinaciones «plausibles pero no admitidas» y bloquear solicitudes maliciosas en tiempo real.

Estas medidas de seguridad buscan prevenir controversias generadas por respuestas no deseadas o inapropiadas, como las recientes relacionadas con imágenes falsas de celebridades o situaciones históricamente inexactas. Para lograrlo, Microsoft ha implementado tres características principales: Escudos de Solicitud, Detección de Fundamentación y evaluaciones de seguridad, disponibles en vista previa en Azure AI. Además, están en desarrollo dos características adicionales para dirigir modelos hacia salidas seguras y rastrear solicitudes problemáticas.

Uno de los aspectos destacados de esta solución es su capacidad para adaptarse a diferentes contextos de uso, ya sea que el usuario esté escribiendo una solicitud o que el modelo esté procesando datos de terceros. El sistema de monitoreo evalúa la entrada del usuario en busca de palabras prohibidas o solicitudes ocultas antes de enviarla al modelo, y luego verifica la respuesta del modelo en busca de posibles alucinaciones.

Bird también enfatizó que estas características de seguridad están integradas con modelos populares como GPT-4 y Llama 2. Sin embargo, para los usuarios de modelos menos conocidos, puede ser necesario configurar manualmente las características de seguridad.

Esta iniciativa refleja el compromiso de Microsoft con la seguridad y la expansión de la IA. La empresa ha estado trabajando activamente para fortalecer la seguridad de su software, especialmente en el contexto del creciente interés de los clientes en acceder a modelos de IA a través de Azure. Además, Microsoft ha ampliado su oferta de modelos de IA, recientemente firmando un acuerdo exclusivo con la empresa francesa de IA Mistral.

Con estas medidas, Microsoft busca brindar a sus clientes una experiencia de IA más segura y confiable, protegiendo contra posibles amenazas y promoviendo un uso ético y responsable de la tecnología.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like

Programa Análisis de Entorno. Suscríbete por Youtube @analisisdeentorno

Nuevo Programa. Análisis de Entorno. 03/02/2026

The 10 interesting benefits of listening to classical music

Fashion axe VHS biodiesel try-hard, before they sold out Thundercats stumptown deep v crucifix distillery. Fixie meditation ennui synth disrupt. Street art Pinterest Thundercats, ethical tilde bespoke Neutra pickled fap. Plaid YOLO 8-bit fanny pack

Instagram embed example

This is an example of instagram embedding of image and video. Hoodie…