Encuentre aquí su software

Busca simples


Busca Avançada

Tips de Microsoft para lograr adoptar IA Responsable en las compañías

Publicado por Redacción Portal ERP Colombia em 19/02/2025 em Noticias

Compartir:

La IA generativa ha comenzado a transformar a muchas industrias, pero las empresas a menudo luchan con cómo crear e implementar herramientas de IA seguras.

 

Sarah Bird, directora de productos de IA Responsable en Microsoft. Foto: cortesía. Portal ERP Colombia.

 

La IA generativa ha comenzado a transformar a muchas industrias, pero las empresas a menudo luchan con cómo crear e implementar herramientas de IA seguras a medida que la tecnología evoluciona. A los líderes les preocupa el riesgo de que la IA genere información incorrecta o dañina, filtre datos confidenciales, sea secuestrada por atacantes o viole las leyes de privacidad, y a veces están mal equipados para manejar los riesgos.

«Las organizaciones se preocupan por la seguridad junto con la calidad y el rendimiento de sus aplicaciones de IA», dice Sarah Bird, directora de productos de IA Responsable en Microsoft. «Pero muchos de ellos no entienden lo que tienen que hacer para que su IA sea fiable, o no tienen las herramientas para hacerlo».

Para cerrar la brecha, Microsoft proporciona herramientas y servicios que ayudan a los desarrolladores a crear y enviar sistemas de IA confiables, o una IA creada con la seguridad, la protección y la privacidad en mente. Las herramientas han ayudado a muchas organizaciones a lanzar tecnologías en entornos complejos y regulados de manera importante, desde un asistente de IA que resume los registros médicos de los pacientes hasta un chatbot de IA que brinda orientación fiscal a los clientes.

El enfoque también ayuda a los desarrolladores a trabajar de manera más eficiente, dice Mehrnoosh Sameki, gerente principal de productos de IA responsable en Microsoft.

«Es muy fácil llegar a la primera versión de una aplicación de IA generativa, pero la gente se ralentiza de manera drástica antes de que se ponga en marcha, porque tienen miedo de que pueda exponerlos a riesgos, o no saben si cumplen con las regulaciones y los requisitos», dice. «Estas herramientas aceleran la implementación y brindan tranquilidad a medida que avanza en las pruebas y protege su aplicación».

Las herramientas son parte de un método holístico que Microsoft proporciona para construir IA de manera responsable, perfeccionado por la experiencia en identificar, medir, administrar y monitorear el riesgo en sus propios productos, y asegurarse de que se realice cada paso. Cuando surgió la IA generativa, la empresa reunió a expertos en seguridad, protección, equidad y otras áreas para identificar los riesgos fundamentales y compartir documentación, algo que aún se hace hoy en día a medida que cambia la tecnología. A continuación, desarrolló un enfoque exhaustivo para mitigar el riesgo y herramientas para ponerlo en práctica.

Te puede interesar: Amadeus y Microsoft impulsan la innovación en viajes con alianza estratégica

El enfoque refleja el trabajo de un Equipo Rojo de IA que identifica riesgos emergentes como alucinaciones y ataques de prompt, los investigadores que estudian deepfakes, expertos en medición que desarrollaron un sistema para evaluar la IA, e ingenieros que construyen y refinan barandillas de seguridad. Las herramientas incluyen el marco de código abierto PyRIT para que los equipos rojos identifiquen los riesgos, evaluaciones automatizadas en Azure AI Foundry para la medición y el seguimiento continuos de los riesgos, y seguridad del contenido de Azure AI para detectar y bloquear entradas y salidas dañinas.

«Utilizamos un enfoque de defensa en profundidad con muchas capas que protegen contra diferentes tipos de riesgos, y le damos a las personas todas las piezas para hacer este trabajo por sí mismas», dice Bird.

Para la empresa de preparación de impuestos que creó un chatbot de orientación, la capacidad de corregir las alucinaciones de la IA fue en particular importante para proporcionar información precisa, dice Sameki. La compañía también hizo que su chatbot fuera más seguro y privado con filtros que bloquean ataques rápidos, contenido dañino e información de identificación personal.

Hacer que nuestros propios sistemas de IA sean confiables es fundamental en lo que hacemos, y queremos empoderar a los clientes para que hagan lo mismo.

Sarah Bird, directora de productos de IA Responsable

Ella dice que la organización de atención médica que creó el asistente de resumen estaba en especial interesada en las herramientas para mejorar la precisión y crear un filtro personalizado para asegurarse de que los resúmenes no omitieran información clave.

«Muchas de nuestras herramientas ayudan como herramientas de depuración para que puedan entender cómo mejorar su aplicación», dice Sameki. «Ambas compañías pudieron implementar más rápido y con mucha más confianza».

Microsoft también ayuda a las organizaciones a mejorar su gobernanza de IA, un sistema para rastrear y compartir detalles importantes sobre el desarrollo, la implementación y el funcionamiento de una aplicación o modelo. Disponible en versión preliminar privada en Azure AI Foundry, Informes de IA brindará a las organizaciones una plataforma unificada para colaborar, cumplir con un número creciente de regulaciones de IA y documentar los conocimientos de evaluación, los riesgos potenciales y las mitigaciones.

«Es difícil saber que todas las piezas funcionan si no se cuenta con la gobernanza adecuada», dice Bird. «Nos aseguramos de que los sistemas de IA de Microsoft cumplan con la normativa, y compartimos las mejores prácticas, herramientas y tecnologías que ayudan a los clientes en su viaje de cumplimiento».

 

Publicado por Redacción Portal ERP Colombia em 19/02/2025 em Noticias

Para hacer tu experiencia más agradable, utilizamos cookies para almacenar datos sobre cómo usas Portal ERP. Consulta nuestros 'Términos de Uso y Política de Privacidad' para saber más. Al hacer clic en 'Aceptar', eres consciente de la optimización del sitio mediante el uso de cookies.