< Blog

La seguridad de la IA debe ser una prioridad para los programas de experiencia

February 12, 2024 EXPERIENCIA DEL CLIENTE

By Medallia

Las emergentes tecnologías de inteligencia artificial ofrecen grandes oportunidades para transformar cómo las empresas pueden ofrecer experiencias de clientes y empleados, pero también plantean serias preguntas de seguridad. En Medallia, nuestras principales prioridades son la privacidad y seguridad de los datos de nuestros clientes y garantizar el uso responsable de esos datos.

Medallia ha estado entrenando y utilizando modelos de inteligencia artificial (IA) durante más de 15 años con Text Analytics y Speech Analytics, incluida la transcripción de voz a texto, para empresas en industrias sensibles como servicios financieros, seguros y atención médica, así como para agencias gubernamentales.

Más de un millón de usuarios activos cada semana utilizan estas soluciones impulsadas por IA en casi todas las industrias para comprender y ofrecer experiencias personalizadas a clientes y empleados. Y hoy, anunciamos cuatro soluciones innovadoras de IA generativa en Experience '24 para acelerar esos esfuerzos. Debido a que nos hemos centrado en la IA durante tanto tiempo como lo hemos hecho, las consideraciones de seguridad son —y siempre serán— fundamentales para cómo diseñamos e implementamos modelos de IA.

Cuando busque implementar los métodos de IA más recientes y avanzados en sus programas de experiencia, es fundamental comprender los riesgos que un modelo podría plantear para la seguridad de los datos que su empresa maneja.

Veamos algunas de las preguntas que debería hacerse a sí mismo y a su posible proveedor de soluciones de IA para tener una idea de cómo piensan en la seguridad de la IA.

Seguridad de datos: ¿A dónde va mi información? ¿Quién la utiliza?

Algunos modelos de lenguaje grandes (LLM) u otros modelos complejos pueden requerir que sus datos salgan de sus propios centros de datos para su análisis en los que son operados por quien posee el modelo. Cuando los datos fluyen "fuera" de su centro de datos y "dentro" de uno de terceros, eso deja oportunidades para que los atacantes intercepten esos datos y deja la seguridad de sus datos sujeta a los controles de seguridad implementados por el tercero.

Pero también existen otros riesgos de fuga de datos. Los datos pueden "filtrarse" en la fuente o en los subprocesadores de un tercero. Cuanto más se expande su red, mayor es el riesgo de fuga de datos. Por lo tanto, el flujo de sus datos —de dónde provienen y hacia dónde van— y los controles de seguridad en reposo y en tránsito son extremadamente importantes al considerar cuán seguros están realmente sus datos cuando se utilizan modelos de IA.

Riesgos del modelo: ¿Para qué se está utilizando mi información? ¿Cómo se está utilizando?

En un mundo idealmente seguro en términos de datos, las empresas construirían modelos propietarios internos, los entrenarían con sus propios datos y evitarían que esos datos salgan de sus centros de datos. Desafortunadamente, construir modelos de IA propietarios específicamente para los datos y sistemas de una sola empresa es prohibitivamente lento y costoso, especialmente para aquellas que están en las primeras etapas de su viaje en IA.

Para mitigar estos riesgos, muchas organizaciones pueden optar por emplear modelos de código abierto internos, es decir, modelos de código abierto alojados en sus propios centros de datos. Incluso con canalizaciones de datos extremadamente seguras, todavía existen riesgos; por ejemplo, modelos entrenados con contenido protegido por derechos de autor, modelos que ya no reciben soporte o actualizaciones, modelos que utilizan tecnología obsoleta, y así sucesivamente. Estos riesgos están relacionados con otro tipo de riesgo de seguridad: la estabilidad del modelo.

¿Cómo puedo mitigar los riesgos para la seguridad de mis datos causados por la IA?

Entonces, ¿qué debería hacer usted, la empresa, para mitigar estos riesgos asociados con la seguridad de los modelos de IA? La respuesta es elegir socios que sean conscientes de estos riesgos y dediquen activamente el diseño de modelos, contratos legales, seguridad de datos, cumplimiento y otros recursos relevantes para la seguridad de sus plataformas.

Por ejemplo, nuestros altos estándares para el almacenamiento de datos incluyen cifrado en reposo, control de acceso estricto, políticas de retención de datos, derecho a eliminar y cumplimiento con estándares internacionales de seguridad de datos, como ISO 27001. ¿Qué significa todo eso? Significa que cumplimos con los más altos estándares de seguridad, lo que incluye garantizar que los datos estén cifrados, se retengan solo durante un tiempo determinado y puedan eliminarse bajo solicitud.

Medallia también mantiene el cumplimiento con varios certificados y requisitos de seguridad extremadamente estrictos además de estándares de seguridad propietarios no cubiertos por regulaciones. Al utilizar nuestros modelos de IA — Text Analytics, Speech Analytics, transcripción de voz a texto y cualquier cosa alimentada por estos modelos—, las empresas, agencias gubernamentales e individuos están protegidos por muchas capas de seguridad, incluso en cómo diseñamos nuestros productos de IA.

Además de esto, abordamos estos problemas de muchas maneras, incluyendo:

1. Implementando altos estándares para la seguridad del almacenamiento y transmisión de datos, alineados con las mejores normas como ISO 27001 y SOC 2.

2. Alineándonos con los estándares de seguridad de IA y las mejores prácticas recomendadas por el Marco de Gestión de Riesgos de IA del Instituto Nacional de Normas y Tecnología, también conocido como NIST AI RMF, y el Marco ISO/IEC 23053 para Sistemas de IA que Utilizan Aprendizaje Automático (ML), algunos de los estándares globales más sólidos.

3. Creando un Consejo Interno de Moderación de IA responsable de supervisar todo el desarrollo de productos de IA en Medallia.

4. Lanzando una Junta Asesora Externa de IA que incluirá la participación de la comunidad de clientes y socios de Medallia, centrada en el uso responsable y ético de la IA, así como en el intercambio de aprendizajes, desafíos y mejores prácticas.

En segundo lugar, los proveedores siempre deben ser transparentes con respecto a cómo utilizarán sus datos en sus contratos con ellos. Deben solicitar explícitamente su consentimiento para los tipos de datos que utilizarán y para qué propósito. Medallia asegura que los clientes den un consentimiento claro en nuestros contratos con ellos. Cuando cambiamos algo sobre cómo se están utilizando los datos, alertamos a nuestros clientes con anticipación. Nunca enviaremos sus datos a un subprocesador ambiguo o a cualquier lugar no consentido previamente bajo los términos del contrato.

El resultado de todo esto es una sólida y segura base para los modelos de IA pasados, presentes y futuros, así como la estructura general de la plataforma de gestión de experiencias de Medallia. Nuestra dedicación a construir análisis y reportes democratizados, personalizados y seguros para empresas a gran escala nos exige estar a la vanguardia de los procesos y regulaciones de seguridad. Usted obtiene todos los beneficios de ese trabajo, sabiendo además que tiene un interlocutor responsable invertido en el futuro de sus programas de experiencia impulsados por IA.

La seguridad de los datos debe ser primordial para su proveedor de IA

La seguridad de los datos es esencial al elegir un proveedor de IA. Nosotros en Medallia hemos aprendido esto trabajando en sectores sensibles durante las últimas dos décadas. Salvaguardar los datos es el núcleo de cómo abordamos el desarrollo y la entrega de software. Al considerar soluciones de IA, es vital indagar sobre las medidas de seguridad de los posibles proveedores.

Preguntas sobre la privacidad de los datos, los riesgos del modelo y las consideraciones éticas deben guiar su evaluación. Comprender dónde van sus datos y cómo se utilizan es crucial. Mitigar los riesgos requiere seleccionar proveedores que prioricen la seguridad, el cumplimiento y la transparencia. Medallia, por ejemplo, se adhiere a rigurosos estándares de protección de datos, cumple con regulaciones internacionales y garantiza el consentimiento explícito del cliente.

Incorporar la IA en sus programas de experiencia es un movimiento poderoso, pero debe hacerse con cuidado. Medallia no solo proporciona capacidades de IA de vanguardia, sino también un compromiso de que la privacidad de los datos de nuestros clientes, la seguridad y el uso responsable de esos datos son nuestras principales prioridades.

AUTHOR

Medallia