La sécurité de l'IA doit être une priorité pour les programmes d'expérience

La sécurité de l'IA doit être une priorité pour les programmes d'expérience

Les technologies d'IA émergentes offrent de grandes possibilités de transformer la façon dont les entreprises peuvent offrir des expériences aux clients et aux employés, mais elles s'accompagnent également de sérieuses questions de sécurité. Sur Medallia, nos priorités absolues sont la confidentialité et la sécurité des données de nos clients et la garantie d'une utilisation responsable de ces données.

Medallia forme et utilise des modèles d'intelligence artificielle (IA) depuis plus de 15 ans avec l'analyse de texte et l'analyse de la parole - y compris la transcription de la parole en texte - pour des entreprises dans des secteurs sensibles tels que les services financiers, les assurances et les soins de santé, ainsi que pour des agences gouvernementales. 

Plus d'un million d'utilisateurs actifs utilisent chaque semaine ces solutions alimentées par l'IA dans presque tous les secteurs d'activité pour comprendre et offrir des expériences personnalisées aux clients et aux employés. Aujourd'hui, nous avons annoncé quatre solutions d'IA générative révolutionnaires à Experience '24 pour accélérer ces efforts. Parce que nous nous concentrons sur l'IA depuis aussi longtemps que nous le faisons, les considérations de sécurité sont - et seront toujours - fondamentales dans la façon dont nous concevons et mettons en œuvre les modèles d'IA.

Lorsque vous cherchez à mettre en œuvre les dernières et meilleures méthodes d'IA dans vos programmes d'expérience, il est essentiel de comprendre les risques qu'un modèle pourrait poser pour la sécurité des données que votre entreprise traite. 

Voici quelques-unes des questions que vous devriez vous poser et poser à votre fournisseur potentiel de solutions d'IA pour vous donner une idée de la façon dont il envisage la sécurité de l'IA.

Sécurité des données : Où vont mes données ? Qui les utilise ?

Certains grands modèles linguistiques (LLM) ou d'autres modèles complexes peuvent nécessiter que vos données quittent vos propres centres de données pour être analysées dans ceux qui sont gérés par le propriétaire du modèle. Lorsque les données sortent de votre centre de données pour entrer dans celui d'un tiers, les attaquants ont la possibilité d'intercepter ces données et la sécurité de vos données est soumise aux contrôles de sécurité mis en œuvre par le tiers. 

Mais il existe également d'autres risques de fuite de données. Les données peuvent "fuir" à la source ou chez les sous-traitants d'un tiers. Plus votre réseau s'étend, plus le risque de fuite de données augmente. Par conséquent, le flux de vos données - d'où elles viennent et où elles vont - et les contrôles de sécurité au repos et en transit sont extrêmement importants lorsqu'il s'agit de déterminer le degré de sécurité réel de vos données lorsque vous utilisez des modèles d'IA. 

Risques liés aux modèles : À quoi servent mes données ? Comment sont-elles utilisées ?

Dans un monde où les données seraient idéalement sécurisées, les entreprises construiraient des modèles propriétaires en interne, les entraîneraient sur leurs propres données et empêcheraient ces données de quitter leurs centres de données. Malheureusement, l'élaboration de modèles d'IA propriétaires conçus spécifiquement pour les données et les systèmes d'une seule entreprise est excessivement longue et coûteuse, en particulier pour les entreprises qui en sont à leurs débuts dans le domaine de l'IA. 

Pour atténuer ces risques, de nombreuses organisations peuvent choisir d'utiliser des modèles open-source internes - des modèles open-source hébergés dans leurs propres centres de données. Même avec des pipelines de données extrêmement sécurisés, il subsiste des risques : par exemple, des modèles formés sur du contenu protégé par des droits d'auteur, des modèles qui ne sont plus pris en charge ou mis à jour, des modèles utilisant une technologie obsolète, etc. Ces risques sont liés à un autre type de risque de sécurité : la stabilité des modèles.

Comment atténuer les risques que l'IA fait peser sur la sécurité de mes données ?

Que devez-vous donc faire, en tant qu'entreprise, pour atténuer les risques associés à la sécurité des modèles d'IA ? La réponse est de choisir des partenaires qui sont conscients de ces risques et qui consacrent activement à leurs plateformes des ressources en matière de conception de modèles, de contrats juridiques, de sécurité des données, de conformité et d'autres ressources relatives à la sécurité.

Par exemple, nos normes élevées en matière de stockage des données comprennent le cryptage au repos, un contrôle d'accès strict, des politiques de conservation des données, le droit de suppression et la conformité aux normes internationales de sécurité des données, telles que la norme ISO 27001. Que signifie tout cela ? Cela signifie que nous respectons les normes de sécurité les plus strictes, notamment en veillant à ce que les données soient cryptées, qu'elles ne soient conservées que pendant une durée déterminée et qu'elles puissent être supprimées sur demande. 

Medallia se conforme également à un certain nombre de certifications et d'exigences de sécurité extrêmement strictes, ainsi qu'à des normes de sécurité propriétaires qui ne sont pas couvertes par la réglementation. Lorsqu'ils utilisent nos modèles d'IA - analyse de texte, analyse de la parole, conversion de la parole en texte et tout ce qui est alimenté par ces modèles - les entreprises, les agences gouvernementales et les particuliers sont protégés par de nombreuses couches de sécurité, jusqu'à la manière dont nous concevons nos produits d'IA.

En outre, nous nous attaquons à ces questions de plusieurs manières, notamment :

1. Mettre en œuvre des normes élevées en matière de sécurité du stockage et de la transmission des données, en s'alignant sur les meilleures normes telles que ISO 27001 et SOC 2.

2. S'aligner sur les normes de sécurité de l'IA et les meilleures pratiques recommandées par le cadre de gestion des risques de l'IA du National Institute of Standards and Technology - également connu sous le nom de NIST AI RMF - et le cadre ISO/IEC 23053 pour les systèmes d'IA utilisant l'apprentissage automatique (ML), qui comptent parmi les normes mondiales les plus rigoureuses.

3. Création d'un conseil de modération interne de l'IA chargé de superviser le développement de tous les produits d'IA à l'adresse Medallia. 

4. Lancement d'un comité consultatif externe sur l'IA qui comprendra des représentants des communautés de clients et de partenaires de Medallia et qui se concentrera sur l'utilisation responsable et éthique de l'IA ainsi que sur l'échange d'enseignements, de défis et de bonnes pratiques.

Deuxièmement, les vendeurs doivent toujours être transparents sur la manière dont ils utiliseront vos données dans les contrats qui les lient à vous. Ils doivent vous demander explicitement votre consentement pour les types de données qu'ils utiliseront et dans quel but. Medallia s'assure que les clients donnent un consentement clair dans les contrats que nous concluons avec eux. Lorsque nous modifions quoi que ce soit concernant l'utilisation des données, nous en informons nos clients à l'avance. Nous n'enverrons jamais vos données à un sous-traitant ambigu ou à un endroit pour lequel vous n'avez pas donné votre accord préalable dans le cadre du contrat.

Le résultat de tout cela est une base solide et sécurisée pour les modèles d'IA passés, présents et futurs, ainsi que pour la structure globale de la plateforme de gestion de l'expérience de Medallia. Notre engagement à créer des analyses et des rapports démocratisés, personnalisés et sécurisés pour les entreprises nous oblige à être à l'avant-garde des processus et des réglementations en matière de sécurité. Vous bénéficiez de tous les avantages de ce travail, tout en sachant que vous avez un acteur responsable investi dans l'avenir de vos programmes d'expérience alimentés par l'IA. 

La sécurité des données doit être primordiale pour votre fournisseur d'IA

La sécurité des données est essentielle lors du choix d'un fournisseur d'IA. À l'adresse Medallia , nous avons appris cela en travaillant dans des secteurs sensibles au cours des deux dernières décennies. La protection des données est au cœur de notre approche du développement et de la fourniture de logiciels. Lorsque l'on envisage des solutions d'IA, il est essentiel d'interroger les fournisseurs potentiels sur leurs mesures de sécurité.

Les questions relatives à la confidentialité des données, aux risques liés aux modèles et aux considérations éthiques doivent guider votre évaluation. Il est essentiel de comprendre où vont vos données et comment elles sont utilisées. Pour atténuer les risques, il faut choisir des fournisseurs qui accordent la priorité à la sécurité, à la conformité et à la transparence. Medallia Par exemple, le site Web de l'entreprise, le site Web de l'entreprise, le site Web de l'entreprise, le site Web de l'entreprise, le site Web de l'entreprise, le site Web de l'entreprise, le site Web de l'entreprise, le site Web de l'entreprise, etc.

L'intégration de l'IA dans vos programmes d'expérience est une démarche puissante, mais elle doit être effectuée avec précaution. Medallia fournit non seulement des capacités d'IA de pointe, mais s'engage à ce que la confidentialité et la sécurité des données de nos clients, ainsi que l'utilisation responsable de ces données, soient nos principales priorités.


Auteur

Scot Gorman

Scot se concentre sur la sécurité de l'IA pour Medallia. Il a une expérience dans le développement de nouveaux programmes pour soutenir des problèmes complexes d'informatique, de SRE et de sécurité à l'échelle. Scot participe également à des conversations externes liées à la mise en œuvre éthique de l'IA. Il est membre du Conseil de modération de l'IA de Medallia, chargé de superviser la mise en œuvre et l'amélioration continue de nos initiatives axées sur l'intelligence artificielle. En tant qu'apprenant permanent élevé par des éducateurs, il aime partager ses connaissances le plus largement possible afin de contribuer à la sécurité et à la protection de la vie privée pour tous.
POSTES CONNEXES