エクスペリエンスプログラムでは、AIセキュリティを優先事項にする必要があります

エクスペリエンスプログラムでは、AIセキュリティを優先事項にする必要があります

新たなAI技術は、企業が顧客や従業員にどのような体験を提供できるかを変革する大きな機会を提供しますが、同時に重大なセキュリティ上の問題も伴います。Medallia では、お客様のデータのプライバシーとセキュリティ、そしてデータの責任ある利用を最優先事項としています。

Medallia は15年以上にわたり、金融サービス、保険、ヘルスケアなどのデリケートな業界の企業や政府機関向けに、音声からテキストへの書き起こしを含むText Analyticsと Speech Analyticsで 人工知能(AI)モデルをトレーニングし、採用してきました。 

毎週100万人以上のアクティブ・ユーザーが顧客や従業員を理解し、パーソナライズされた体験を提供するために、ほぼすべての業界でこれらのAI搭載ソリューションを活用して います。そして本日、当社はExperience '24において、こうした取り組みを加速させる画期的な4つのジェネレーティブAIソリューションを発表しました。当社がAIに注力してきたのと同様に、当社がAIモデルをどのように設計し、実装するかについては、セキュリティへの配慮が基本であり、今後も変わることはありません。

最新かつ最高のAI手法をエクスペリエンス・プログラムに導入しようとする場合、そのモデルがビジネスで扱うデータのセキュリティにもたらすリスクを理解することが極めて重要である。 

ここでは、AIセキュリティについてベンダーがどのように考えているのかを知るために、自分自身とAIソリューション・ベンダーの候補者に尋ねるべき質問の概要を説明しよう。

データセキュリティ私のデータはどこへ行くのか?誰が使うのか?

大規模な言語モデル(LLM)やその他の複雑なモデルの中には、解析のためにデータを自社のデータセンターから、そのモデルを所有するサードパーティのデータセンターに流さなければならないものがあります。データが自社のデータセンターからサードパーティのデータセンターに「流れる」場合、攻撃者がそのデータを傍受する機会が残ります。 

しかし、データ漏洩のリスクは他にもある。データはソースや第三者のサブプロセッサーで「漏れる」可能性がある。ネットワークが拡大すればするほど、データ漏洩のリスクは高まる。したがって、AIモデルを使用する場合、データがどこから来てどこへ行くのかというデータの流れと、静止時と転送時のセキュリティ管理は、データが本当に安全かどうかを検討する上で非常に重要です。 

モデルのリスク私のデータは何に使われているのか?どのように使用されているのか?

理想的なデータセキュアな世界では、企業は社内で独自のモデルを構築し、自社のデータでそれらを訓練し、そのデータが自社のデータセンターから出るのを防ぐだろう。しかし残念ながら、単一の企業のデータとシステム専用に構築された独自のAIモデルを構築することは、特にAIの旅の初期段階にある企業にとっては、法外な時間とコストがかかる。 

このようなリスクを軽減するために、多くの組織は社内のオープンソースモデル、つまり自社のデータセンターでホストされているオープンソースモデルを採用することを選ぶかもしれない。極めて安全なデータパイプラインを使用しても、リスクは存在する。例えば、著作権で保護されたコンテンツで学習されたモデル、サポートやアップグレードが終了したモデル、時代遅れのテクノロジーを使用したモデルなどである。これらのリスクは、もう一つのセキュリティリスクである「モデルの安定性」に関連しています。

AIがもたらすデータの安全性に対するリスクを軽減するには?

では、AIモデルのセキュリティに関連するこれらのリスクを軽減するために、ビジネスとして何をすべきなのだろうか?その答えは、こうしたリスクを認識し、モデル設計、法的契約、データ・セキュリティ、コンプライアンス、その他のセキュリティ関連リソースを積極的に自社のプラットフォームに割いているパートナーを選ぶことだ。

例えば、データ保管に関する当社の高い基準には、静止時の暗号化、厳格なアクセス制御、データ保持ポリシー、削除権、ISO 27001などの国際的なデータセキュリティ基準への準拠などが含まれます。これらのことは何を意味するのでしょうか?それは、データが暗号化され、一定期間のみ保持され、要求に応じて削除できることを保証することを含む、最高のセキュリティ基準に準拠していることを意味します。 

Medallia また、規制ではカバーされない独自のセキュリティ標準に加え、非常に厳格なセキュリティ認証や要件を数多く遵守しています。当社のAIモデル(テキスト解析、音声解析、音声合成、およびこれらのモデルから供給されるあらゆるもの)を使用する場合、企業、政府機関、および個人は、当社のAI製品の設計方法に至るまで、何重ものセキュリティによって保護されています。

これらに加えて、私たちはさまざまな方法でこれらの問題に取り組んでいる:

1.ISO 27001 やSOC 2 などの最良の基準に準拠した、データの保存と伝送のセキュリティに関する高水準の基準を導入する。

2.2.最も強固なグローバル標準の1つである米国標準技術局(National Institute of Standards and Technology)のAIリスク管理フレームワーク(NIST AI RMF)やISO/IEC 23053 Framework for AI Systems Using Machine Learning(ML)が推奨するAIセキュリティ標準やベストプラクティスに準拠する。

3.MedalliaすべてのAI製品開発を監督する社内AIモデレーション協議会の設立。 

4.Medallia 顧客およびパートナーコミュニティが参加する外部AIアドバイザリーボードを立ち上げ、AIの責任ある倫理的な利用、学習、課題、ベストプラクティスの交換に焦点を当てる。

第二に、ベンダーは常に、ベンダーとの契約において、お客様のデータをどのように使用するかについて透明性を保つ必要があります。ベンダーは、どのような種類のデータをどのような目的で使用するかについて、お客様の同意を明示的に求めるべきです。Medallia 、お客様との契約において明確な同意を得るようにしています。データの使用方法を変更する場合は、事前にお客様に通知します。当社は、あいまいなサブプロセッサーや、契約条件で事前に同意されていない場所にお客様のデータを送信することはありません。

この結果、Medalliaのエクスペリエンス・マネジメント・プラットフォームの全体的な構造だけでなく、過去、現在、未来のAIモデルのための堅牢で安全な基盤が構築されました。企業規模のビジネス向けに、民主化され、パーソナライズされた、安全な分析とレポートを構築することに専念するためには、セキュリティ・プロセスと規制の最前線に立つ必要があります。AIを活用したエクスペリエンス・プログラムの未来に投資する責任あるステークホルダーがいることを認識しながら、貴社はその作業の恩恵をすべて享受することができます。 

AIベンダーはデータセキュリティを最優先する必要がある

AIベンダーを選ぶ際、データ・セキュリティは不可欠である。私たちMedallia は、過去20年間、センシティブな分野で仕事をしてきて、このことを学びました。データを保護することは、ソフトウェアを開発し提供するアプローチの中核をなすものです。AIソリューションを検討する際には、ベンダーのセキュリティ対策を調査することが重要です。

データ・プライバシー、モデル・リスク、倫理的考慮事項についての質問が、あなたの評価の指針となるはずです。データの行き先と使用方法を理解することは非常に重要です。リスクを軽減するには、セキュリティ、コンプライアンス、透明性を優先するベンダーを選択する必要があります。Medallia例えば、Skypeは厳格なデータ保護基準を遵守し、国際的な規制に準拠し、顧客からの明確な同意を確保しています。

AIをエクスペリエンス・プログラムに組み込むことは強力な一手ですが、慎重に行う必要があります。Medallia 、最先端のAI機能を提供するだけでなく、顧客のデータプライバシー、セキュリティ、データの責任ある利用を最優先事項とすることをお約束します。


著者

Scot Gorman

スコットは、Medallia のAIセキュリティに重点を置いています。彼は、複雑なIT、SRE、セキュリティ問題を大規模にサポートするための新しいプログラムを開発する経歴を持っています。また、AIの倫理的実装に関する社外との対話にも参加している。彼はMedallia のAIモデレーション・カウンシルのメンバーであり、当社の人工知能主導のイニシアチブの実装と継続的な改善を監督する任務を担っている。教育者に育てられた絶え間ない学習者である彼は、誰もがセキュリティとプライバシーを確保できるよう、できるだけ広く知識を共有することを楽しんでいる。
関連記事