경험 프로그램에서 우선시되어야 하는 AI 보안
2024년 2월 6일
고객 경험
새로운 AI 기술은 기업이 고객과 직원 경험을 제공하는 방식을 혁신할 수 있는 좋은 기회를 제공하지만, 동시에 심각한 보안 문제를 수반하기도 합니다. Medallia 에서는 고객의 데이터 프라이버시와 보안을 최우선으로 생각하며 데이터의 책임감 있는 사용을 보장합니다.
Medallia 는 15년 이상 금융 서비스, 보험, 의료 등 민감한 산업 분야의 비즈니스와 정부 기관을 위해 텍스트 분석 및 음성 분석 (음성-텍스트 변환 포함)을 통해 인공지능(AI) 모델을 훈련하고 사용해 왔습니다.
거의 모든 산업 분야에서 매주 100만 명 이상의 활성 사용자가 이러한 AI 기반 솔루션을 활용하여 고객과 직원에게 개인화된 경험을 이해하고 전달하고 있습니다. 그리고 오늘 Experience '24에서 이러한 노력을 가속화하기 위한 네 가지 획기적인 제너레이티브 AI 솔루션을 발표했습니다. 오랫동안 AI에 집중해 왔기 때문에 보안에 대한 고려사항은 Facebook이 AI 모델을 설계하고 구현하는 방식에서 항상 기본이 되어 왔고 앞으로도 그럴 것입니다.
경험 프로그램에 최신의 뛰어난 AI 방법을 구현하고자 할 때는 모델이 비즈니스에서 처리하는 데이터의 보안에 미칠 수 있는 위험을 이해하는 것이 중요합니다.
AI 보안에 대해 어떻게 생각하는지 알 수 있도록 자신과 잠재적인 AI 솔루션 공급업체에 물어봐야 할 몇 가지 질문을 정리해 보겠습니다.
데이터 보안: 내 데이터는 어디로 가나요? 누가 사용하나요?
일부 대규모 언어 모델(LLM)이나 기타 복잡한 모델은 분석을 위해 데이터를 자체 데이터 센터를 벗어나 해당 모델을 소유한 사람이 운영하는 데이터 센터로 보내야 할 수 있습니다. 데이터가 자사 데이터 센터에서 타사 데이터 센터로 '유출'되어 '유입'되면 공격자가 해당 데이터를 가로챌 수 있는 기회가 생기고 데이터 보안이 타사에서 구현한 보안 제어의 영향을 받게 됩니다.
하지만 다른 데이터 유출 위험도 존재합니다. 데이터는 소스 또는 타사의 하위 프로세서에서 '유출'될 수 있습니다. 네트워크가 확장될수록 데이터 유출의 위험도 커집니다. 따라서 AI 모델을 사용할 때 데이터의 보안 수준을 고려할 때 데이터의 흐름(데이터의 출처와 이동 경로)과 미사용 및 전송 중 보안 제어는 매우 중요합니다.
모델 위험: 내 데이터는 어떤 용도로 사용되나요? 어떻게 사용되고 있나요?
이상적인 데이터 보안 세상이라면 기업들은 자체 모델을 구축하여 자체 데이터로 학습시키고 해당 데이터가 데이터 센터를 벗어나지 않도록 할 것입니다. 하지만 안타깝게도 단일 기업의 데이터와 시스템을 위해 특별히 구축된 독점 AI 모델을 구축하는 것은 시간과 비용이 엄청나게 많이 소요되며, 특히 AI 도입 초기에 있는 기업의 경우 더욱 그렇습니다.
이러한 위험을 완화하기 위해 많은 조직은 자체 데이터 센터에서 호스팅되는 오픈 소스 모델인 사내 오픈 소스 모델을 채택할 수 있습니다. 매우 안전한 데이터 파이프라인을 사용하더라도 저작권이 있는 콘텐츠로 학습된 모델, 더 이상 지원되거나 업그레이드되지 않는 모델, 오래된 기술을 사용하는 모델 등의 위험은 여전히 존재합니다. 이러한 위험은 또 다른 유형의 보안 위험인 모델 안정성과 관련이 있습니다.
AI로 인한 데이터 보안 위험을 완화하려면 어떻게 해야 하나요?
그렇다면 기업은 AI 모델의 보안과 관련된 이러한 위험을 완화하기 위해 무엇을 해야 할까요? 정답은 이러한 위험을 인식하고 모델 설계, 법적 계약, 데이터 보안, 규정 준수 및 기타 보안 관련 리소스를 플랫폼에 적극적으로 투입하는 파트너를 선택하는 것입니다.
예를 들어, 데이터 저장에 대한 높은 기준에는 미사용 데이터 암호화, 엄격한 액세스 제어, 데이터 보존 정책, 삭제 권한, ISO 27001과 같은 국제 데이터 보안 표준 준수가 포함됩니다. 이 모든 것이 무엇을 의미할까요? 데이터를 암호화하고 정해진 기간 동안만 보관하며 요청 시 삭제할 수 있도록 보장하는 등 가장 높은 수준의 보안 표준을 준수한다는 의미입니다.
Medallia 또한 규정에서 다루지 않는 독점적인 보안 표준 외에도 매우 엄격한 여러 보안 인증 및 요구사항을 준수하고 있습니다. 텍스트 분석, 음성 분석, 음성 텍스트 변환, 그리고 이러한 모델에 의해 제공되는 모든 데이터는 기업, 정부 기관 및 개인이 당사의 AI 제품을 설계하는 방식에 이르기까지 다양한 보안 계층의 보호를 받습니다.
이 외에도 다음과 같은 다양한 방법으로 이러한 문제를 해결하고 있습니다:
1. ISO 27001 및 SOC 2와 같은 최상의 표준을 준수하여 데이터 저장 및 전송 보안에 대한 높은 표준을 구현합니다.
2. 가장 강력한 글로벌 표준인 미국 국립표준기술연구소 AI 위험 관리 프레임워크 (NIST AI RMF라고도 함) 및 머신러닝(ML)을 사용하는 AI 시스템을 위한 ISO/IEC 23053 프레임워크에서 권장하는 AI 보안 표준 및 모범 사례에 부합합니다.
3. Medallia 모든 AI 제품 개발을 감독하는 내부 AI 조정 위원회를 구성합니다.
4. 책임감 있고 윤리적인 AI 사용과 학습, 과제, 모범 사례 교환에 초점을 맞춘 외부 AI 자문 위원회를 발족하여 Medallia 고객 및 파트너 커뮤니티의 참여를 유도합니다.
둘째, 공급업체는 고객과의 계약에서 고객의 데이터를 어떻게 사용할 것인지 항상 투명하게 밝혀야 합니다. 어떤 유형의 데이터를 어떤 목적으로 사용할 것인지에 대해 명시적으로 동의를 구해야 합니다. Medallia 는 고객과의 계약에서 고객이 명확하게 동의할 수 있도록 보장합니다. 데이터 사용 방식에 대한 변경 사항이 있을 경우 고객에게 미리 알립니다. 당사는 모호한 하위 처리자 또는 계약 조건에 따라 이전에 동의하지 않은 곳으로 고객의 데이터를 전송하지 않습니다.
이 모든 노력의 결과로 과거, 현재, 미래의 AI 모델과 Medallia의 경험 관리 플랫폼의 전체 구조를 위한 견고하고 안전한 기반이 마련되었습니다. 기업 규모의 비즈니스를 위한 민주적이고 개인화된 안전한 분석 및 보고 기능을 구축하기 위해서는 보안 프로세스 및 규정의 최전선에 서야 합니다. 귀사는 AI 기반 경험 프로그램의 미래에 투자하는 책임감 있는 이해관계자가 있다는 것을 알면서 이러한 작업의 모든 이점을 누릴 수 있습니다.
AI 공급업체는 데이터 보안을 가장 중요하게 생각해야 합니다.
데이터 보안은 AI 공급업체를 선택할 때 필수적입니다. 저희( Medallia )는 지난 20년간 민감한 분야에서 일하면서 이 점을 배웠습니다. 데이터 보호는 소프트웨어 개발과 제공에 접근하는 방법의 핵심입니다. AI 솔루션을 고려할 때는 잠재적인 공급업체의 보안 조치를 조사하는 것이 중요합니다.
데이터 개인정보 보호, 모델 위험 및 윤리적 고려 사항에 대한 질문이 평가의 기준이 되어야 합니다. 데이터가 어디로 이동하고 어떻게 사용되는지 이해하는 것이 중요합니다. 위험을 완화하려면 보안, 규정 준수, 투명성을 우선시하는 공급업체를 선택해야 합니다. Medallia 예를 들어, 엄격한 데이터 보호 표준을 준수하고 국제 규정을 준수하며 명시적인 고객 동의를 보장하는 업체를 선택해야 합니다.
경험 프로그램에 AI를 통합하는 것은 강력한 조치이지만 신중하게 진행해야 합니다. Medallia 는 최첨단 AI 기능을 제공할 뿐만 아니라 고객의 데이터 프라이버시, 보안 및 책임감 있는 데이터 사용을 최우선 과제로 삼겠다는 약속을 지키고 있습니다.