인텔® Tiber™ Secure Federated AI
모델 정확도를 개선하는 동시에 민감한 데이터와 지식 재산을 보호하십시오.
현재 베타 사용 가능 – 비공개 데이터 기반 AI 모델 훈련을 지원하는 턴키 연합 학습 서비스
빌더는 강력하고 일반화 가능한 AI 모델을 만들기 위해 다양한 실제 데이터 세트를 필요로 하지만, 개인정보 보호 규정으로 인해 비공개 데이터와 민감한 데이터를 기반으로 한 데이터 세트를 확보하기는 쉽지 않습니다. 연합 학습은 이에 대한 해결책이 될 수 있지만, 아키텍처를 확장, 관리, 운영 및 배포하는 것이 어려울 수 있습니다.
인텔이 연합 학습을 사용하여 비공개 데이터로 AI 모델을 안전하게 훈련할 수 있도록 설계된 턴키 서비스인 인텔 Tiber Secure Federated AI를 개발한 이유도 이러한 문제 때문이었습니다.
시작하기
모델 정확도를 개선하는 동시에 민감한 데이터와 지식 재산을 보호하십시오.
인텔® Tiber™ 트러스트 서비스
전체 포트폴리오에 대해 자세히 알아보십시오.
컨설턴트에 문의
인텔 담당자와 대화를 시작하여 고유한 요구 사항에 맞는 최고의 배포에 대해 논의해 보십시오.
제품 혜택
인텔 Tiber Secure Federated AI는 하드웨어 기반 보안, 암호화, 알고리즘 기법을 사용하여 모델과 데이터 모두에 대해 높은 수준의 보안을 보장하는 데 도움이 됩니다. OpenFL의 턴키 구현을 공급함으로써 이 서비스는 고객에게 몇 가지 주요 이점을 제공합니다.
보안 및 개인정보 보호 강화
제로 트러스트 보안 조치를 구현하여 민감한 데이터와 모델 지식 재산을 보호합니다.
모델 정확도 향상
더 크고 더 다양한 데이터 세트로 AI 제품을 훈련하여 품질과 일반화 가능성을 강화하십시오.
운영 효율성
데이터 중복과 치환 노력을 줄여 비용을 제어하십시오.
규정 준수
데이터 사용자 및 사용 방식에 대한 액세스 제어를 시행하십시오.
OpenFL 기반 구축
사용 사례
공동 의학 연구
의료 서비스 공급자, 병원, 클리닉, 의료 연구기관들은 다양한 유형의 질병과 건강 문제를 더 잘 이해하고 예측하고 예방하는 데 도움이 되도록 AI 및 머신 러닝 모델을 사용하여 수백만 명의 환자 데이터 세트를 분석해 왔습니다.
인텔 Tiber Secure Federated AI를 사용하여 AI/ML 모델을 훈련하면, 여러 당사자가 알고리즘을 데이터에 적용하여 모델에 기여할 수 있습니다. 이렇게 하면 AI 모델의 견고성과 일반화 가능성이 향상되므로 임상 결과를 개선하는 데 도움이 되며, 병원과 클리닉은 민감한 환자 데이터에 대한 제어력을 유지할 수 있습니다.
조기 신약 발견
새로운 치료법의 발견과 개발은 전문적인 도메인 지식을 요하는 리소스 집약적인 프로세스입니다. 생성형 머신 러닝 모델은 신약 개발을 위한 강력한 도구로 부상했지만, 그 성능과 일반화 가능성은 여러 연구기관과 회사에 종종 사일로화되어 있는 데이터에 크게 의존합니다.
이러한 데이터를 결합하면 보다 포괄적이고 대표적인 분포를 포착하여 보다 견고한 모델을 만들 수 있습니다. 그러나 개인정보 보호 및 기타 법적 문제, 경쟁 압박, 기술적 제약으로 인해 이 접근 방식은 실현 가능하지 않습니다.
인텔 Tiber Secure Federated AI를 사용하면 데이터 세트를 결합하지 않고도 이러한 모델을 훈련할 수 있습니다. 이를 통해 기업들은 데이터 프라이버시에 대한 우려를 관리하면서 안전하게 모델 훈련을 위해 협력할 수 있습니다.
사기 감지
실시간 사기 탐지에 AI와 머신 러닝이 점점 더 많이 사용되고 있지만, 다수의 중소 규모 은행은 견고한 탐지 모델을 훈련하는 데 필요한 만큼 거래 데이터를 보유하고 있지 않습니다. 여러 은행이 사기 데이터를 공유할 수도 있겠지만, 규제 문제로 인해 이 접근 방식은 가능하지 않습니다.
인텔 Tiber Secure Federated AI를 사용하면 데이터를 이동하지 않고도 여러 은행에서 사기 탐지 모델을 안전하게 훈련할 수 있습니다. 이 접근 방식은 보다 정확한 사기 탐지로 손실을 줄이는 데 도움이 될 수 있습니다.
FAQ
자주 묻는 질문
인텔® Tiber™ Secure Federated AI는 연합 학습을 사용하여 비공개 데이터로 AI 모델을 안전하게 훈련할 수 있도록 설계된 턴키 서비스입니다. 이 서비스는 온프레미스, 퍼블릭 클라우드, 프라이빗 클라우드 등과 같은 데이터 저장 위치와 관계없이 데이터 소유자가 데이터에 대한 제어력을 항상 유지하도록 보장하는 데 도움이 됩니다. 또한, 하드웨어 기반 보안, 암호화 방법, 알고리즘 기법을 사용하므로, 모델과 데이터 모두에 대해 높은 수준의 개인정보 보호와 보안을 보장하는 데 도움이 됩니다.
연합 학습(FL)은 로컬 데이터 샘플을 이동시키지 않고 해당 데이터 샘플을 보유한 여러 분산 장치 또는 서버에서 AI 모델을 훈련할 수 있게 해주는 머신 러닝 기법입니다. 연합 훈련을 사용하면, 데이터를 중앙 서버로 보내는 대신 각 장치에서 로컬로 모델을 훈련한 후 모델 업데이트만 공유 및 통합하여 전체 모델을 개선할 수 있습니다. 이 방법은 데이터 프라이버시와 보안을 점점 더 강화하므로, 데이터 주권법의 준수를 보장하는 데 도움이 되며 지식 재산의 보호 수준이 향상될 수 있습니다.
인텔 Tiber Secure Federated AI는 Linux Foundation LF AI 및 데이터 프로젝트의 일환으로 인텔이 개발한 오픈 소스 연합 학습 프레임워크인 OpenFL을 기반으로 구축되었습니다. OpenFL은 보험, 제약, 의료를 비롯한 산업 전반에서 널리 사용되고 있으며, 국제우주정거장에서의 사용이 승인된 유일한 연합 학습 프레임워크입니다.
OpenFL의 턴키 구현을 공급함으로써 인텔 Tiber Secure Federated AI는 고객에게 두 가지 주요 이점을 제공합니다.
간소화된 구성: 연합 학습 환경을 구축하는 데 필요한 시간과 복잡성을 줄이는 데 도움이 되는 사용자 친화적인 구축 프로세스를 제공합니다.
강화된 보안 기능: 민감한 데이터와 모델 지식 재산을 보호하도록 설계된 제로 트러스트 보안 조치를 구현합니다.
모델 빌더는 견고하고 일반화 가능한 AI 모델을 만들기 위해 다양한 실제 데이터 세트를 필요로 합니다. 인텔 Tiber Secure Federated AI는 조직들의 분산 데이터 기반 공동 모델 훈련을 지원하는 안전한 개인정보 보호 기법을 통해 모델 개발을 개선하도록 설계되었습니다.
인텔 Tiber Secure Federated AI는 기관들이 탈중앙화된 데이터를 사용하여 AI 모델을 훈련할 수 있도록 허용함으로써 데이터 협업을 지원하는 동시에 데이터를 안전하게 비공개 상태로 유지할 수 있도록 설계되었습니다. 이 서비스는 모델과 데이터 모두에 대해 높은 수준의 개인정보 보호와 보안을 보장하도록 설계된 하드웨어 기반 보안(기밀 컴퓨팅, 하드웨어 및 워크로드 증명 포함)과 암호화 방법, 알고리즘 기법을 사용합니다.
연합 AI 시스템에서는 데이터가 각 데이터 사이트 또는 기관에 로컬로 저장되므로, 민감한 데이터 세트를 중앙 집중화할 필요 없이 데이터 소유자가 완전한 제어력을 유지할 수 있습니다. 이 탈중앙화된 접근 방식은 공동 모델 훈련 및 평가를 허용하면서도 데이터를 안전하게 비공개로 유지하는 데 도움이 됩니다.
인텔의 제품과 베타 프로그램에 대한 자세한 정보는 인텔 담당자에게 문의하시기 바랍니다.