Seekr 로고

Seekr: 대규모 콘텐츠의 평가 및 생성을 위한 신뢰할 수 있는 LLM 구축

인텔® 개발자 클라우드[인텔® Tiber™ AI 클라우드]를 통해 AI 기업은 비용 효율적인 최첨단 AI 가속 플랫폼에서 혁신적인 솔루션을 구축, 훈련 및 배포할 수 있습니다.

개요:

  • Fast Company가 선정한 2024년 가장 혁신적인 기업 중 하나인 Seekr는 인텔® Tiber™ AI 클라우드를 사용하여 비용 효율적인 클러스터에서 고도화된 LLM을 구축, 훈련 및 배포하고 있습니다.

  • 이 클러스터는 인텔® Gaudi® 2 AI 가속기를 포함한 최신 인텔 하드웨어 및 소프트웨어에서 실행됩니다.

  • AI를 가속하기 위한 이 전략적 협력은 Seekr가 클라우드 비용을 절감하고 워크로드 성능을 향상하면서 컴퓨팅 용량에 대한 계속 증가하는 수요를 충족하는 데 도움이 됩니다.

  • Seekr와 같이 빠르게 성장하는 기업에게 인텔 Tiber AI 클라우드와 같은 최첨단 AI 가속 플랫폼에서 AI 솔루션을 확장할 수 있는 능력은 빠른 혁신을 위한 열쇠입니다.

인텔® Tiber™ AI 클라우드
최신의 인텔 하드웨어 및 소프트웨어에 액세스할 수 있는 클라우드 환경에서 클라우드, 엔터프라이즈, 클라이언트, 에지 배포를 위한 AI 및 HPC 응용 프로그램을 구축하고 테스트합니다.
cloud.intel.com

Seekr
seekr.com

신뢰할 수 있는 브랜드를 구축하려면 신중한 콘텐츠 전략이 필요합니다. 콘텐츠 제작 및 미디어 정렬은 브랜드에 안전하고 대상 고객에게 적합해야 합니다. 그러나 엄청난 양의 디지털 콘텐츠와 다양한 채널로 인해 기업이 배포하는 콘텐츠가 브랜드 표준을 일관되게 유지하도록 하는 것은 거의 불가능합니다.

Seekr는 독점적인 채점 및 분석 기술을 활용하여 브랜드가 가장 적합한 온라인 콘텐츠를 찾고 책임감 있게 도달 범위를 확장할 수 있도록 지원하는 솔루션인 SeekrAlign*을 통해 광고 업계의 이러한 문제를 해결하고 있습니다.

Seekr의 첫 출시 AI 솔루션은 인텔® Tiber™ AI 클라우드에서 8노드 인텔® Gaudi® 2 AI 가속기 클러스터를 기반으로 구축, 훈련 및 배포되었으며, 업계 최고의 브랜드들로 구성된 인상적인 고객 목록을 빠르게 확보했습니다. Moderna와 SimpliSafe에서 Babbel에 이르기까지, 기업들은 AI 솔루션을 사용하여 기업의 과제를 해결하는 것의 가치를 깨닫고 있습니다. 인텔 Tiber AI 클라우드의 AI 가속 플랫폼은 이러한 움직임의 선두에 서서 기업들이 최신 인텔 하드웨어 및 소프트웨어의 비용 효율적인 클러스터를 통해 AI 전략을 가속 및 확장할 수 있도록 지원합니다.

AI의 도전과 기회

잘못된 정보, 환각, 부적절한 콘텐츠는 브랜드 신뢰를 빠르게 떨어뜨릴 수 있습니다. 위험 콘텐츠를 호스팅하는 플랫폼과 무심코 연결되는 것만으로도 브랜드 평판이 위험해질 수 있습니다. 이러한 이유로 많은 기업에서는 자사가 배포하는 콘텐츠를 면밀히 심사합니다. 이 방법은 시간이 오래 걸리고 비용이 많이 들며 신뢰할 수 없고 매우 주관적인 방식입니다.

대표적인 사용 사례는 팟캐스트입니다. 팟캐스트의 인기는 최근 몇 년 동안 기하급수적으로 증가했으며, 많은 기업에서 팟캐스트는 콘텐츠 전략과 광고 수익의 필수적인 부분입니다. 안타깝게도, 지금까지는 사람의 노력 외에는 각각의 에피소드를 평가할 수 있는 신뢰할 만한 방법이 없었기 때문에 팟캐스트 환경은 브랜드가 탐색하기 특히 어려웠습니다.

SeekrAlign은 기업이 수십만 개의 팟캐스트를 빠르고 정확하게 선별할 수 있도록 지원하여 이러한 문제를 해결합니다. 팟캐스트 광고 대행사 Oxford Road의 CEO인 Dan Granger는 "Align은 세계적 수준의 엔지니어링과 혁신적이고 투명한 등급 체계를 결합하여 안전하고 적절한 팟캐스트를 쉽게 찾을 수 있게 해주므로 브랜드는 더욱 명확하고 빠르게 오디오 캠페인을 성장시킬 수 있습니다."라고 말합니다.1

Align의 사용자 친화적인 대시보드는 팟캐스트 콘텐츠를 0~100 사이의 등급으로 평가합니다. 특허받은 평점 시스템인 Seekr Civility Score™는 GARM 안전 프레임워크에 기반하여 마케터와 광고주가 콘텐츠의 안전성과 적합성을 판단할 수 있는 객관적인 기준을 제공합니다. "뛰어난 컴퓨팅 성능과 새로운 신호 감지 기능을 결합해야만 해결할 수 있는 방대한 규모의 과제였습니다."라고 Seekr의 사장 겸 최고 기술 책임자인 Rob Clark는 말합니다. Civility Score는 수십 가지 고려 사항을 단일 지표로 종합하여 브랜드에 적합한 더 많은 기회와 더 많은 잠재고객을 확보할 수 있는 기회를 제공합니다."2

Align 플랫폼은 이미 2,000만 분의 팟캐스트를 기록했으며, 2024년 말에는 최대 4,000만 분에 달할 것으로 예상됩니다. 또한, 이 플랫폼은 8,000개 이상의 팟캐스트 에피소드에 대한 실시간 점수를 제공하며, 총 1,000만 분 이상의 오디오를 보유하고 있습니다. "우리는 AI가 책임감 있고 투명하게 적용될 때, 이 기술이 계속 발전하고 발전함에 따라 실제 비즈니스 문제를 해결할 수 있다는 것을 보여주었습니다."라고 Clark는 말합니다. "가장 골치 아픈 사회 문제를 해결하고 놀라운 속도와 정확성으로 비즈니스 성장을 촉진할 수 있는 고급 LLM을 개발하는 등 지속적인 혁신을 통해 이러한 성공을 이어갈 수 있기를 기대합니다."3

클라우드 컴퓨팅 비용을 절감하면서 고성능 제공

Seekr의 정교한 AI 워크로드 요구 사항에는 엄청난 컴퓨팅 용량이 필요합니다. 기존에는 이러한 컴퓨팅 성능을 구현하려면 상당한 인프라 투자와 매우 큰 클라우드 비용이 필요했습니다. 그러나 인텔 Tiber AI 클라우드를 통해 Seekr는 훨씬 저렴한 가격으로 최첨단 인텔 하드웨어와 소프트웨어를 이용할 수 있습니다. Seekr와 같이 빠르게 확장하는 기업에게 자본을 절약하고 수익을 늘리면서 최신 AI 가속 기술을 이용할 수 있다는 것은 매우 매력적인 제안입니다.

"인텔과의 전략적 협력을 통해 Seekr는 고대역폭 상호연결성이 뒷받침되는, 슈퍼컴퓨터의 최신 인텔 Gaudi 칩 1,000여 개를 사용하여 최고의 가격과 성능으로 기반 모델을 구축할 수 있었습니다."라고 Clark는 말합니다. Seekr의 신뢰할 수 있는 AI 제품과 'AI 우선' 인텔 Tiber AI 클라우드의 결합으로 오류와 편향을 줄여, 모든 규모의 조직이 신뢰할 수 있는 하드웨어에서 실행되는 안정적인 LLM 및 기반 모델에 액세스하여 생산성을 높이고 혁신을 촉진할 수 있습니다."

"인텔과의 전략적 협력 덕분에, Seekr는 1,000여 개의 최신 인텔 Gaudi 칩으로 구성된 슈퍼컴퓨터를 사용하여 최고의 가격과 성능으로 기반 모델을 구축할 수 있었습니다."

신뢰할 수 있는 결과를 위한 유연한 AI 솔루션

확장 가능하고 구성 가능한 파이프라인을 사용하여 원칙에 부합하는 LLM을 구축하는 데 중점을 둔 엔드투엔드 LLM 개발 툴셋인 SeekrFlow*가 이 혁신적인 솔루션의 기반입니다. 효율성과 유연성을 극대화하도록 설계된 SeekrFlow를 통해 개발자는 확장 가능하고 구성 가능한 워크플로를 사용하여 LLM을 훈련하고 구축할 수 있습니다. 전체 LLM 파이프라인은 API로 관리하고 맞춤형 구성 요소로 조정할 수 있습니다. 리소스 및 종속성과 같은 계산 그래프 사양이 유연하여 수많은 구성 옵션이 가능합니다.

SeekrFlow의 워크플로는 버전이 지정되고 반복 가능하며 재현 가능한 실행 파일로 컴파일됩니다. 또한, 강력한 정렬 알고리즘을 통합하여 LLM의 동작이 규정된 표준, 의도, 규칙 또는 값을 준수하도록 보장합니다. 이러한 LLM은 또한 회사의 강력한 추론 파이프라인의 이점을 활용하여 플랫폼에서 대규모로 오디오를 전사, 화자 식별 및 채점할 수 있습니다. 최적화를 거친 맞춤형 LLM은 사용자 친화적인 Seekr Align 플랫폼에 연결되어 디지털 콘텐츠에 대한 빠르고 정확한 평가를 제공하는 데 사용됩니다.

인텔 Tiber AI 클라우드에서의 Seekr 배포

Seekr는 지역 코로케이션 제공업체를 통해 GPU 및 CPU 지원 시스템으로 구성된 서버를 호스팅하고 있었습니다. 자체 관리형 컴퓨팅 인프라는 LLM 및 멀티모달 모델 개발에 사용되며 Seekr Align을 지원합니다.

고객이 증가하고 LLM 배포 규모가 증가함에 따라 Seekr는 우수한 가격과 성능으로 비즈니스를 확장할 수 있는 클라우드 서비스 제공업체를 찾았습니다. 인텔 Gaudi 2에서 LLM을 성공적으로 미세 조정하고 추론하여 벤치마킹한 후, Seekr는 LLM 개발 및 프로덕션 배포 지원을 위해 선호하는 컴퓨팅 인프라로 인텔 Tiber AI 클라우드를 활용하기로 결정했습니다.

그림 1~3은 소프트웨어 최적화와 인텔 Tiber AI 클라우드의 환경을 사용하여 얻은 성능을 보여줍니다.

Seekr LLM 미세 조정  

그림 1: Hugging Face Optimum Habana 및 Habana PyTorch API를 사용한 Seekr LLM 미세 조정. 출처: Seekr. 인텔은 타사 데이터를 제어하거나 감사하지 않습니다. 정확성을 평가하려면 기타 소스를 참고해야 합니다.

Seekr LLM 추론  

그림 2: Hugging Face Optimum Habana 및 Habana PyTorch API를 사용한 Seekr LLM 추론. 출처: Seekr. 인텔은 타사 데이터를 제어하거나 감사하지 않습니다. 정확성을 평가하려면 기타 소스를 참고해야 합니다.

Seekr LLM 추론  

그림 3: Hugging Face Optimum Habana 및 Habana PyTorch API를 사용한 Seekr LLM 추론. 출처: Seekr. 인텔은 타사 데이터를 제어하거나 감사하지 않습니다. 정확성을 평가하려면 기타 소스를 참고해야 합니다.

Seekr는 회사의 솔루션 플랫폼을 인텔 Tiber AI 클라우드로 마이그레이션하기 위한 단계적 배포를 계획하고 있습니다. 클라우드의 다양한 AI 최적화 컴퓨팅 인스턴스를 사용하여 응용 프로그램 워크로드의 배포 비용/성능을 최적화하고 있습니다.

  • 인텔 Gaudi 2 가속기: SeekrAlign 솔루션을 구동하는 7B LLM 모델은 인텔 Gaudi 2 시스템 클러스터에 배포되어 민감한 콘텐츠 분류 및 위험 평가를 수행합니다.
  • 인텔® 데이터 센터 GPU Max 시리즈 1550: Seekr는 인텔 GPU 기반 시스템의 클러스터에서 전사 및 화자 식별 처리를 위해 인텔® Extensions for PyTorch*를 사용합니다.
  • 인텔® 제온® 스케일러블 프로세서: 응용 프로그램 모니터링, 스토리지 관리, 벡터 및 역인덱스 데이터베이스 서비스를 위해 4세대 인텔® 제온® CPU 지원 시스템 클러스터를 사용합니다. 확장 가능하고 구성 가능한 파이프라인을 사용하여 원칙에 부합하는 LLM을 구축하는 Seekr의 검색 증강 생성 서비스 및 SeekrFlow를 지원합니다.
  • 올해 말에는 5세대 인텔® 제온® 스케일러블 프로세서를 활용할 계획입니다.

Seekr의 AI 연구 개발 책임자인 Stefanos Poulis는 다음과 같이 말했습니다. "Seekr와 인텔의 협업으로 하이브리드 컴퓨팅에서 AI를 실행할 수 있는 역량을 확보할 수 있게 되었습니다. 인텔 GPU와 인텔 Gaudi 2 칩은 대형 및 중형 트랜스포머를 훈련하고 서비스하는 데 활용됩니다. 시장에 출시된 다른 칩과 비교해, 모델 훈련 및 추론 성능이 향상된 것을 확인했습니다. 특히 LLM 추론의 경우, 인텔 HPU와 GPU의 대용량 메모리 덕분에 배치 크기와 같은 워크로드별 매개 변수를 조정할 수 있었습니다. 소프트웨어 측면에서는 다양한 인텔 확장 기능을 통해 ML 스택을 인텔 하드웨어로 원활하게 이전할 수 있었습니다."

이어지는 인텔 Tiber AI 클라우드 통합 단계의 일환으로, Seekr는 인텔® Kubernetes Service와 함께 대규모 인텔 Gaudi 2 클러스터를 활용하여 LLM 기반 모델을 훈련하고 CPU 및 GPU 컴퓨팅 용량을 추가하여 신뢰할 수 있는 AI 서비스 오퍼링을 확대할 계획입니다.

SimpliSafe®는 Seekr의 LLM 솔루션: SeekrAlign을 사용하여 더 광범위하고 더 정교한 맞춤형 홈 보안 고객에게 다가갑니다

SimpliSafe®는 수상 경력에 빛나는 가정용 보안 솔루션으로, 고객에게 최신이자 최고의 기술을 제공하여 "모든 가정을 안전하게 만든다"는 사명을 가지고 있습니다. 끊임없이 진화하는 스마트 홈 업계에서 선두 주자라는 자부심을 가지고 있으며, 이러한 자부심은 회사의 시장 범위를 신중하고 효율적으로 확장하는 데 도움이 되는 새로운 마케팅 기술을 테스트하는 등 지원 비즈니스 기능에도 이어집니다. 또한, 고객 신뢰를 구축하고 유지하는 것은 SimpliSafe의 고객 확장 전략에 매우 중요합니다. 회사는 혁신적인 제품과 서비스뿐만 아니라 사려 깊은 광고 관행을 통해 이를 수행합니다.

SimpliSafe는 SeekrAlign을 활용하여 적시에 적합한 콘텐츠 채널을 통해 잠재 고객에게 도달합니다. SeekrAlign을 통해 SimpliSafe는 수천 개의 팟캐스트 콘텐츠 점수에 실시간으로 액세스할 수 있으며, 대화 수준에서 컨텍스트를 분리할 수 있습니다. Seekr의 LLM 기반 콘텐츠 분석 기능은 현재 시중에 나와 있는 그 어떤 제품보다 뛰어나며, SimpliSafe가 브랜드에 적합한 콘텐츠를 발견하여 관련 잠재 고객에게 도달할 수 있도록 도와줍니다.

"신뢰와 안전에 기반한 브랜드로서 SimpliSafe의 가치를 공유할 수 있는 솔루션을 찾는 것이 중요했습니다. 팟캐스트 모니터링의 규모 문제를 신중하게 해결하고 광고 게재 위치를 고객 프로필과 맞출 수 있는 플랫폼이 바로 인텔 개발자 클라우드 [인텔 Tiber AI 클라우드] 기반의 Seekr입니다. Seekr를 통해 브랜드에 적합한 팟캐스트를 찾아 적합한 시청자에게 도달하고, 궁극적으로 더 많은 주택 소유자에게 SimpliSafe의 홈 보안 솔루션을 소개할 수 있습니다."
—SimpliSafe 고객 확보 이사, Nicholas Giorgio

자세한 정보:

인텔® Liftoff for Startups Program 정보

인텔 Liftoff는 초기 단계의 AI 및 머신러닝 스타트업이 혁신하고 확장할 수 있도록 지원하는 무료 가상 프로그램입니다. 인텔이 2022년에 시작한 이 자기 주도형 프로그램은 스타트업이 코드 장벽을 제거하고, 성능을 발휘하고, 자사의 아이디어를 확장 가능한 업계 최고의 AI 회사로 전환할 수 있도록 지원합니다.