인텔 관련 데이터
인프라와 데이터 시대를 위해 새롭게 탄생.
뜨거운 논쟁
뜨거운 논쟁
성능과 가치에 대한 뜨거운 논쟁은 이제 끝났습니다. 2세대 인텔® 제온® 확장 가능한 프로세서에서 두 가지 모두 누릴 수 있습니다.
AI 가속 내장으로 데이터 센터의 미래 대비 오직 인텔에서만.
새 2세대 인텔® 제온® 확장 가능한 프로세서와 인텔® 딥 러닝 부스트(인텔® DL 부스트)는 AI 추론을 30배까지 가속화하여 귀하의 투자로부터 최대의 효과를 이끌어낼 수 있도록 합니다.1
통찰력. 원하는 바로 지금.
번쩍이듯 빠르게 데이터에서 새로운 답을 발견하십시오.
인공 지능(AI)
인공 지능(AI)은 기업과 고객에게 주목할 만한 돌파구를 제시합니다. 딥 러닝 강화를 통해 AI 이론을 실제 비즈니스 가치로 빠르게 실현하는 방법을 살펴보십시오.
비디오 보기
고급 분석
고급 분석은 새로운 발견과 더 나은 고객 경험, 새로운 제품 및 서비스를 통해 기업을 변화시킵니다. 인텔® Optane™ DC 영구 메모리로 획기적인 인메모리 분석을 구축하는 방법을 확인해 보십시오.
가이드 읽어보기
고성능 컴퓨팅(HPC)
3단계의 인공 지능용(AI) 고성능 컴퓨팅(HPC) 인프라를 활용하여 혁신에 이르는 시간을 단축하십시오.
솔루션 요약 보기
다시 그리는 아키텍처
획기적인 인텔® 기술로 데이터 시대에서 승리하십시오.
고지 및 면책 정보:
성능 테스트에 사용된 소프트웨어 및 워크로드는 인텔® 마이크로프로세서에만 적합하도록 최적화되었을 수 있습니다. SYSmark* 및 MobileMark*와 같은 성능 테스트는 특정 컴퓨터 시스템, 구성 요소, 소프트웨어, 운영, 기능 등을 사용하여 측정됩니다. 해당 요소에 변경이 생기면 결과가 달라질 수 있습니다. 구매를 고려 중인 제품을 제대로 평가하려면 다른 제품과 결합하여 사용할 경우 해당 제품의 성능을 포함한 기타 정보 및 성능 테스트를 참고해야 합니다. 자세한 내용은 https://www.intel.co.kr/benchmarks 를 참조하십시오.
성능 결과는 구성 세부 정보에 명시된 날짜의 테스트를 기반으로 하며 공개된 모든 보안 업데이트를 반영하지 않았을 수도 있습니다. 자세한 내용은 공개된 구성 정보를 참조하십시오. 어떤 제품 또는 구성 요소도 절대적으로 안전할 수는 없습니다.
인텔 컴파일러는 인텔® 마이크로프로세서에 고유하지 않은 최적화에 대해 타사 마이크로프로세서에서 동일한 수준의 최적화를 제공할 수도 있고 그렇지 않을 수도 있습니다. 이러한 최적화에는 SSE2, SSSE3 및 SSE3 명령 세트 등이 있습니다. 인텔은 인텔이 제조하지 않은 마이크로프로세서에 대한 최적화의 사용 가능성, 기능 또는 효과를 보장하지 않습니다. 마이크로프로세서에 따라 좌우되는 이 제품의 최적화는 인텔® 마이크로프로세서에 사용할 목적으로 만들어졌습니다. 인텔 마이크로아키텍처 전용이 아닌 특정 최적화는 인텔® 마이크로프로세서에 사용할 수 있습니다. 이 공지가 적용되는 구체적인 명령 세트에 대한 자세한 정보는 해당 제품의 사용자 안내서 및 참조 안내서를 참조하십시오. 공지 개정 #20110804.
비용 절감 시나리오는 특정한 인텔® 기반 제품이 특정 상황 및 구성 하에서 미래의 비용에 미치는 영향과 절감 효과를 예시하기 위한 목적으로 제시되어 있습니다. 단, 상황은 제각기 다릅니다. 인텔은 일체의 비용 또는 비용 절감에 대한 보증을 하지 않습니다.
인텔® Advanced Vector Extensions(인텔® AVX)는 특정 프로세서 작업 시 처리량을 향상시킵니다. 다양한 프로세서 전력 특성으로 인해 AVX 명령 사용 시 a) 일부가 정격 주파수보다 낮은 주파수로 작동할 수 있고 b) 인텔® 터보 부스트 기술 2.0이 적용된 특정 부분이 최대 터보 주파수로 작동하지 않거나 터보 주파수가 적용되지 않을 수 있습니다. 성능은 하드웨어, 소프트웨어, 시스템 구성에 따라 달라지며 자세한 내용은 http://www.intel.com/go/turbo.에서 확인할 수 있습니다.
인텔은 이 문서에 인용된 타사 벤치마크 데이터 또는 웹 사이트를 통제하거나 감사하지 않습니다. 인용된 웹 사이트를 직접 방문하여 해당 데이터가 정확한지 확인하시기 바랍니다.
제품 및 성능 정보
인텔® 딥 러닝 부스트(인텔® DL 부스트)를 통해 인텔® 제온® Platinum 9282 프로세서에서 최대 30배의 추론 처리량 개선: 2019년 2월 26일 인텔에 의해 실시된 테스트. 플랫폼: Dragon Rock 2 소켓 인텔® 제온® Platinum 9282 프로세서(소켓당 56코어), HT 사용, 터보 사용, 총 메모리 768GB(24슬롯/32GB/2933MHz), BIOS: SE5C620.86B.0D.01.0241.112020180249, CentOS 7 커널 3.10.0-957.5.1.el7.x86_64, 딥 러닝 프레임워크: Caffe용 인텔® 최적화* 버전: https://github.com/intel/caffe d554cbf1, ICC 2019.2.187, MKL DNN 버전: v0.17(커밋 해시: 830a10059a018cd2634d94195140cf2d8790a75a), 모델: https://github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt, BS=64, 무 데이터 계층 syntheticData: 3x224x224, 56인스턴스/2소켓, 데이터 형식: INT8 vs. 인텔에서 2017년 7월 11일에 테스트: 2S 인텔® 제온® Platinum 8180 CPU @ 2.50GHz(28코어), HT 사용 안 함, 터보 사용 안 함, intel_pstate 드라이버를 통해 scaling governor를 "performance"로 설정, 384GB DDR4-2666 ECC RAM. CentOS 리눅스* 릴리스 7.3.1611(코어), 리눅스* 커널 3.10.0-514.10.2.el7.x86_64. SSD: 인텔® SSD 데이터 센터 S3700 시리즈(800GB, 2.5인치 SATA 6Gb/s, 25nm, MLC). 성능 측정 조건: 환경 변수: KMP_AFFINITY='granularity=fine, compact‘, OMP_NUM_THREADS=56, CPU 주파수를 CPU 전원 주파수 -d 2.5G -u 3.8G -g 성능으로 설정. Caffe: (http://github.com/intel/caffe/), 개정 f96b759f71b2281835f690af267158b82b150b5c. 추론은 "caffe time --forward_only" 명령으로, 트레이닝은 "caffe time" 명령으로 측정했습니다. "ConvNet" 토폴로지에는 합성 데이터 집합을 사용했습니다. 기타 토폴로지의 경우 데이터가 로컬 스토리지에 저장되어 트레이닝 전에 메모리에 캐싱되었습니다. 토폴로지 사양: https://github.com/intel/caffe/tree/master/models/intel_optimized_models(ResNet-50). 인텔® C++ 컴파일러 버전 17.0.2 20170213, 인텔® Math Kernel Library(인텔® MKL) 소형 라이브러리 버전 2018.0.20170425. Caffe는 "numactl -l"로 실행.