MLPerf
M기계 학습 벤치 마크 그것을 만든다 ML 더 빠르고 스마트한 평가
도전
머신 러닝(ML)은 오늘날 디지털 환경에서 가장 인기 있는 기술 중 하나로 떠올랐습니다. 그러나 시장에 ML 기반 도구가 점점 더 많아지면서 기업은 어떤 솔루션이 실제로 정확하고 신뢰할 수 있는 결과를 제공하는지 알아내는 과제에 직면하게 됩니다.
이러한 도구를 평가하는 것은 시간이 많이 걸리고 복잡한 작업으로, 시스템을 정확하게 평가하고 다양한 맥락에서 인간의 언어를 해석하는지 확인하기 위해 다양한 측정 항목을 조합해야 합니다.
MMCC의 비전은
창립자 MLPerf 단순화하는 도구에 대한 수요가 증가하고 있음을 인식했습니다. 머신 러닝 벤치마킹그들의 목표는 노트북, 데스크톱, 워크스테이션 등 다양한 기기에서 머신 러닝 워크로드를 비교할 수 있는 도구를 만드는 것이었습니다.
그들의 팀은 개발이 빠르게 진행되고 있음을 인식했습니다.g는 MLPerf 벤치마크 에더욱 스마트한 AI 결정을 내리기 위해서는 포괄적인 전략과 첨단 기술을 활용하는 방법을 아는 파트너가 필요했습니다.
스코픽 솔루션
ML Commons는 우리와 협력하여 개발했습니다. MLPerf, 다양한 하드웨어에서 머신 러닝 시스템의 성능을 측정하도록 설계된 선도적인 벤치마킹 도구입니다.
우리 팀은 첨단 기술을 활용했습니다—Llama 토크나이저, OrtGenAI, NativeOpenVINO와 같은 도구를 사용하여 다음을 수행할 수 있는 도구를 만듭니다.
- 이미지 인식, 자연어 처리, 추천 시스템을 포함한 다양한 ML 작업의 성능을 평가합니다.
- 다양한 하드웨어 및 소프트웨어 구성에 따른 결과를 비교합니다.
- 통찰력 있는 측정 항목을 사용하여 특정 작업 부하에 대한 시스템 성능을 최적화합니다.
작업의 두 번째 단계의 일환으로, 우리는 AMD, NVIDIA, Intel, Microsoft, Qualcomm과 같은 ML Commons 및 독립 하드웨어 공급업체(IHV)로부터 귀중한 의견을 수렴하여 데스크톱과 iPad 플랫폼 모두에 맞는 솔루션의 UI를 개발하고 최적화했습니다.
서비스 개발자는 또한 자동화된 테스트를 구현했습니다. 일반적으로 IHV가 처리하는 시간에 민감한 책임을 관리하기 위해 개입하여 도움이 필요한 모든 것을 제공했습니다. MLPerf AI 및 머신 러닝 커뮤니티에서 신뢰받는 이름이 되십시오.
크로스 플랫폼 벤치마킹
다양한 ML 작업 평가


