IBM, 차세대 Z 메인프레임 시스템 위한 AI 가속 프로세서 발표
IBM, 차세대 Z 메인프레임 시스템 위한 AI 가속 프로세서 발표
  • 김문구 기자
  • 승인 2024.08.27 09:53
  • 댓글 0
이 기사를 공유합니다

텔럼 II 프로세서와 스파이어 엑셀러레이터, 엔터프라이즈급 AI 위한 기능 제공
IBM 로고
IBM 로고

[아이티비즈 김문구 기자] IBM은 ‘핫 칩스(Hot Chips) 2024’에서 곧 출시될 IBM 텔럼(Telum) II 프로세서와 IBM 스파이어 엑셀러레이터(Spyre Accelerator)의 아키텍처 세부 사항을 공개했다.

이 새로운 기술은 차세대 IBM Z 메인프레임 시스템의 처리 용량을 크게 확장하도록 설계되어 기존 인공지능(AI) 모델과 거대 언어 AI 모델을 함께 사용할 때 새로운 AI 앙상블 방식을 통해 속도를 높일 수 있도록 지원한다.

거대언어모델(LLM)을 활용하는 많은 생성형 AI 프로젝트가 개념 증명에서 생산 단계로 넘어가면서 전력 효율적이고 안전하며 확장 가능한 솔루션에 대한 요구가 우선 순위로 떠올랐다. 8월에 발표된 모건 스탠리의 연구에 따르면 향후 몇 년 동안 생성형 AI의 전력 수요가 매년 75%씩 급증해 2026년에는 스페인 전체가 2022년에 소비한 에너지 사용량만큼을 소비하게 될 것으로 예상했다. 많은 IBM 고객들은 적정한 규모의 파운데이션 모델을 지원하기 위한 아키텍처 결정과 AI 워크로드를 위해 설계된 하이브리드 클라우드 접근 방식이 점점 더 중요해지고 있다고 말한다.

IBM 텔럼 II 프로세서는 차세대 IBM Z 시스템을 구동하도록 설계돼, 1세대 텔럼 칩에 비해 증가한 클럭(주파수) 및 메모리 용량, 40% 증가한 캐시 및 통합 AI 가속기 코어, 데이터 처리에 일관성을 제공하는 부속 데이터 처리 장치(DPU)가 특징이다. 이 새로운 프로세서는 업계의 복잡한 트랜잭션 요구 사항을 충족함으로써 LLM을 위한 엔터프라이즈 컴퓨팅 솔루션을 지원할 것으로 기대된다.

텔럼 II 프로세서 칩의 새로운 데이터 처리 장치(DPU)는 메인프레임의 네트워킹 및 스토리지를 위한 복잡한 IO 프로토콜을 가속화하도록 설계되었다. DPU는 시스템 운영을 간소화하고 주요 구성 요소의 성능을 향상시킬 수 있다.

IBM 스파이어 엑셀러레이터는 텔럼 II 프로세서를 보완하기 위해 추가적인 AI 연산 능력을 제공한다. 텔럼 II와 스파이어 칩은 함께 작동해 여러 개의 머신러닝 또는 딥러닝 AI 모델을 인코더 LLM과 결합하는 앙상블 방식의 AI 모델링을 지원하기 위한 확장 가능한 아키텍처를 형성한다. 각 모델 아키텍처의 강점을 활용함으로써 앙상블 AI는 개별 모델에 비해 더 정확하고 강력한 결과를 제공할 수 있다. 핫 칩 2024 컨퍼런스에서 선공개된 IBM 스파이어 엑셀러레이터 칩은 별도 옵션으로 제공될 예정이다. 각 엑셀러레이터 칩은 75와트 PCIe 어댑터를 통해 부착된다. 스파이어 엑셀러레이터는 다른 PCIe 카드처럼 고객의 요구에 따라 확장이 가능하다. 

티나 타르퀴니오 IBM Z 및 리눅스원 제품 관리 담당 부사장은 “IBM은 강력한 로드맵을 통해 증가하는 AI 수요를 비롯한 기술 트렌드에서 앞서 나갈 수 있는 기반을 마련했다"며, “텔럼 II 프로세서와 스파이어 엑셀러레이터는 고성능, 보안, 전력 효율성이 뛰어난 엔터프라이즈 컴퓨팅 솔루션을 제공하도록 설계됐다. 수년간 개발해온 이러한 기술은 차세대 IBM Z 플랫폼에 도입되어 고객이 LLM과 생성형 AI를 대규모로 활용할 수 있게 할 것이다”고 말했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.