요약생성
바쁠 때는 리얼라이즈가 내용을 요약해 드려요.
인텔, 구글, 마이크로소프트, 메타를 비롯한 여러 기술 대기업이 데이터 센터에서 AI 가속기 칩을 서로 연결하는 구성 요소 개발을 주도하기 위해 새로운 산업 그룹인 UALink(Ultra Accelerator Link) 프로모터 그룹을 구성하고 있습니다.
목요일에 발표된 UALink 프로모터 그룹(AMD(Arm 제외), Hewlett Packard Enterprise, Broadcom, Cisco 포함)은 점점 더 많은 서버에서 사용되는 AI 가속기 칩을 연결하기 위한 새로운 산업 표준을 제안합니다. 넓은 의미에서 AI 가속기는 GPU부터 AI 모델의 학습, 미세 조정 및 실행 속도를 높이기 위한 맞춤형 솔루션에 이르기까지 다양한 칩을 말합니다.
AMD의 데이터 센터 솔루션 GM인 Forrest Norrod는 수요일 브리핑에서 기자들에게 “업계는 여러 회사가 전체 생태계에 가치를 더할 수 있도록 개방형 [형식]으로 매우 빠르게 발전할 수 있는 개방형 표준이 필요합니다.”라고 말했습니다. “업계는 어떤 특정 회사의 제약 없이 혁신이 빠르게 진행될 수 있도록 하는 표준이 필요합니다.”
제안된 표준의 버전 1인 UALink 1.0은 단일 컴퓨팅 “포드”에서 최대 1,024개의 AI 가속기(GPU만 해당)를 연결합니다. (이 그룹은 _포드_를 서버의 랙 하나 또는 여러 개로 정의합니다.) UALink 프로모터 그룹에 따르면 AMD의 Infinity Fabric을 포함한 “개방형 표준”을 기반으로 하는 UALink 1.0은 AI 가속기에 연결된 메모리 간에 직접 로드 및 저장을 허용하고 일반적으로 기존 상호 연결 사양에 비해 속도를 높이면서 데이터 전송 지연 시간을 줄입니다.
이미지 출처: UALink 프로모터 그룹
이 그룹은 3분기에 컨소시엄인 UALink 컨소시엄을 구성하여 앞으로 UALink 사양 개발을 감독할 것이라고 밝혔습니다. UALink 1.0은 컨소시엄에 가입하는 회사에 동시에 제공될 예정이며, 더 높은 대역폭의 업데이트된 사양인 UALink 1.1은 2024년 4분기에 출시될 예정입니다.
Norrod는 최초의 UALink 제품이 “향후 몇 년 안에” 출시될 것이라고 말했습니다.
이 그룹 회원사 목록에서 두드러지게 빠진 곳은 추정 시장 점유율이 80~95%로 AI 가속기 분야에서 압도적인 1위를 차지하고 있는 엔비디아입니다. 엔비디아는 이 기사에 대한 언급을 거부했습니다. 하지만 이 칩 제조업체가 UALink에 적극적으로 힘을 실어주지 않는 이유는 쉽게 알 수 있습니다.
첫째, 엔비디아는 데이터 센터 서버 내에서 GPU를 연결하기 위한 자체 독점 상호 연결 기술을 제공합니다. 이 회사는 경쟁 기술을 기반으로 한 사양을 지원하는 데 그다지 관심이 없을 가능성이 높습니다.
둘째, 엔비디아는 막대한 힘과 영향력을 가진 위치에서 사업을 운영하고 있다는 사실입니다.
엔비디아의 가장 최근 회계 분기(2025년 1분기)에서 AI 칩 판매를 포함한 데이터 센터 매출은 전년 동기 대비 400% 이상 증가했습니다. 엔비디아가 현재의 성장세를 이어간다면 올해 안에 애플을 제치고 세계에서 두 번째로 가치 있는 기업이 될 것으로 예상됩니다.
간단히 말해서, 엔비디아는 원하지 않으면 굳이 동참할 필요가 없습니다.
UALink에 참여하지 않은 유일한 퍼블릭 클라우드 대기업인 Amazon Web Services(AWS)는 다양한 자체 가속기 하드웨어 노력을 축소하면서 “상황을 지켜보는” 자세를 취하고 있을 수 있습니다. 또한 클라우드 서비스 시장을 장악하고 있는 AWS는 고객에게 제공하는 GPU의 상당 부분을 공급하는 엔비디아에 맞서는 데 큰 전략적 의미를 두지 않을 수도 있습니다.
AWS는 TechCrunch의 논평 요청에 응답하지 않았습니다.
실제로 AMD와 인텔을 제외하고 UALink의 가장 큰 수혜자는 마이크로소프트, 메타, 구글로 보입니다. 이 세 회사는 클라우드에 전력을 공급하고 끊임없이 성장하는 AI 모델을 학습시키기 위해 엔비디아 GPU에 수십억 달러를 지출했습니다. 이들 모두 AI 하드웨어 생태계에서 우려스러울 정도로 지배적인 위치에 있는 공급업체로의 의존도를 낮추려고 노력하고 있습니다.
구글은 AI 모델 학습 및 실행을 위한 맞춤형 칩인 TPU와 Axion을 보유하고 있습니다. 아마존은 여러 AI 칩 제품군을 보유하고 있습니다. 마이크로소프트는 작년에 Maia와 Cobalt로 경쟁에 뛰어들었습니다. 메타는 자체 가속기 라인업을 개선하고 있습니다.
한편, 마이크로소프트와 긴밀한 협력 관계에 있는 OpenAI는 향후 버전의 Cobalt 및 Maia 칩을 탑재할 AI 모델 학습용 슈퍼컴퓨터에 최소 1,000억 달러를 지출할 계획인 것으로 알려졌습니다. 이러한 칩을 연결하려면 무언가가 필요하며, 아마도 UALink가 그 역할을 할 것입니다.