AWS가 대규모 언어 모델 학습에 인텔의 하바나 가우디를 사용합니다. 지금까지는 제품 공급과 인텔의 지원이 부족했으나, 공급량이 늘어나면서 AWS가 DL1 EC2 인스턴스를 상업적으로 제공할 만큼 충분하다고 판단했습니다.
각각의 인스턴스에는 8개의 하바나 가우디 가속카드와 32GB 메모리가 있으며 양방향 700Gbps의 속도로 연결됩니다. 클러스터는 노드 사이의 400Gbps 연결이 가능한 AWS 앨라스틱 패브릭 어댑터 4개가 탑재됩니다.
아래는 그 성과인데요. 다수의 가속 장치를 조합한 시스템에서도 스케일링 효율이 꽤나 괜찮은 편이었다고 하네요.