COOL Chips 22에 일본산 슈퍼 컴퓨터 프로세서 2개가 등장
반도체 칩 국제 컨퍼런스인 COOL Chips 22가 4월 17일부터 일본 요코하마에서 열립니다. 22년이 된 유서 깊은 자리지요. 여기에선 일본의 K 슈퍼컴퓨터 후속작에 탑재되는 후지쯔의 A64FX와, 또 다른 슈퍼컴퓨터인 NEC SX에 탑재됙 벡터 프로세서인 SX-Aurora 츠바사가 등장합니다. 두 칩 모두 2018년 8월의 Hot Chips에서 아키텍처가 발표됐으며, 이번엔 상세 내용이 등장합니다.
후지쯔의 강연인 A64FX High Performance Processor Architecture and its Design Challenges는 컨퍼런스의 마지막 날인 4월 19일에 열립니다. A64FX는 512비트 벡터 유닛을 갖춘 시스템으로, 이를 지원하는 광대역 캐시 계층과 내부 네트워크를 지닙니다.
A64FX는 Armv8.2-A SVE 명령어 세트 아키텍처 기반 CPU, 계산 노드는 48코어에 2개의 가이드 코어, IO 겸 계산 노드는 48코어에 4개의 가이드 코어 구성. 2.7TFLOPS 이상의 배정밀도 연산 성능. 메모리 용량은 HBM2 32GB(4스택) 대역폭은 1,024GB/s입니다.
NEC의 강연인 Vector Engine Processor of NEC 's Brand-New Supercomputer SX-Aurora TSUBASA는 4월 18일에 열립니다. SX 벡터 슈퍼 컴퓨터의 칩으로서 기존의 SX보다 아키텍처가 크게 바뀌었습니다.
x86 리눅스 노드의 벡터 호스트, 벡터 프로세서 노드의 벡터 엔진이 PCIe를 통해 연결된 GPU 시스템입니다.
양자 컴퓨팅과 도메인 가속 장치
위에서 본 프로세서는 벡터 성능을 높이는 데 초점을 두었으나, 무어의 법칙이 탄력을 잃으면서 애플리케이션 성능을 높이기 위한 방법으로 도메인마다 제각각 접근하는 방법이 등장합니다.
후지쯔의 DLU(Deep Learning Unit)와 DA(Digital Annealer)에 대한 강연인 DLU and Domain Specific Computing가 17일에열립니다.
DLU는 딥 러닝 신경망을 가속하고, DA는 양자 어닐링을 디지털 회로 시뮬레이션해 조합 문제의 처리 속도를 높입니다.
18일에는 IBM의 양자 컴퓨팅 이니셔티브를 설명하는 Quantum Computing at IBM? from hardware to software이라는 강연이 열립니다. 양자 컴퓨터는 양자 어닐링 이전부터 연구된 양자 게이트 방식이 있습니다. 양자 어닐링은 조합 문제, 양자 게이트는 소인수 분해에 응용합니다.
양자 게이트는 중첩 상태가 무너지기 쉽고 오류가 자주 발생합니다. 양자 게이트 방식은 차근차근 실용화의 길을 걸어가고 있는데, 우선 오류 정정을 쓰지 않는 NISQ(Noisy Intermediate-Scale Quantum)의 실용화가 마지막 단계까지 왔습니다. IBM은 양자 컴퓨터의 양자 비(Qbit)와 오류 감소를 줄이는 방법을 소개합니다.
기조 연설에선 NVIDIA가 GPU : A true AI Cool-Chip with High Performance / Power Efficiency and Full-Programmability라는 세션을 엽니다. 벡터 프로세서인 GPU에 딥 러닝의 매트릭스 연산 유닛을 추가합니다. 현재 GPU는 래스터 방식의 렌더링에 특화됐으나, 최신 GPU인 튜링에선 레이 트레이싱 가속 장치가 더해졌습니다. NVIDIA는 특정 애플리케이션 가속으로 향해가는 GPU의 진화에 대해 설명합니다.
Cool한 칩 기술의 세션
COOL Chips 컨퍼런스는 고성능 프로세서 외에도 저전력 프로세서, 그러니까 차가운(Cool) 프로세서를 주로 소개합니다. 19일에는 Wave Computing이 Architectures for efficient, low-power AI Edge processing이라는 강연을 합니다. 현재 AI 신경망 워크로드는 엣지 부분에서 추론만 처리하나, 서버와 통신이 자주 되지 않는다면 서버에서 진행하는 신경망 학습 과정을 엣지에서 처리하는 게 오히려 나을 수도 있습니다. 이 강연에선 엣지에서 AI 솔루션에 대해 소개합니다.
17일의 스페셜 세션에선 University of Illinois at Urbana-Champaign이 고효율 신경망 가속에 대해 이야기합니다. FPGA 기반의 DNN (Deep Neural Networks)에 대한 강연인 Design, Compilation, and Acceleration for Deep Neural Networks in IoT Applications입니다. 카이스트는 저전력 설계에 관련된 Low Power Design : Facts, Myths, and Misunderstandings를 소개하며, 18일에는 Where will the computer architecture go?라는 제목으로 컴퓨터 아키텍처의 미래를 이야기합니다.