중국 바이두의 AI 칩인 쿤룬을 삼성의 14nm 공정으로 생산하고 I-Cube TM으로 패키징합니다.
쿤론은 512GBps의 메모리 대역폭을 지니고, 150W의 출력에서 260 TOPS의 처리가 가능합니다. 자연어 예측 모델인 Ernie를 지원하며, 전통적인 GPU/FPGA 모델보다 이론적인 처리 속도는 3배가 빠르다네요.
참고/링크 | https://www.expreview.com/72205.html |
---|
중국 바이두의 AI 칩인 쿤룬을 삼성의 14nm 공정으로 생산하고 I-Cube TM으로 패키징합니다.
쿤론은 512GBps의 메모리 대역폭을 지니고, 150W의 출력에서 260 TOPS의 처리가 가능합니다. 자연어 예측 모델인 Ernie를 지원하며, 전통적인 GPU/FPGA 모델보다 이론적인 처리 속도는 3배가 빠르다네요.