※ 이전 게시글에서 작성 당시 미처 자세한 내용을 못 붙이고 해서 다시 그 때의 상황을 자세하게 추린 후 다시 작성해봤습니다ㅠㅠ
(절대로 유튜브 채널 홍보가 아니라는 점을 알려드리며, 이전 게시글을 삭제한 점은 양해 부탁드려요ㅠㅠ)
정확히는 어제 목요일 오후 2시 쯤이었나, 유튜브 영상을 검색할려고 보다가 우연찮게 제가 구독하고 있는 채널의 커뮤니티에서
새로운 글이 올라왔나보다해서 한번 살펴봤지요. 그런데, 여기서 놀랄 만한 사건이 터지고 만 겁니다ㅠㅠ
|
▶ 유튜브 채널 : 오목교 전자상가
▶ 커뮤니티 제목 : AMD 리사 수, AI 칩 분야에서 엔비디아에 도전장을 내밀다
▶ 사건이 터진 내용 : 위의 커뮤니티 제목의 내용에서 제가 직접 진행했던 컨퍼런스 내용의 일부가 직접 등록됨
▶ 일부 내용이 등록된 해당 컨퍼런스 : AMD, Together We Advance_Data Center & AI(데이터 센터 & AI) 기술 컨퍼런스 전체 정리본
|
'AMD, Together We Advance_Data Center & AI(데이터 센터 & AI) 기술 컨퍼런스'
전체 정리본 중 '서버(데이터센터) GPU 항목
|
[서버(데이터센터) GPU - 마이크로아키텍처]
▶ (공식 소개!)AMD 차세대 '서버(데이터센터) GPU' 마이크로아키텍처, 3rd CDNA 발표!
- AI 및 HPC 전용 가속기 엔진
- 4번째 AMD Infinity 아키텍처를 사용한 3D 패키징
- 성능 및 전력 효율성에 최적화
|
[서버(데이터센터) GPU]
▶ AMD 인스팅트 MI300 데이터센터 APU 제원(AMD CES 2023에서 소개함)
- 정식 제품 모델명 : AMD Instinct(인스팅트) MI300A
- CPU : ZEN 4 마이크로아키텍쳐[EPYC(에픽) 서버(데이터센터)] CPU : 24 코어
- GPU : 3rd CDNA 마이크로아키텍쳐 기반
- 메모리 : 128GB HBM3
- 통합 공유(메모리) : CPU + GPU
- 트랜지스터 : 1460억개 탑재
- 제조공정 : 고급 3D 칩렛 패키징으로 제조(5nm & 6nm)
※ 세계 최초 서버(데이터센터) APU 가속기(AI & HPC 특화)
▶ (추가 라인업 모델 공식 발표!)AMD 인스팅트 MI300 서버(데이터센터) GPU(GPU 코어 전용 모델)
- 정식 제품 모델명 : AMD Instinct(인스팅트) MI300X
- GPU : 3rd CDNA 마이크로아키텍쳐 기반
- 메모리 : (기존 MI300A)128GB HBM3 + (용량 추가)64GB HBM3 = 192GB HBM3
- 트랜지스터 : 1530억개 탑재
- 대역폭 : 인피니티 패브릭(896GB/s)
※" CPU + GPU" 혼합 APU 형태가 아닌 단일 서버(데이터센터) GPU 타입 반도체!
※ 생성 AI 및 모델 가속기 리더쉽의 서버(데이터센터) GPU
▶ (추가 플랫폼 제품군 공개!)AMD Instinct(인스팅트) 서버(데이터센터) GPU 플랫폼 공식 발표!
- GPU : AMD Instinct(인스팅트) MI300X 서버(데이터센터) GPU * 8개
- 메모리 : HBM3 규격 1.5TB
- 산업 표준 규격 디자인
▶ AMD Instinct(인스팅트) 서버(데이터센터) GPU[LLM(대규모 언어 모델 특화) GPU]
- AI 워크로드를 위한 리더십 TCO
- 산업 표준 플랫폼으로 배포 용이
- 기업용 소프트웨어 스택
▶ AMD Instinct(인스팅트) 서버(데이터센터) GPU 제품 라인업 공개!
- CPU + GPU 혼합(APU) : Instinct(인스팅트) MI300A(오늘 출시!)
- 단일 GPU 가속기 : Instinct(인스팅트) MI300X(2023년도 3분기에 출시 예정!)
|
[서버(데이터센터) GPU - 벤치마크]
▶ AMD 인스팅트 MI300X 서버(데이터센터) GPU(GPU 코어 전용 모델) 비교
- HBM 메모리 밀도[엔비디아 H100 서버(데이터센터) GPU 비교] : 2.4배
- HBM 대역폭 비교[엔비디아 H100 서버(데이터센터) GPU 비교] : 1.6배
※ 생성 AI 및 모델 가속기 리더쉽의 서버(데이터센터) GPU
▶ LLM(대규모 언어 모델) 추론 공개 퍼블릭 데모시연
- AMD Instinct(인스팅트) MI300X 서버(데이터센터) GPU : LLM 추론 최적화, 192GB HBM3 메모리
- 400억 개의 매개변수[Falcon-400억 모델(HBM 메모리에 내장됨)]
※ Falcon-400억 모델 & AMD Instinct(인스팅트) MI300X 서버(데이터센터) GPU의 모델 시동 구연!
▶ AMD 인스팅트 MI300X 서버(데이터센터) GPU(GPU 코어 전용 모델) : 추론 성능의 장점
- 경쟁사 서버(데이터센터) GPU 메모리(80GB)
- AMD Instinct(인스팅트) MI300X 서버(데이터센터) GPU 메모리(192GB)
☞ 그래프(더 적은 수의 GPU로 더 큰 모델을 훈련)
① 가로 축 : 파라메터 개수(400억, 1,750억, 3,400억, 5,400억)
② 세로 축 : GPU 개수
③ 모델 종류 : Falcom, GPT-3, PaLM 2, PaLM
|
그리고, '오목교 전자상가'라는 채널이 무슨 채널인지 알고 계시거나 모르고 계신 분들이 있을 지 몰라서 한번 알려드립니다.
☞ '오목교 전자상가' 유튜브 채널의 정체
① 오목교 전자상가 : SBS 방송국 산하 뉴스 & 미디어 부문 자회사(SBS 디지털 뉴스랩) 산하 유튜브 채널
② 제 컨퍼런스 댓글 생중계를 언급하게 된 사연 :2023년 CES 컨퍼런스부터 전체 정리본을 메일로 전달하고 있었구요.
|
결론 : 제가 진행하고 있는 'IT컨퍼런스 댓글 생중계(전체 정리본) 일부 내용'을 직접 인용하여, 변함없이 IT 컨퍼런스를 진행하는 진심을
알아주셨고, 정말로 'IT 컨퍼런스 댓글 생중계(전체 정리본)'를 더욱 변함없이 중계하는 데 힘써야겠다는 마음이 어제 내내 머릿 속에서
계속 떠돈 하루였습니다ㅠ