2023년 12월 07일 오전 3시, 'AMD, Together We Advance_Advancing AI[인스팅트 MI300 서버(데이터센터) GPU]' 컨퍼런스가 생중계되었는데요.
당시 게시자 본인도 댓글 생중계를 진행하고, 이에 댓글 내용을 전체 취합 및 정리하여 'AMD, Together We Advance_Advancing AI[인스팅트 MI300 서버(데이터센터) GPU]' 컨퍼런스 전체 정리본을 올려드립니다.
많은 도움이 되셨으면 좋겠습니다. 감사합니다.
[키워드] ▶ AI(인공지능), 50년 만에 가장 혁신적인 기술 + 연관 직종 - 의료 산업 - 기후 연구 - AI 조수 - 로보틱스 - 보안 - 컨텐츠 제작
▶ AI(인공지능) 가속기 시장의 변화 ① 1년 전의 AI 가속기 시장 현황 - 2023년 : 300억 달러 - 2027년 : 1,500억 달러 이상 ※ CAGR(연 평균) ~50% 성장함(데이터센터 AI 가속기)
② 오늘의 AI 가속기 시장 - 2023년 : 450억 달러 - 2027년 : 4,000억 달러 이상 ※ CAGR(연 평균) ~70% 성장함(데이터센터 AI 가속기)
▶ AI(인공지능)의 인프라 고도화(End-to-End) - 클라우드 - HPC(고성능 컴퓨팅) - 엔터프라이즈 - 임베디드 - PC
▶ 생성-AI(인공지능) : 가장 까다로운 서버(데이터센터)의 워크로드
▶ 개방형 네트워킹 : AI(인공지능) 인프라 기반
▶ AI 성능(그래프) - 클러스터 성장을 촉진해야 함(모델 훈련에 필요한 GPU 수) - 수평 : 연도(2016 ~ 2024년) - 수직 : 총 클러스터 사이즈(퍼블릭 데이터)
▶ 서버 내 확장 - 'Front-End' 네트워크(데이터센터와의 연결) - 'Back-End' 네트워크(클러스터 확장) - 구성요소 : CPU, GPU, NIC ※ 서버 이상으로 확장(GPU 작업 공간 확장) ※ 각 서버에서 긴밀하게 상호 연결된 GPU
▶ 네트워크의 중요성 - 키워드 : 고성능, 확장성, 개방형(정답은 '이더넷' ☞ 울트라 이더넷 컨소시엄) - 구성요소 : 'Front-End' 네트워크, 'Back-End' 네트워크
▶ 클라우드와 클라이언트 전반에 걸친 원활한 컴퓨팅 - 개인정보 보호 - 비용 절감 - 대기 시간 이점 - 성능 - 개인화
|
[AMD] ▶ AI(인공지능)의 AMD - 광범위한 교육 및 추론 컴퓨팅 엔진 포트폴리오 - 개방적이고 검증된 S/W 기능 - 심층적인 공동 혁신을 갖춘 AI 생태계
▶ AMD, AI 인프라스트럭쳐 솔루션(공식 출시) - 클라우드 - 엔터프라이즈 - HPC(고성능 컴퓨팅) - PC
▶ AMD, S/W 역량 강화(개발자 경험 강화) ① AI S/W 개발사 인수 - Mipsology(8월 25일에 인수 발표) : AI 추론 S/W 개발사(고효율 추론) - Nod.AI(10월 10일에 인수 발표 : '오픈 소스' 기반 AI S/W 개발사
② S/W 역량 개발 강화 전략 - 오픈 소스 전략 확장 - 컴파일러 기반 최적화 개선 - 고객 참여 가속화
▶ AMD 플랫폼, 개발자의 변곡점 - 서버(데이터센터) GPU : AMD Instinct(인스팅트) MI300X[AMD 인스팅트 GPU 플랫폼] - S/W 플랫폼 : AMD Radeon Open Compute platfor'm'(ROCm) 6.0 - 생태계 확장 : Hugging Face, PyTorch(파이토치), OpenAI, ONNX, JAX, OAI Triton 등등 ※ '생성-AI(인공지능)'의 리더쉽 성능을 제공함
▶ AMD - '혁신가 & 전략적 파트너'에게 액세스를 확대함 - AMD Infinity Fabric(인피니티 패브릭) 생태계
▶ AMD Advantage(어드밴티지) - 새로운 성능 기능 잠금 해제 - 통합 메모리 - AMD 인피니티 캐시 메모리 - 동적 전력 공유 - 간소화 프로그래밍
▶ AMD, 'End-To-End' 기반의 AI(인공지능) 인프라스트럭쳐 고도화
※ AMD, 'Together We Advance_Advancing AI(인공지능)' 컨퍼런스의 주요 세션 간략 내용 ※ ① AMD Instinct(인스팅트) MI300X 서버(데이터센터) APU : 대량 생산 출시 - 벤더사 : HPE, Eviden, 기가바이트, 슈퍼마이크로 - 미국 LLNL : El-Capitan 슈퍼컴퓨터에 탑재
② AMD Instinct(인스팅트) MI300X 서버(데이터센터) GPU : 오늘 출시 - AI 솔루션 생태계 참여사 : 마이크로소프트, 메타(페이스북), 오라클, - AI 솔루션 제조 벤더사 : 델 테크놀로지, HPE, 레노버, 슈퍼마이크로, 아수스, 기가바이트, Ingrasys,, Inventec, QCT, Wistron, wiwynn - AI 인프라스트럭쳐 선택 규모 확대기업 : Aligned, Aron Energy, Cirrascale, Crusoe, DenVR(DataWorks), TensorWave - AI 네트워크 전문 벤더사 : ARISTA, 브로드컴, 시스코 시스템
③ AMD 'Radeon Open Compute platfor'm'(ROCM) - 신규 버전 : 6.0(2023년 12월 중에 출시 예정) - AI S/W 생태계 혁신가 및 기업 : Hugging Face, PyTorch(파이토치), OpenAI, ONNX, JAX, OAI Triton, TensorFlow, 데이터브릭, Essential-AI, Lamini, IBM 등
④ AMD RYZEN 8040 모바일 APU(H/W - 호크 포인트) - 벤더사 : 아수스, 마이크로소프트(윈도우 11 OS), HP, 에이서, 레노버, 델 테크놀로지 |
[클라이언트 모바일 CPU(APU) - H/W] ▶ AMD RYZEN 8040 모바일 APU H/W 시리즈 라인업 공식 발표! - 코드명 : Hawk Point(호크 포인트) - CPU : 'ZEN 4' CPU 마이크로아키텍처(8 코어 / 16 스레드) - GPU : '3rd RDNA' GPU 마이크로아키텍처 - AI(XDNA) : 16 TOPs - 프로세서 전체 성능 : 39 TOPs ※ 조만간 AI-PC 프로세서 탑재 출시 예정 |
[클라이언트 모바일 CPU(APU) - 벤치마크] ▶ AMD RYZEN 8040 모바일 APU 벤치마크(성능의 리더쉽) ▶ 벤치마크 대상 APU : AMD 'RYZEN 8945HS' 모바일 APU ☞ 경쟁사 모바일 CPU : 13세대 인텔 '코어 i9 13900H' - 멀티 스레드 : 1.1배 성능 차이 - 게이밍 성능 : 1.8배 성능 차이 - 컨텐츠 제작 : 1.4배 성능 차이
▶ AMD RYZEN 8040 모바일 APU의 'NPU' 벤치마크(성능 향상) ☞ 비교 대상 모바일 APU : AMD 'RYZEN 7040 모바일 APU' 시리즈 - Llama 2 성능 : 최대 1.4배 성능 - Vision Models : 최대 1.4배 성능 |
▶ AMD, 3rd CDNA '서버(데이터센터) GPU' 마이크로아키텍처 주요 특징 - FP16 | BF16 수치 : 3.4배 성능 자랑 - INT8 수치 : 6.8배 성능 자랑 - 메모리 용량 : 최대 1.5배 더 많음 - 메모리 대역폭 : 최대 1.6배 더 많음 - 지원 내용 : TF32, FP8, 희소성 - AMD 인피니티 캐시 메모리 : 256MB 탑재 |
[서버(데이터센터) GPU - H/W] ① AMD Infinity Architecture(인피니티 아키텍처)의 연도별 변화 ▶ 2021년(3세대 인피니티 아키텍처) - 서버(데이터센터) CPU : 3세대 EPYC(에픽) ↔ DDR 메모리 - 'ZEN 3' CPU 마이크로아키텍처 - 서버(데이터센터) GPU : 2세대 Instinct(인스팅트) MI250X ↔ HBM2e 메모리- '2nd CDNA' GPU 마이크로아키텍처
▶ 2023년(4세대 인피니티 아키텍처) - 서버(데이터센터) APU : AMD Instinct(인스팅트) MI300A - 서버(데이터센터) APU(CPU) : 4세대 EPYC(에픽) → 'ZEN 4' CPU 마이크로아키텍처 - 서버(데이터센터) APU(CPU) : 3세대 Instinct(인스팅트) → '3rd CDNA' GPU 마이크로아키텍처 ※ APU 내 'CPU 다이' + 'GPU 다이'는 통합 메모리(HBM3)로 연결됨! |
②-1. AMD Instinct(인스팅트) MI300A 서버(데이터센터) APU 공식 발표! - 4th 'ZEN' '서버(데이터센터) CPU' 마이크로아키텍처 - 3rd CDNA '서버(데이터센터) GPU' 마이크로아키텍처 - CPU CCD(4th ZEN) : 최대 24코어 탑재(x86 마이크로아키텍처) - XCD CU(3rd CDNA) : 최대 228개 탑재(코어 개수 : 64개 기준 14,592개) - I/O 다이 : 최대 4개 탑재[AMD 인피니티 캐시 메모리(256MB) 탑재] - 메모리(HBM3) : 128GB(대역폭 : 5.3TB/s) - 트랜지스터 : 1460억개
☞ 성능 사양 - FP64 : 61 TF(테라플롭스) - FP32 : 122 TF(테라플롭스) - FP64 : 61 TF(테라플롭스) ※ 세계 최초의 'HPC(고성능 컴퓨팅) & AI(인공지능)' 전용으로 특화된 서버(데이터센터) APU
②-2. AMD Instinct(인스팅트) MI300A 서버(데이터센터) APU - OEM 벤더사 & 솔루션 - HPE, EVIDEN, 기가바이트, 슈퍼마이크로
②-3. AI(인공지능) & HPC(고성능 컴퓨팅) = 융합의 가속화 - AMD Instinct(인스팅트) MI300A : 'CosmoFlow'를 통한 딥-러닝을 통해 대규모로 우주 학습이 가능함. |
③-1. AMD Instinct(인스팅트) MI300X 서버(데이터센터) GPU 공식 소개! - 3rd CDNA '서버(데이터센터) GPU 마이크로아키텍처 - '생성-AI(인공지능)'의 발전에 특화된 GPU - 트랜지스터 : 1530억개 - 제조공정 : 5nm & 6nm - XCD CU(3rd CDNA) : 최대 304개 탑재(코어 개수 : 64개 기준 19,456개) - I/O 다이 : 최대 4개 탑재[AMD 인피니티 캐시 메모리(256MB) 탑재] - 메모리(HBM3) : 192GB(대역폭 : 5.3TB/s) ※ AMD Instinct(인스팅트) MI300X GPU 가속기 - '생성-AI(인공지능)'의 리더쉽
③-2. AMD Instinct(인스팅트) MI300X 서버(데이터센터) GPU - OEM 벤더사 & 솔루션 - 델 테크놀로지, HPE, 레노버, 슈퍼마이크로 - 아수스, 기가바이트, Inventec, Ingrasys, QCT, Wistron, wiwynn
③-3. AMD Instinct(인스팅트) 'MI300X' GPU 인프라스트럭쳐 선택 규모 확대 기업 - Aligned - Aron Energy - Cirrascale - Crusoe - DenVR DataWorks - TensorWave
|
④ AMD Instinct(인스팅트) GPU 플랫폼 주요 내용 공식 소개![업계 최고의 '생성-AI(인공지능)' 플랫폼] - 서버(데이터센터) GPU : AMD Instinct(인스팅트) MI300X * 8개 - 메모리 용량의 리더쉽 : 192GB * 8개 : 최대 1.5TB - 4세대 AMD 인피니티 패브릭 - 산업 표준 디자인(OCP 인프라스트럭쳐) |
[서버(데이터센터) GPU - 벤치마크] ①-1. AMD 인스팅트 MI300A ☞ 성능의 리더쉽(벤치마크) / 경쟁사 : 엔비디아 H100 서버(데이터센터 GPU) - 메모리 용량 : 1.6배 더 많음 - 메모리 대역폭 : 1.6배 더 많음 - FP16(TF) : 1배 더 많음 - FP32 & FP64(TF) : 1.8배 더 많음 ※ 새로운 차원의 고성능 리더십 '서버(데이터센터) APU'
①-2. AMD Instinct(인스팅트) MI300A ☞ HPC 성능의 리더쉽(벤치마크) / 경쟁사 : 엔비디아 H100 서버(데이터센터 GPU) - 벤치마크 결과 : 최대 4배 더 빠른 성능을 자랑함 - 벤치마크 구성요소 : GPU 성능, 메모리(용량 & 대역폭), 통합 메모리 ※ 벤치마크 실행 프로그램 : OpenFOAM
①-3. AMD Instinct(인스팅트) MI300A ☞ HPC 성능의 리더쉽(벤치마크) / 경쟁사 : 엔비디아 '그레이스-호퍼' 슈퍼칩 - 와트당 성능비 : 최대 2배 향상을 자랑함 |
[서버(데이터센터) GPU - 벤치마크] ②-1. AMD Instinct(인스팅트) MI300X ☞ '생성-AI'의 리더쉽 벤치마크[경쟁사 : 엔비디아 H100 서버(데이터센터 GPU)] - 메모리 용량 : 2.4배 차이 - 메모리 대역폭 : 1.6배 차이 - FP8(테라플롭스) : 1.3배 성능 - FP16(테라플롭스) : 1.3배 성능
②-2. AMD 인스팅트 MI300X ☞ 주요 AI(인공지능) 성능 벤치마크[경쟁사 : 엔비디아 H100 서버(데이터센터 GPU)] - Flash Attention-2(중형 커널) : 1.1배 차이 - Flash Attention-2(대형 커널) : 1.2배 차이 - Llama II(700억개 매개 변수) 모델(중형 모델) : 1.2배 차이 - Llama II(700억개 매개 변수) 모델(대형 모델) : 1.1배 차이 ※ 공통 LLM 커널(TFLOPS)
②-3. 세계적 수준의 훈련 성능 비교[단일 서버(8개 GPU) - 대역폭] - AMD Instinct(인스팅트) MI300X : 최대 1배 차이 - 엔비디아 H100 HGX : X ※ AI 모델 : MPT(사이즈 : 300억 매개변수)
②-4. AMD Instinct(인스팅트) MI300X ☞ '추론' 성능의 리더쉽 벤치마크[경쟁사 : 엔비디아 H100 HGX 플랫폼] - 'Bloom 모델' 대역폭 : 최대 1.6배 차이 - 'Llama II 모델' 지연 시간 단축 : 최대 1.4배 차이 ※ AI 모델 : Bloom(사이즈 : 1,760억 매개변수), Llama II(사이즈 : 700억 매개변수) ※ 단일 서버(8개 GPU)
②-5. AMD 'Instinct(인스팅트) MI300X GPU' 플랫폼 비교[경쟁사 : 엔비디아 H100 HGX 플랫폼] - 메모리 : 엔비디아(640GB) vs AMD(1.5TB) ☞ 최대 2.4배 더 많은 메모리 용량 보유 - 컴퓨팅 성능(FP16 / BF16) : 엔비디아(7.9 PF) vs AMD(10.4 PF) ☞ 최대 1.3배 더 빠른 성능을 자랑함 - 양방향 대역폭 : 엔비디아(900GB/s) vs AMD(896GB/s) ☞ 동등함(4GB 대역폭이 AMD가 모자름) - 단일 노드-링 대역폭 : 엔비디아(450GB/s) vs AMD(448GB/s) ☞ 동등함(2GB 대역폭이 AMD가 모자름) - NIC(GPU) : 엔비디아(400 GBe) vs AMD(400 GBe) ☞ 동등함 - PCI 익스프레스 버전 : 엔비디아(5.0) vs AMD(5.0) ☞ 동등함
②-6. AMD 'Instinct(인스팅트) MI300X GPU' 플랫폼 비교[경쟁사 : 엔비디아 H100 HGX 플랫폼] - 성능당 시스템 : 엔비디아(훈련 & 추론 : 1배 성능) vs AMD[훈련(1배) + 추론(1.6배)] - 모델당 시스템 : 엔비디아(훈련 & 추론 : 1배 성능) vs AMD[훈련(2배) + 추론(2배)] - 최대 'LLM(대형 언어 모델)' 규모 지원 : 엔비디아(훈련 & 추론 : 1배 성능) vs AMD[훈련 & 추론(2배)] ※ Capital Expenditure(CapEx) 모델 비교 기준 |
[파트너쉽 - 마이크로소프트] (1차)AMD & 마이크로소프트 파트너쉽 공식 발표! - 출연자 : CTO(최고기술책임자) 케빈 스캇 - 추가 정보 : '마이크로소프트 이그나이트(2023)'에서 공식 발표 [AMD 'Instinct(인스팅트) MI300X' GPU 기반 VM : 'Azure ND MI300X V5']
|
(2차)AMD & 마이크로소프트 파트너쉽 공식 발표! - 출연자 : 윈도우 OS & 디바이스 부문 CVP - Pavan Davuluri
▶ AMD RYZEN(라이젠) 및 마이크로소프트 윈도우 OS - AI(인공지능) 경험을 생생하게 구현이 가능함
▶ 마이크로소프트 윈도우 - Windows Studio Effects(윈도우 스튜디오 효과) - 자동 프레이밍 - 눈맞춤 교정 - 고급 배경 효과 ※ 해당 효과 데모 사진 : '2세대 서피스 랩탑 스튜디오'의 소개 트레일러에서 나왔던 데모 사진
▶ 마이크로소프트 'CO-Pilot' - PC에서 'AI(인공지능)'의 세계를 연결 - 신규 시스템 아키텍처(구성요소) : GPU, NPU, 클라우드(함께 결합) - 윈도우-AI(인공지능) 생태계 + AMD RYZEN(라이젠) CPU ☞ 'AI(인공지능)' 혁신의 미래를 가능하게 하도록 설계되었음. ※ 윈도우 OS를 '최고의 AI(인공지능) 경험'을 위한 목적지로 설계 |
[파트너쉽 - 기타 벤더사] ▶ AMD & '오라클 클라우드' 파트너쉽 발표! - 출연자 : OCP SVP, Karan Batta
▶ AMD & Meta(메타 - 구 페이스북) 파트너쉽 공식 발표! - 출연자 : Meta AI - 시니어 엔지니어링 디렉터, Ajit Mathews
▶ AMD & 델 테크놀로지 파트너쉽 공식 발표! - 출연자 : 코어 비즈니스 운영 부문 & 글로벌 인프라스트럭쳐 솔루션 그룹 사장 - Atrhur Lewis
▶ AMD & '슈퍼마이크로' 파트너쉽 공식 발표! - 출연자 : 창업자 + 사장 겸 CEO, Carles Liang
▶ AMD & '레노버' 파트너쉽 공식 발표! - 출연자 : 인프라스트럭쳐 솔루션 그룹 EVP & 사장 - Kirk Shaugen
▶ 미국 '로렌스 리버모어' 국립연구소 - AMD Instinct(인스팅트) MI300A APU 사용 사례 소개
AMD & "HPE' 파트너쉽 공식 발표! - 출연자 : 'AI(인공지능) & 연구소 + HPC(고성능 컴퓨팅)' 부문 SVP + CPO(최고제품책임자) ☞ Trish Damkroger |
[개발사(벤더사)] ▶ AI(인공지능) 혁신가 기업 초대 ☞ 데이터브릭 : Ion Stoica(창업자, 총괄 회장) - '기업-AI 개발'을 위한 'Mosaic-ML'의 '생성-AI(인공지능)' 플랫폼
☞ Essential-AI : Ashish Vaswani(창업자 & CEO) - 'Essential-AI 임무'는 기업을 위한 인간-기계 협업을 가속화
☞ Lamini : Sharon Zhou(창업자 & CEO) - 자신만의 모델을 구축하기 위한 LLM 플랫폼.
▶ AI(인공지능) 네트워크 전문 벤더사 출연 - ARISTA : Andy Bechtolsheim(최고 설계자) - 브로드컴 : Jas Tremblay(데이터센터 솔루션 VP & 총괄 책임자) - 시스코 시스템 : Jonathan Davidson(EVP & 총괄 책임자) |
[S/W - 일반] ▶ S/W 비전 제공 - AMD Instinct(인스팅트 S/W 생태계 모멘텀
▶ 소프트웨어 투자 및 생태계 확대
▶ AI(인공지능) 솔루션 - 클라우드 ~ 엔드포인트 - 서버(데이터센터) CPU : ZenDNN ☞ '생성-AI(인공지능)' End to End - 서버(데이터센터) GPU : ROCm(Radeon Open Compute platfor'm') ☞ 어느 모델 - 자일링스 Vitis-AI(클라이언트, 임베디드 엣지, 엔드포인트) : 광범위한 AI(인공지능) 생태계 |
[S/W - ROCm(Radeon Open Compute platfor'm')] ▶ AMD ROCm & S/W 모멘템 - AMD H/W(라데온 + 인스팅트 GPU) : 확장된 개발자 지원 - AMD ROCm(런타임, 컴파일러 & 도구, 라이브러리) : 확장된 '생성-AI' 최적화 - AI 모델 & 알고리즘[PyTorch(파이토치), 텐서플로우, ONNX, JAX) : 확장된 환경 지원
▶ AMD Radeon Open Compute platfor'm'(이하 ROCm) 6.0 신규 버전 공식 발표! - '생성-AI(인공지능)'를 위한 신규 기능을 제공 - 확장된 생태계 지원 : 프레임워크, 모델, ML(머신 러닝) 파이프라인 - 고성능 AI 라이브러리 : 컴퓨팅 & 대역폭 오퍼레이터, 구조화된 희소성, 양자화 라이브러리 - 고급 LLM(대형 언어 모델) 최적화 : 동적 'FP16, BF16, FP8' 활용, 고급 주의 알고리즘 및 커널, 집단 커뮤니케이션, HIPGraph |
[S/W - 벤치마크(ROCm - Radeon Open Compute platfor'm')] ▶ LLM(대형 언어 모델) 최적화(Feat. AMD ROCm 기능 개선) - vLLM(추론 라이브러리 최적화) : 최대 2.6배 개선 - HIP 그래프(런타임 최적화) : 최대 1.4배 개선 - Flash Attention(커널 최적화) : 최대 1.3배 개선
▶ AMD Instinct(인스팅트) GPU + ROCm = 세대 간의 성능 비교 - Instinct 'MI250X' GPU + ROCm 5.0 - Instinct 'MI300X' GPU + ROCm 6.0 ※ 세대 간의 성능 : 최대 8배 이상의 성능을 자랑함 ※ 모델 : Llama II 모델(700억개 매개변수)
▶ '추론' 성능의 리더쉽 벤치마크[경쟁사 : 엔비디아 H100 서버(데이터센터) GPU] ☞ 단일 GPU 기준 - 모델 : Llama II(130억개 매개변수) - AMD Instinct MI300X GPU : 최대 1.2배 성능을 자랑함 |
[S/W - 개발자(생태계)] ▶ 강력한 S/W 개발사 생태계 모멘텀 - Hugging Face: '62,000개 이상의 모델'이 야간에 실행되는 완전 통합형 최적 라이브러리 - PyTorch(파이토치) : 최신 플랫폼으로 '포팅'에서 '개발'까지 지원 - 오픈소스 기여 증가 및 영향력 확대(TensorFlow, JAX, ONNX 런타임, MLR/MEE, OpenSLA 등등)
※ 특별메세지 - [OpenAI(우리가 하는 ChatGPT 개발사 맞습니다!)] - Philippe Tillet - OpenAI는 개방형 생태계를 지원하기 위해 AMD와 협력하고 있음. - 다가오는 3.0 릴리스부터 스탠드 트리톤 배포판에 'AMD Instinct MI300'을 포함한 AMD의 GPU를 지원할 계획임 |
[AI(인공지능) - RYZEN-AI(라이젠-AI)] ▶ AMD RYZEN-AI(라이젠-AI) - 전용 NPU : 진정한 지능적이고, 개인화된 경험을 가능하게 하기 위해 PC를 재구성함. - 'AI(인공지능) PC' 시대를 선도 : 세계 최초로 'NPU'를 통합한 x86 CPU 마이크로아키텍처 - AMD 라이젠 7040 모바일 APU[Feat. AMD Xilinx-DNA(XDNA) 마이크로아키텍처]
▶ AMD 적응형-AI(인공지능) 아키텍처[Feat. AMD 라이젠 7040 모바일 APU(통합 NPU 탑재)] - 확장 가능한 NPU 아키텍처 - 더 낮은 대기 시간을 위해 다이에 통합 - 고성능 및 에너지 효율성 - 최대 4개의 동시 전용 AI 스트림
▶ 2023년도 : '수백만 대'의 RYZEN-AI(라이젠-AI) PC를 출하 - 벤더사 : 에이서, 아수스, 델 테크놀로지, HP, 레노버
▶ AMD RYZEN-AI(라이젠-AI) 구성 요소 - 100개 이상의 AI 기반 경험(AMD RYZEN-AI 호환 PC를 위한 Adobe, Black Magic, Topaz Labs 등) - NPU 기반 '윈도우 11 OS'의 '윈도우 스튜디오 효과'로 최초로 시장 규모 달성 - AMD 'RYZEN-AI S/W'로 AI PC에 '생성-AI(인공지능)' 채택 가속화
▶ AMD RYZEN-AI(라이젠-AI) S/W 1.0 버전 공식 발표! - 순서 : 사전 훈련된 모델 → '모델 양자화 + ONNX Runtime'으로 배포 → 'RYZEN-AI' 노트북에서 실행할 준비가 된 애플리케이션 - AMD 'RYZEN-AI' 1.0 S/W : 빠르고 쉬운 배포로 몇 분 안에 시작이 가능함.
▶ 차세대 'RYZEN-AI(라이젠-AI)' AI 프로세서 로드맵 공식 발표![PC에서' 생성-AI(인공지능)' 위한 준비] - 2023년 2분기 출시 : AMD RYZEN 7040(피닉스) 모바일 APU(1st XDNA) / 10 NPU TOPs(Total : 33 TOPs) - 2024년 1분기 출시 예정: AMD RYZEN 8040(호크-포인트) 모바일 APU(1st XDNA) / 16 NPU TOPs(Total : 39 TOPs) - 차세대 RYZEN-AI 아키텍처 로드맵 발표! : 2024년 내에 출시 예정[AMD 2nd XDNA AI 아키텍처 / 차세대 NPU & 생성-AI(인공지능) 기반] ☞ 코드명 : Strix-Point(스트릭스-포인트)
▶ AMD '2nd XDNA' AI 아키텍처 주요 내용 - AMD 'Strix Point(스트릭스 포인트)' 모바일 APU에 탑재(2024년 내로 출시 예정) - NPU 성능 : 최대 3배 이상의 '생성-AI(인공지능)' 성능을 자랑함 |