NVIDIA가 구글의 대규모 언어 모델인 제미니의 공개 모델, Gemma에 최적화했다고 발표했습니다.
젬마 LLM를 NVIDIA GPU에서 최적화하는데 필요한 오픈소스 라이브러리인 텐서RT-LLM에서 지원해 젬마의 실행 속도를 높일 수 있습니다.
또 클라우드 NVIDIA GPU에서도 젬마를 실행하며, 챗 RTX에서도 젬마를 지원할 예정입니다.
참고/링크 | https://blogs.nvidia.com/blog/google-gemma-llm-rtx-ai-pc/ |
---|
NVIDIA가 구글의 대규모 언어 모델인 제미니의 공개 모델, Gemma에 최적화했다고 발표했습니다.
젬마 LLM를 NVIDIA GPU에서 최적화하는데 필요한 오픈소스 라이브러리인 텐서RT-LLM에서 지원해 젬마의 실행 속도를 높일 수 있습니다.
또 클라우드 NVIDIA GPU에서도 젬마를 실행하며, 챗 RTX에서도 젬마를 지원할 예정입니다.