https://chat.openai.com/share/931ec589-bd4f-4f5d-b843-ade7a28ce3c6
이렇게 Link 공유도 됩니다.
직접 확인하실 수 있으시니, 들어가 보시길...
링크 내용은 아래와 같습니다.
어쨌든, 예전에는 PDF든 책이든 웹 검색이든 스스로 다 뒤져야 했는데, 이 녀석 나오니까 그냥 그 챕터 부분을 통째로 Copy & Paste 하고는 부분 부분 필요한 내용 뽑아 쓰는 것이 버릇이 되어 가네요.
그러다 이해 안가면, 예제 달라 하고, 아니면 웹에서 사례 찾아 달라 하고...
그러면 신기하게 첨부해 줍니다.
그리고, 어지간하면 웾에서 긁어온 그 사례가 맞아요.
어찌 보면 확실하게 효율 향상에 기여한다고 할까요.
반면에, 이거 하나 돌리는데 들어가는 GPU 가격 생각하면 음 싶네요.
GPT-4가 공개 모델 대비 3~4배는 크다 알려져 있는데, 지금 공개 모델 가장 큰 사이즈도 4090이 VRAM 다 할당 해야지 겨우 돌아가는 수준이라...
사실상 개인이 이 수준 모델을 돌린다면, A100 x2 정도은 되어야...