이번에 한국에 진출한 DeepL을 사용해 보고 싶어서 유료 결제 했습니다.
그리고, DeepL과 GPT-4, 둘의 성능을 비교하고픈 마음에, 제가 좋아하는 해리 포터 유명 영문 팬픽을 동일한 구간을 넣고 돌려 보기로 하였죠.
(이미 이 팬픽은 너무 좋아해서 제가 여러 회 돌려 읽어서 번역 성능을 비교 하는데 적합하다 생각하였습니다.)
처음 예상은 당연하게, 속도는 DeepL이지만, 성능은 GPT-4라는 결과가 나오겠거니 하는 결론을 내릴 준비를 하고 있었습니다.
당연히, GPT-4가 웹 검색 등으로 컨닝을 하면 안되므로 플러그인은 제거하고, 둘 모두에 동일하게 구간을 넣고 결과를 기다리고 있었죠.
그런데, 제가 실수를 하고 말았습니다.
GPT-4에게 한국어로 번역해 달라는 요청을 한 것이 아니라, 아래 답변은 한국어로 할 것이라 요구 하였다는 점입니다.
번역이라면, 그냥 그대로 의미를 인풋값을 재생성 하겠으나, 답변을 한국어로 하라 요청하고 시작했으니, 그냥 읽고 한국어로 답변을 한 것이죠.
일단, 문장의 길이는 ChatGPT Plus 제한에 맞춰서 4K만 넣었습니다.
컨텍스트 총합 8K라 인풋과 아웃풋 합계 8K라서 8K를 다 넣으면 답을 못합니다.
GPT-4가 32K 모델이고, GPT-3.5도 16K임을 감안하면, 이건 서버 성능으로 제한을 걸었겠지 라고 의미 없는 생각을 여기까지 하고 있었습니다.
문제는 여기입니다.
이 녀석이 제가 말하지도 않은 제목을 말하면서, 이 팬픽의 내용과 앞으로의 전개를 요약하면서 말하기 시작한 것.
결국, 이 녀석은 자기 학습 데이터 중에 이 팬픽이 포함 되어 있음을 자백한 것이나 다름 없습니다.(...)
(인터넷 검색도 못하는데 그냥 작가가 마무리한 부분까지 내용을 다 뱉어 냅니다.)
혹시나 싶어서 구글 바드에게는 주소까지 넣어서 물어도 그냥 헛소리를 하는 것 보면, 바드는 모르는 것 같기도 한데, 그냥 바드는 성능이 너무 제약이 걸려서 그럴 수도 있겠다 싶네요.(...)
이런 것 보면, 미국에서 작가들이 OpenAI에 소송 거는게 당연해 보입니다.
그냥 원문 넣고 잘 두들겨 주면 자수하는 군요.
이번 것은 한국어라 그냥 쉽게 뱉은 것 같지만요.
이후로 혹시 다시 말하나 싶어서 물어도, 나는 몰라요 그러네요.