이번에 나온 Chat GPT 라는 인공지능... 저는 사용자 초과인지 가입도 안 되고 입뺀 당했군요...
굉장히 생각은 많고 할 말도 많은데 조리있게 쓸 능력이 안 되어서, 어질러놓듯이 씁니다.
- 몇 달 전까지도 AI의 언어 능력에 대해서 매우 낮게 평가하고 있었습니다.
인터넷에서 남이 말해놓은 문장을, 아주 많이 모아서, 그럴싸하게 붙여놓은 것에 언어 능력이 있다고 말할 수 있는가? 이거야말로 '중국집 테스트'의 실제 구현 버전이 아닌가? 그런 생각이었습니다.
- 과거(8, 90년도?)에는 인공지능에 아주 많은 사실(Fact)과 개념(Concept)을 주입한다면 그 지식들을 바탕으로 인공지능이 스스로 사고할 수 있다고 여겼다고 합니다. 그렇지만 이러한 지식을 수십만 개를 주입해도 기초적인 상식을 추론하는 것조차 실패했다고 하더군요. 이 기초적인 상식을 갖는 것은 현재의 거대한 첨단 인공지능에게도 버거운 문제입니다. 들은 간단한 예시를 인용하겠습니다.
버터 조각들을 긴 쇠젓가락에 끼우고, 한 쪽에서 불을 켜면 어떻게 되는가?
(Chat GPT 이용 가능하신 분들은 이런걸 해보시는건 어떨까 궁금합니다)
어린아이도 알 수 있는 문제지만 인공지능이 '불에 가까운 쪽부터 녹아 떨어진다' 라는 답에 도달하려면, 다음과 같은 사실을 적절히 이용하여 추론 과정을 거쳐야 합니다.
버터: 온도가 올라가면 녹는다 (고소하다, 노랗다... 등등의 속성은 필요없음)
녹는다: 물체가 액체가 되는 현상
액체: 담아놓지 않으면 흘러버리게 된다
쇠젓가락: 금속으로 되어있음 (금속: 열을 잘 전달하는 성질을 가짐)
불: 뜨겁다, 가까이 있는 물건의 온도를 높인다
열은 뜨거운 것 근처에 있거나 닿아 있으면 가까운 쪽부터 먼 쪽으로 전달된다
=> '불'에 닿아있는 '쇠젓가락'이 '불'에 가까운 쪽부터 '온도'가 상승한다. 이에 '쇠젓가락'에 닿아있는 '버터'도 '온도'가 상승하여 '녹는다'. 녹은 '버터'는 '액체'가 되어 떨어지게 된다.
이 정도의 수준이라면 정말로 지능이 있다고 부를 만 하겠네요.
- AI가 진정으로 사고한다고 주장하려면, 인터넷 안에 답이 존재하는 지식을 묻는 것이 아니라, 추론 능력을 시험하는 것에 포커스를 두어야 한다고 생각합니다. 이전의 언어 AI의 결과물은, 마치 제가 교양과목 과제로 <몽골 제국이 번영한 이유를 서술하시요> 라는 레포트를 쓰는 것과 유사하다고 생각합니다.
저는 이과라서 세계사를 잘 배우지도 않았고, 대학에 와서도 몽골에 대해서는 거의 들어본 적도 없습니다. 그렇지만 인터넷을 켜 보죠. 여기 지식의 보고 나무가 있네요. 찾아보니 다른 블로그도 나옵니다. 이 글들이 대충 비슷비슷한 말을 하는 것 같네요. 글들을 모아서 비슷한 주제별로 나누고, 글들마다 말하는게 다른 내용은 뺍시다. 너무 어려운 단어나 특정 사건도 빼는 것이 좋겠네요. 글의 호응이 맞지 않는 부분과 맞춤법이 틀린 것도 고칩시다. 11시 59분에 제출.
이 보고서는 몇 점일까요? 일단은 (아주 헛소리를 보고 가져온 것이 아니라면) 거기에는 대략적으로 맞는 내용이 써져 있을 것이고, 저는 몽골에 대해서는 전혀 모르지만 글들을 보고 비슷한 성격의 문단끼리 정리하는 능력은 있으니 대충 몽골 제국의 성립, 발전, 전쟁, 제도, 쇠퇴, 영향과 의의... 이렇게 정리를 하고 맞춤법 검사도 빡세게 돌렸으니 문장도 크게 흠잡을 곳은 없을 것입니다. 그리고 개개의 항목에서의 사실 여부도 좀 맞긴 할 것입니다. 보통 사람들이 보기에는 썩 나쁘지 않겠죠.
그러면 교수님이 읽으면 어떨까요? 저의 글에는 역사적 맥락에 대한 이해가 전혀 없으므로 흠잡을 구석이 많을 것입니다. 저는 사건들의 순서와 인과를 구별할 역사적 지식이 없기 때문에 오비이락 식 해석이나 인과를 뒤집는 오류 또한 있겠습니다. 학자들 사이에서는 터무니없지만 일반인들은 믿고 있는 오류도 많겠군요. 이런. 사실 한 대상이었는데 몽골식 표기와 한자식 표기로 되어 있는 명칭을 서로 다른 두 대상인줄 알고 썼습니다. 교수님은 이제 의심을 하겠죠. 알고 쓰는 글이 아니라는 것을.
현재 인공지능의 결과물은 이 레포트와 같다고 생각합니다. 지식의 탐색, 분류, 나열이라는 기능에서는 (때로는 밤샘 대학생보다 앞서는) 좋은 결과를 내지만, 이 인공지능은 몽골의 역사에 대해서는 전혀 아는 것이 없습니다. 따라서 많은 실수를 내게 됩니다. 이건 제가 아무리 글쓰기 책을 사 읽고 구글링을 잘 하는 법을 연습한들(언어 모델의 정교화 거대화), 몽골 역사 공부를 제대로 하지 않으면(실재적 지식과 통찰) 반복하게 되는 실수겠죠.
이것이 '중국집 기능'과 '실제 지식'의 차이점이라 생각합니다.
- 그런데 사람도 정말 체계적이고 심오하게 학습을 할까요? 제가 워낙 많은 것들을 대충대충 배우고, 대충 읽고, 스택 오버플로우에서 읍읍... 해서 그런지, 사람의 학습도 엄청 얼레벌레 따라하는 단계에서 조금씩 고쳐가는 것 같습니다.
일단 잘 모르는 채로 믿을 만한 사람들이 하는 말들을 따라하고 (맹목적으로 신뢰하고) 시간이 지남에 따라 서로 모순이 있다는 것을 깨닫고, 무엇이 맞는지 다른 사람들에게 물어보다, 이제는 내 생각이 좀 생긴 것 같습니다. 내 생각을 포럼에 올립니다. 반박이 들어오네요. 나름 지금까지 본 내용들을 가지고 반박을 씁니다. 더 반박이 들어옵니다. 잘 모르겠습니다. 그 내용에 대해 가장 자세한 자료를 찾아 기술 문서나 책을 꺼냅니다. 거기서 얻은 지식으로 보강한 뒤에 다시 글을 씁니다. (계속된 반복)
인공지능이 레딧 따위가 아니라 스스로 논문이나 도서를 찾아 팩트체크를 하기 시작한다면, 그 내부가 중국집이건 일식집이건, 대단히 무섭고 놀라운 기계가 될 것 같습니다.
+ 구글의 어느 엔지니어가, 자기 모델에 인격이 있다는 횡설수설을 하다가 해고당한 적이 있었는데,
지성과 인격은 아주 달라서 분리를 해야 할 것 같습니다. 드물지만 몽유병 상태에서 운전을 하는 등의 일상 행동을 하는 경우가 있는데, 이 사람은 지금 뭔가 지적인 태스크를 하고 있지만 인격은 전혀 없다고 보아야 할 것 같습니다. 어떤 거대한 '몽유병 천재 기계' 가 있다면, 아주 고도의 지성은 갖고 있지만 인격이나 감정은 티끌만큼도 존재하지 않는... 그런 것이 가능하다고 저는 믿습니다.
구글이나 다른 거대 테크 기업의 인공지능 또한 비선형 모델이 아주 많을 뿐인데 여기에 감정이 끼어들 공간이 없을 것 같네요. 사람의 뇌에서 감정을 지배하는 구역이 따로 있는 것처럼, 인격이 있는 인공지능을 위해서는 감정 아키텍처를 따로 개발해서 붙이던가 해야 할 것 같습니다.
아 너무 졸립니다. 일단은 여기까지 두서없이 써 보았습니다...
팡팡!에 당첨되어 50포인트를 보너스로 받으셨습니다.