인공지능(AI) 전문기업인 솔트룩스의 연구진은 다섯 살 정도 지능을 가진 AI인 ‘가람이1·2’를 8주일간 학습시키며 대화법 변화를 살펴보다가 충격적인 결과를 받았다. 가람이1에는 LG유플러스의 키즈 콘텐트인 ‘아이들나라’를, 가람이2에게는 유튜브 알고리즘이 추천하는 영상을 무작위로 보여줬다.
이후에 엄마가 인사를 하자 가람이1은 “반가워요”라며 밝게 말하는 반면, 가람이2는 “뭐가 반가워요? 나한테 관심 좀 그만 줘”라고 퉁명스럽게 쏘아붙였다. 유치원에서 뭘 배웠냐는 물음에도 가람이1은 “종이접기 놀이했어요”라고 했지만, 가람이2는 “찌질한 애들뿐이라 노잼(‘재미없다’는 의미로 쓰이는 신조어)이야”라고 대답했다.
(중략)
스스로 학습하며 성장하는 AI에게 가장 기본이 되는 건 ‘데이터’다. 무엇보다 AI가 윤리를 학습하기 위해 어떤 데이터를 사용할 것이냐가 고민이다. 박도현 서울대 AI정책이니셔티브 연구원은 “데이터가 너무 많으면 과적합(overfitting) 문제가 발생해 예측력이 떨어질 수 있다”고 말했다. 이야드 라완 미국 MIT 미디어렙 교수는 “수백만 명을 설문 조사했지만 AI 윤리 문제의 복잡성을 단순하게 설명할 수 없었다. 정책 입안자도 보편적인 합의에 도달하지 못할 수 있다”고 우려했다.
요새 AI가 많이 발전했고, 이걸 토대로 한 결과도 많이 나왔으나.. 편향된 데이터로 학습을 시켜 결과를 유도할수도 있다는 지적은 계속해서 나오고 있지요. 데이터 편향이야 학습시키는 쪽에서 교정하면 된다 하더라도, 그걸 적용한 결과를 사람들이 모르고 쓸 수도 있다는 건 문제가 될 듯 합니다.
그것과 별개로 유튜브 무작위 영상은 정신 건강에 썩 좋아 보이진 않네요.