일단, 일반 탭을 단건 주장을 소개가 아니라, 이미 있는걸 좀 짜맞출려고 하는겁니다.
몇 달 전에 앤쓰로픽 측에서 AI 복지 리서처로 Kyle Fish를 고용했습니다.
https://eleosai.org/papers/20241030_Taking_AI_Welfare_Seriously_web.pdf
여튼 AI 복지를 챙겨야 하는 이유의 기계번역을 다듬은 겁니다.
이 보고서에서는 가까운 미래에 일부 AI 시스템이 의식을 가지거나 강력한 에이전트를 갖게 될 현실적인 가능성이 있다고 주장합니다. 즉, AI 복지와 도덕적 인내심, 즉 스스로의 이익과 도덕적 의미를 지닌 AI 시스템의 전망은 더 이상 공상과학이나 저 먼 미래의 문제가 아닙니다. 이는 가까운 미래를 위한 문제이며, AI 기업과 다른 주체들은 이를 진지하게 받아들여야 할 책임이 있습니다.
이 보고서에서는 다음과 같은 세 가지 초기 단계를 권장합니다.
(1) AI 복지가 중요하고 어려운 문제임을 인정(언어 모델 결과물도 마찬가지)
(2) 의식과 강력한 기관의 증거를 위해 AI 시스템 평가를 시작
(3) 적절한 수준의 도덕적 관심을 가지고 AI 시스템을 다루는 정책과 절차를 준비
참고로 분명히 말씀드리지만, 이 보고서의 주장은 AI 시스템이 확실히 의식이 있고, 강력한 에이전트가 있으며, 도덕적으로 중요한 존재라는 것이 절대 아닙니다. 대신, 이러한 가능성에 대해 상당한 불확실성이 존재하기 때문에 AI 복지에 대한 이해와 이 문제에 대해 현명한 결정을 내릴 수 있는 능력을 향상시켜야 한다는 주장입니다. 그렇지 않으면 AI 복지에 관한 결정을 잘못 내려 도덕적으로 중요한 AI 시스템을 실수로 해치거나 혹은 그렇지 않은 AI 시스템을 잘못 보살피게 될 위험이 있습니다.
----
그렇지 않은 AI를 잘못 보살피는건 스카이넷이나 제로원 같은거겠죠. 여튼, 새로운 윤리학이라고 볼 수 있겠네요.
전 지금 LLMs를 생각하면 이 놈들에게 능지는 존재하는건가? 하는 것이 떠오르는데 말이죠. 스키즈매트릭스인가... 전문가 프로그램을 던져놨는데 이전 신분에서 만든 와이프 이야기 하니까 어... 하는 전문가 프로그램이 떠오르네요... 여어튼, 시작할 필요는 있긴한데 지금 이렇게 생각한다고 해도 정작 닥치면 또 바뀔 윤리라고 생각합니다만...