OpenAI는 앞으로 나올 범용 AI(AGI)와 높은 성능의 초지능(Superintelligence) AI에 규제가 필요하다고 밝혔습니다. 이런 AI 시스템에 감사나 개발을 규제하는 국제 기구가 필요하다는 의견도 냈습니다.
앞으로 10년 안에 많은 분야에서 전문가를 넘어선 기술을 갖게 되면 사회가 많이 발전하겠지만, 위험 부담 역시 커지기 때문에 관리가 필요하다는 입장입니다.
그래서 개발에 어느 정도 조정이 필요하고, 감사나 개발을 규제할 국제 기관의 설치가 필요하며, 안전을 유지하기 위한 기기술력을 이야기하고 있습니다.
틀린 말은 하나도 없지만, 사실상 업계 1위가 저런 말을 하면 후발 업체들이 타고 오를 사다리를 걷어차고 싶습니다 내지는 주도권을 손에 쥐고 놓기 싫습니다로 읽히기도 한단 말이죠...