본문 바로가기
AI · 인공지능/AI 뉴스

OpenAI 「초지능이 탄생하면 제어 불가능」, 인류를 멸망시키는 AI를 다른 AI로 감시할 계획

by 두우우부 2023. 7. 13.
반응형

 

OpenAI가 7월 5일, 인간에게 안전한 AI를 유지하기 위한 새로운 연구팀을 시작할 계획을 공표했습니다. 최종적으로는 AI에 의한 AI의 감시를 목표로 합니다.
 
이 계획은 공동 창립자인 이리아 사츠키바와 조정 책임자인 양 라이카가 발표했습니다. 양 씨는 10년 이내에 '초지능(Superinteligence)' AI가 출현할 가능성을 지적하며, '거대한 힘은 매우 위험하며 인류를 무력화하거나 멸종시킬 가능성조차 있다'라고 말하며 기술 개선의 필요성을 설명했습니다.
 
OpenAI에 의하면, 「RLHF(인간의 피드백으로부터의 강화 학습)」를 비롯해, AI를 조정하는 기존 기술은 인간의 능력에 의존하고 있습니다. 따라서 인간보다 훨씬 현명한 초지능 AI가 등장해 버리면, 확실하게 이를 제어해 폭주를 막을 수 있는 해결책은 지금까지 없다고 합니다.
 
따라서, AI의 조정을 위해 거의 인간과 동등한 능력을 가지는 자동화된 조사 시스템을 개발하여, 방대한 컴퓨터를 작동시켜 이 시스템으로 초지능 AI를 조정합니다. 즉 AI를 감시하는 AI라는 발상입니다.
 
이 노력의 일환으로 OpenAI는 향후 4년간 보유하고 있는 컴퓨터 자원의 20%를 AI의 안전성 문제 해결에 할당하여 일류의 기계 학습 연구자와 기술자로 구성된 '초조정(Superalignment) 팀'을 편성할 계획입니다.

반응형