반응형 오픈AI 초지능1 OpenAI 「초지능이 탄생하면 제어 불가능」, 인류를 멸망시키는 AI를 다른 AI로 감시할 계획 OpenAI가 7월 5일, 인간에게 안전한 AI를 유지하기 위한 새로운 연구팀을 시작할 계획을 공표했습니다. 최종적으로는 AI에 의한 AI의 감시를 목표로 합니다. 이 계획은 공동 창립자인 이리아 사츠키바와 조정 책임자인 양 라이카가 발표했습니다. 양 씨는 10년 이내에 '초지능(Superinteligence)' AI가 출현할 가능성을 지적하며, '거대한 힘은 매우 위험하며 인류를 무력화하거나 멸종시킬 가능성조차 있다'라고 말하며 기술 개선의 필요성을 설명했습니다. OpenAI에 의하면, 「RLHF(인간의 피드백으로부터의 강화 학습)」를 비롯해, AI를 조정하는 기존 기술은 인간의 능력에 의존하고 있습니다. 따라서 인간보다 훨씬 현명한 초지능 AI가 등장해 버리면, 확실하게 이를 제어해 폭주를 막을 수 .. 2023. 7. 13. 이전 1 다음 반응형