본문 바로가기
AI · 인공지능/AI 뉴스

3명의 AI 전문가가 미국 의회에서 증언, AI 연구의 1인자들의 시각은?

by 두우우부 2023. 7. 27.
반응형

 

2023년 7월 25일에 미국 상원 사법위원회가 개최한 공청회에서 AI에 빠삭한 3명이 증언을 실시해, AI에 관한 규제 본연의 자세나 향후 전망에 대해 제언했습니다.

AI leaders warn Senate of twin risks: Moving too slow and moving too fast | TechCrunch

AI leaders warn Senate of twin risks: Moving too slow and moving too fast | TechCrunch

We need to act soon, experts said, but with a light touch — risking AI abuse if we don't move forward, or a hamstrung industry if we rush it.

techcrunch.com



이번 미국 의회에서 열린 'AI 감시와 규제에 관한 공청회'에는 구글의 출자로 전 OpenAI 멤버가 시작한 AI 스타트업 Anthropic의 공동 설립자인 다리오 아모데이 씨, 캘리포니아 대학 버클리교의 컴퓨터 과학자 스튜어트 러셀 씨, 신경망과 딥 러닝 연구로 유명한 요슈아 벤지오 씨, 3명이 참석해 의원들의 질의에 답했습니다.


◆ 다리오 아모데이(Dario Amodei)

각 전문가에게는 우선, 단기적으로 가장 중요한 시책에 관한 견해로서 「우리는 무엇을 해야 할까?」라는 질문이 던져졌습니다. 이에 대해 아모데이 씨는 아래의 두 가지를 언급했습니다.

1. 공급망 확보
우리가 AI를 연구하고 제공하기 위해 의존하는 하드웨어에는 병목 현상과 취약성이 있으며, 일부는 지정학적 요인(예: 대만의 TSMC)과 IP 또는 안전 문제로 인해 위험에 처해 있습니다.

2. 차량 및 전자 제품과 같은 테스트 및 감사 프로세스의 정립
"엄격한 안전한 테스트 배터리"를 개발하십시오. 하지만 이러한 것들을 확립하기 위한 과학은 '초기 단계'에 있습니다. 표준을 개발하려면 위험을 정의해야 하며 이러한 표준을 세우려면 강력한 집행이 필요합니다.


관련글 : 대만의
TSMC가 AI용 고성능 반도체에 대응하는 첨단 공장을 신설

대만의 TSMC가 AI용 고성능 반도체에 대응하는 첨단 공장을 신설

대만의 반도체 제조 대기업인 TSMC는 2023년 6월 8일 대만 중부 신주에 선진 반도체 제조 후공정 공장인 Backend Fab6의 신설을 발표했습니다. 전자동화된 고도의 패키징과 테스트를 실시하는 시설로,

doooob.tistory.com


아모데이 씨는 AI 업계의 현상에 대해 라이트 형제가 첫 비행에 성공한 몇 년 후의 비행기에 비추어, "규제의 필요는 분명하지만 새로운 전개에 대응할 수 있는 생존력과 적응력을 가진 규제기관에 의해 이루어져야 합니다."라고 말하고 있습니다.

아모데이 씨에 의하면, 당면한 AI 리스크로서 가장 우려되는 것은 선거에 관한 오보, 딥 페이크, 프로파간다라고 합니다. 또한 미래의 리스크로서, 최첨단의 AI를 사용하면 위험한 바이러스나 그 밖의 생물 무기를 2년 내에 개발할 수 있을 가능성이 있다고 말했습니다.


◆ 스튜어트 러셀(Stuart Jonathan Russell)

러셀 씨는 단기적인 과제로서 아래의 4가지를 들었습니다.

1. 인간과 접하고 있는지 기계와 접하고 있는지 알 수 있는 절대적인 권리의 확립
2. 사람을 죽일 것을 결정할 수 있는 알고리즘은 어떠한 규모에서든 불법으로 할 것
3. AI 시스템이 자신을 복제하거나 다른 시스템에 침입하는 것을 막는 킬 스위치를 의무화
4. 규칙을 어긴 시스템을 강제적으로 시장에서 철수시킬 것


러셀 씨가 생각하는 가장 임박한 위험은 개인화된 AI를 사용한 「가짜 정보 캠페인」입니다. 이에 대해 러셀은 "우리는 한 개인에 대한 방대한 정보, 예를 들어 트위터와 페이스북에서 공개된 모든 정보를 AI에 제시, 교육하고 그 사람을 위한 가짜 정보 캠페인을 생성하도록 요청할 수 있습니다. 100만 명에 대하여 동시에 쓰는 것도 식은 죽 먹기입니다. 이것은 각각의 개인에게 맞춰져 있지 않은 가짜 뉴스의 발신이나 스팸 메일 등보다는 훨씬 효과적일 것입니다.

또한 중국의 AI에 대해 질문받은 러셀 씨는 이 나라의 AI 전반에 관한 전문지식수준은 "약간 과장되어 있다"라고 지적한 후, "중국에는 상당히 우수한 학술부문이 있지만, 핵심을 뽑힌 모양새(공산주의 제제에 의해)가 되어가고 있습니다."라고 대답했습니다. 러셀 씨에 따르면 "중국의 대규모 언어 모델은 모방적이며 OpenAI나 Anthropic을 위협할 정도는 아니지만, 음성이나 보행자의 인식 등, 감시 분야에서는 대부분의 예상대로 자유주의 진영을 앞서고 있다."라고 코멘트.


◆ 요슈아 벤지오(Yoshua Bengio)

벤지오는 아래의 셋을 과제로 들었습니다.

1. 대규모 AI 모델에 접근할 수 있는 사람을 제한하고 보안과 안전을 위한 인센티브 마련
2. 모델이 의도한 대로 동작하는 것을 확인할 수 있도록 한다
3. AI의 사용에 관한 실태를 감시해, 누가 이러한 모델을 만들 수 있는 규모의 하드웨어에 액세스 가능한지 파악할 것


벤지오 씨는 "우리 AI 연구자들은 자신들이 무엇을 하고 있는지 실은 잘 모른다."라고 했고, 그러한 AI 연구를 감시하기 위해서는 단순히 지식을 늘리거나 국가 간 개발 경쟁을 하는 것이 아니라 국제적인 협력을 빠뜨릴 수 없다고 지적하며, AI의 안전성에 관한 전 세계적 연구에 자금제공의 필요성을 강조하였습니다.

벤지오 씨는 또한 국회의 증언을 되돌아본 자신의 블로그 게시물에서 "우리는 사회, 인류 및 우리 모두의 미래를 잠재적인 위험으로부터 보호하면서 AI의 경제적 및 사회적 이익을 완전히 즐길 수 있도록 대담하고 연계된 세계적 노력에 최대한의 두뇌를 결집시켜 대규모 투자를 확보할 도덕적 책임을 갖고 있다고 확신합니다."라고 적고 있습니다.

반응형