비탈릭 부테린, AI 하드웨어 일시 중단 제안으로 안전성 보장

[email protected]





비탈릭 부테린은 최근 자신의 블로그에서 AI가 인간 지능을 초월할 가능성에 대한 우려를 표명하며, 이 일이 5년 이내에 현실화될 수 있다고 경고했다. 그는 이와 같은 AI의 발전은 심각한 위험을 초래할 수 있다고 주장하며, 이를 예방하기 위해 1년에서 2년 동안 전 세계의 컴퓨팅 자원을 임시로 제한할 것을 제안했다. 이러한 제한은 인류가 다가오는 기술에 대비할 시간을 벌어주는 역할을 할 것이라고 그는 설명했다.

부테린이 제안한 ‘소프트 파우즈'(soft pause)는 전 세계 컴퓨팅 파워를 최대 99%까지 줄이는 것으로, 이는 초지능 AI의 개발 속도를 늦추고 인류가 적응할 수 있는 여유를 제공하기 위해 고안된 것이다. 그는 이러한 조치를 최후의 수단으로 받아들이지만, AI의 위험이 클 경우 반드시 필요하다고 강조했다.

그는 또한 산업 AI 하드웨어에 대해 주기적으로 국제 기관의 승인을 받아야 작동할 수 있는 칩을 장착할 것을 제안했다. 이와 같은 규칙은 AI의 잠재적 위험을 줄이기 위한 안전장치로 역할을 할 수 있을 것이며, 기존의 책임 규칙보다 강력한 대안이 될 수 있다.

부테린의 발언은 과거 2,600명 이상의 기술 리더들, 포함하여 엘론 머스크 등 주요 인사들이 서명한 2023년 3월 공개 서한에 힘을 실어주고 있다. 이 서한은 AI 개발 중단을 촉구하며 사회와 인류에 미치는 심각한 위험성을 강조했다.

부테린은 또한 AI 하드웨어에 대한 규제 방안으로 AI 칩 등록 제도를 언급하며, 이러한 하드웨어의 위치를 확인할 수 있도록 해야 한다고 밝혔다. 블록체인 기술을 통해 이러한 허가 프로토콜의 준수를 검증하는 방법도 제안하여 투명하고 변조가 불가능한 솔루션을 제공하는 의미를 강조했다.

부테린의 이러한 제안들은 ‘방어적 가속화'(defensive accelerationism)라는 그의 이전 주장을 바탕으로 하고 있다. 이는 기술 발전에 대한 신중한 접근을 강조하는 것으로, 기존의 ‘효과적 가속화'(effective accelerationism)와는 대조되는 개념이다. 그는 이번 제안이 고위험 AI 시나리오를 직접적으로 다룰 수 있는 방법으로 기능하길 바란다고 언급했다.

AI의 발전 속도가 빨라질수록 그로 인한 위험도 증가하고 있다. 부테린은 AI 기술의 무분별한 사용을 피하고 인류의 안전을 보장하기 위한 이 같은 제안이 필요하다고 강조했다. 그는 “이런 일시 중단이 새로운 기술의 과도한 적용을 방지하고, 인류가 기술 발전의 위험성을 이해하고 준비할 시간을 줄 수 있다”고 말했다.

Leave a Comment