
국내 정부 출연 연구기관들이 챗GPT와 같은 대규모 언어 모델(LLM) 서비스를 이용하기 위해 수억원의 비용을 지출하고 있는 가운데, 이와 관련한 보안 규정의 부재로 인한 데이터 주권 침해 우려가 제기되고 있다. 국회 정무위원회의 내년도 예산안 검토보고서에 따르면, 정부 과제를 수행하는 27개 출연연은 올해 9월까지 LLM 구독 등에 총 6억8500만원을 지출했으며, 가장 많은 비용을 지출한 기관은 한국해양수산개발원으로, 이어 정보통신정책연구원, 한국교통연구원 등이 뒤를 이었다.
국내 LLM 사용의 증가 추세에 따라, 연구기관들이 기초 데이터나 연구 결과물을 무분별하게 LLM에 입력할 경우, 데이터 주권 확보에 부정적인 영향을 미칠 수 있다는 지적이 일고 있다. 이는 미국의 오픈AI가 자국의 연방 기관에 대해 입력된 데이터를 AI 학습에 사용하지 않겠다고 선언한 것과는 대조적인 상황이다. 오픈AI는 이러한 조치를 통해 기관들이 AI를 보다 안전하고 책임감 있게 사용할 수 있도록 유도하고 있다.
정무위의 전문위원은 출연연의 LLM 사용이 일상화된 가운데, 연구 데이터 관리에 대한 기초적인 규범이 필요하다고 강조했다. 특히 연구 윤리의 일환으로 LLM 사용에 대한 명확한 지침과 기준을 설정할 필요성이 대두되고 있다. 현재로서는 출연연들이 LLM을 통한 비용 절감과 함께 데이터 유출 방지를 위한 국가 차원의 노력이 동시에 이루어져야 할 때라는 목소리가 높아지고 있다.
이러한 상황에서, LLM은 방대한 텍스트 데이터를 기반으로 다양한 정보를 생성하는 기술로 최근 정부 정책 및 연구에까지 널리 활용되고 있는 만큼, 데이터 주권과 보안 문제 해결을 위한 대응이 시급하다. 연구기관들은 AI를 활용하여 효율성을 극대화할 수 있지만, 동시에 데이터의 안전성을 확보하는 것이 중요해졌다. 향후 AI 서비스의 발전에 따른 사용 지침 마련과 이행이 핵심 과제로 떠오르고 있다.






