중국의 AI 연구소 DeepSeek가 최근 출시한 R1 모델이 OpenAI의 o1 모델에 비견할 만한 성능을 보여줌에 따라 오픈소스 AI 모델에 대한 기대감이 커지고 있다. 이 신기술은 저렴하고 에너지 소모가 적은 방법으로 뛰어난 성능을 발휘하는 것으로 알려져 있다. 특히 이는 메타, Databricks, Mistral, Hugging Face와 같은 회사들의 기술에도 긍정적인 영향을 미칠 것으로 예측된다.
DeepSeek는 2023년에 설립된 AI 연구소로, 주로 대규모 언어 모델을 개발하고 있으며, 궁극적으로 인공지능 일반지능(AGI)을 목표로 하고 있다. AGI는 인공지능이 인간의 지능을 동일하거나 초월하는 상태를 의미한다. 최근 DeepSeek의 기술 혁신은 오픈소스 AI 모델의 가능성을 더욱 부각시키고 있다.
AI 스타트업 NetMind의 상업 책임자 Seena Rejal은 DeepSeek의 성공이 오픈소스 AI가 이제는 단순한 연구의 결과물이 아닌 상업적이고 확장 가능한 대안이 되었음을 보여준다고 평가했다. 그는 “DeepSeek R1은 오픈소스 모델이 최첨단 성능을 달성할 수 있다는 것을 입증했다”고 설명했다. 이러한 변화는 닫힌 모델만이 AI 혁신을 주도할 것이라는 기존 관념에 대한 도전으로 여겨지고 있다.
메타의 수석 AI 과학자 Yann LeCun은 DeepSeek의 성과를 중국의 기술적 우위로 보지 않고, 오히려 오픈소스 모델이 독점 모델을 초월하고 있음을 강조했다. 그는 LinkedIn에서 “DeepSeek의 성능을 보고 ‘중국이 미국을 초월하고 있다’고 생각하는 것은 잘못된 해석”이라고 말했다. 메타는 Llama라는 인기 있는 오픈소스 AI 모델을 개발하여 이 흐름에 동참하고 있다.
중국은 미국의 첨단 칩 접근이 차단되자 오픈소스 기술을 통해 AI 모델의 매력을 증대시키고 있으며, 이는 여러 중국 기업들이 오픈소스 모델을 통해 혁신을 도모하는 배경이 되고 있다. 유럽에서도 OpenEuroLLM이라는 멀티 언어 대규모 언어 모델 개발을 위한 협력 체계가 구축되어 있으며, 이는 AI 주권을 강화하기 위한 노력의 일환으로 간주되고 있다.
그러나 오픈소스 AI의 도입에는 사이버 보안에 대한 우려도 따른다. 전문가들은 오픈소스 기술이 혁신을 촉진할 수 있지만, 동시에 사이버 공격에 대한 취약성이 높아질 수 있음을 경고하고 있다. Cisco의 연구에 따르면 DeepSeek의 R1 모델은 알고리즘 탈옥 기술을 사용해 위험한 프롬프트에 긍정적으로 응답하는 취약점이 발견되었다. 이 같은 위험은 중국의 DeepSeek이 개인 데이터 유출의 위험을 안고 있다는 점에서도 부각된다.
DeepSeek은 새로운 기술과 접근 방식으로 혁신을 도모하고 있지만, 동시에 이러한 시스템에 민감한 데이터를 제공하는 것은 큰 위험 요소로 간주되고 있다. 기업과 개인이 이러한 AI 플랫폼을 사용할 때는 अपनी 데이터 보호를 위한 노력이 필수적이다.