
유럽연합(EU)은 메타의 플랫폼이 13세 미만 아동의 접근을 제대로 차단하지 못한 점을 들어 EU 디지털서비스법(DSA) 위반으로 간주하며 조사 강화를 예고했다. 헤나 비르쿠넨 EU 집행위원회 부위원장은 29일(현지시간) 성명을 통해, 메타가 자신의 이용 약관에서 자사의 소셜 미디어 플랫폼인 페이스북과 인스타그램이 13세 미만 아동을 대상으로 하지 않는다고 명시하고 있지만, 실제로는 해당 연령대의 사용자를 차단하기 위한 유효한 조치를 취하지 않고 있다고 비판했다.
EU 집행위원회는 메타가 플랫폼 사용자들에게 생년월일을 입력하게 하고 있지만, 실질적인 미성년자 식별 및 차단 시스템이 부재하여 효과적인 아동 접근 제어가 이루어지지 않고 있다고 강조하고 있다. 이는 메타의 사용 약관과는 상반되는 결과로, 아동의 온라인 안전을 보장하기 위한 규제를 보다 강화할 필요성이 대두되고 있다.
이번 사례는 현재 디지털 환경에서 아동 보호 문제가 얼마나 중요한지를 잘 보여준다. 메타는 이번 조사에 대한 대응으로 필요한 개선책을 제시할 수 있는 기회를 가지게 된다. 만약 추가 조사에서 메타가 DSA를 위반한 것으로 최종 판단되면, 메타는 전 세계 연간 총매출의 최대 6%에 달하는 막대한 벌금에 직면할 수 있다. 이는 메타뿐만 아니라 다른 디지털 플랫폼들에게도 경각심을 불러일으킬 수 있는 사례가 될 것으로 예상된다.
EU는 디지털 서비스 환경이 더욱 안전해질 수 있도록 정책적 노력을 기울이고 있으며, 이번 조사는 그 일환으로 여겨진다. 아동의 안전한 인터넷 사용을 위한 규제는 앞으로 디지털 플랫폼의 운영 방식에 큰 변화를 가져올 가능성이 높다. 이와 같이 강력한 조치가 시행된다면, 온라인 커뮤니티에서 아동의 권리가 더욱 잘 보호받을 수 있을 것으로 보인다.




