
최근 급부상하는 생성형 인공지능(AI) 기술 발전과 이에 따른 개인정보 보호 문제에 대한 정부의 해결책을 제시한다. 과학기술정보통신부와 법제처는 오늘(22일) 공동으로 생성형 AI 기술 발전을 저해하는 과도한 규제 완화를 위한 정책 발표회를 개최하고, ‘생성형 AI 규제 특례 마련’을 위한 추진 방안을 밝혔다. 이번 발표는 생성형 AI 기술의 혁신적인 발전과 개인정보 보호 사이의 균형을 맞추기 위한 중요한 시도이다.
발표에 따르면, 현재 개인정보보호법 등 기존 법규는 생성형 AI 기술의 특성을 제대로 반영하지 못하여 기술 발전의 걸림돌로 작용하고 있다는 지적이다. 특히, 생성형 AI 모델 학습에 필요한 데이터의 규모와 다양성이 높아질수록 개인정보 유출 위험이 증가하고 있으며, 모델의 창작 결과물에 개인정보가 포함될 가능성도 제기되고 있다. 이에 정부는 생성형 AI 기술의 성숙도를 고려하여 규제 적용 시점을 유연하게 조정하고, 기업의 자율성을 보장하는 방향으로 규제 완화를 추진할 계획이다.
구체적으로, 생성형 AI 모델 개발 및 활용 시 개인정보 마스킹(Masking) 기술 적용을 의무화하고, AI 모델 학습 데이터에 대한 익명화(Anonymization) 및 가명화(Pseudonymization) 프로세스를 강화할 예정이다. 또한, AI 모델의 창작 결과물에 대한 개인정보 유출 감시 시스템 구축을 지원하며, AI 모델의 개발 과정에서 개인정보 보호를 위한 기술적, 관리적 안전 조치 준수를 위한 가이드라인을 마련할 계획이다.
뿐만 아니라, 정부는 AI 모델 개발 및 활용 기업들에게 개인정보 보호 관련 교육 및 컨설팅을 제공하고, 관련 기술 개발 및 상용화 지원을 통해 AI 기술 발전을 적극적으로 지원할 예정이다. 이는 AI 기술의 경쟁력을 강화하고, 미래 사회의 핵심 기술로 육성하기 위한 필수적인 노력이다.
기존 개인정보보호법은 생성형 AI 모델의 학습 데이터 확보 과정에서 개인정보 수집 및 이용에 대한 엄격한 규제를 적용하고 있었지만, 생성형 AI 기술 발전 속도를 감당하기에는 미흡하다는 평가다. 특히, 생성형 AI 모델은 방대한 양의 데이터를 기반으로 학습되기 때문에, 개인정보 유출 위험이 매우 높다는 점이 우려된다.
과학기술정보통신부 관계자는 “생성형 AI 기술은 혁신적인 잠재력을 가지고 있지만, 개인정보 보호 문제는 간과할 수 없는 핵심 과제이다”라고 강조하며, “이번 규제 완화 방안은 AI 기술 발전과 개인정보 보호 사이의 균형을 맞추는 데 기여할 것으로 기대한다”라고 말했다.
이번 규제 완화 방안은 앞으로 생성형 AI 기술의 발전 속도를 가속화하고, 관련 산업의 경쟁력을 강화하는 데 긍정적인 영향을 미칠 것으로 전망된다. 다만, 개인정보 유출 방지 및 AI 기술 악용 방지라는 과제를 해결하기 위한 지속적인 노력이 필요하다는 점을 강조했다.
더 많은 이야기
혁신 중소·벤처기업, 투자받기 쉬워진다… 정부-금융감독원, 협력 체계 구축
벤처천억 기업 985개 달성, 나도 억대 매출 기업으로 성장할 수 있다!
2025년부터 한국 경제 회복, 나도 혜택을 누릴 수 있다