2025년 09월 06일

생성형 AI, 개인정보 침해 위협 속 데이터 보안 및 정보보호법 준수 필수 강조

생성형 AI 기술의 급속한 발전과 함께 개인정보 침해에 대한 우려가 높아짐에 따라, 정부와 전문가들은 생성형 AI 시대 개인정보 보호를 위한 적극적인 대응을 촉구하고 있다. 최근 출시된 다양한 생성형 AI 서비스들이 사용자 데이터를 활용하여 더욱 정교하고 개인화된 콘텐츠를 제공하는 방식으로 발전하면서, 데이터 유출 및 오남용의 위험이 커지고 있기 때문이다.

한국관광공사에서 제공하는 에 따르면, 생성형 AI는 사용자의 검색어, 작성한 텍스트, 입력한 정보 등을 학습하여 새로운 콘텐츠를 생성하는 방식으로 작동한다. 이러한 과정에서 사용자의 민감한 정보가 무분별하게 수집되고 저장될 가능성이 크며, 악의적인 공격자에 의해 유출될 경우 심각한 피해로 이어질 수 있다.

특히, 최근 등장한 대규모 언어 모델(LLM) 기반 생성형 AI는 사용자의 정보를 활용하여 더욱 정교하고 개인화된 답변을 제공하는 특징을 가지고 있다. 이러한 모델은 방대한 양의 데이터를 학습하는 과정에서 사용자의 개인정보와 유사한 정보를 학습할 가능성이 높으며, 악의적인 제3자에 의해 유출될 경우 개인의 사생활을 심각하게 침해할 수 있다는 우려가 제기되고 있다.

이에 한국관광공사는 생성형 AI 기술 개발 및 활용 시 개인정보보호법, 정보통신망법 등 관련 법규를 철저히 준수할 것을 강조하고 있다. 또한, 데이터 수집 및 활용 과정에서 투명성을 확보하고, 사용자의 동의를 얻는 등 정보보호 조치를 강화할 것을 당부했다.

더불어, 정부는 생성형 AI 기술의 안전한 개발과 활용을 위한 정책적 지원을 확대할 계획이다. 개인정보보호 기술 개발 및 적용을 위한 연구 개발 투자를 확대하고, AI 기술의 윤리적 사용을 위한 가이드라인을 마련하는 등 기술 혁신과 개인정보 보호 간의 균형을 이루기 위한 노력을 기울일 예정이다. 특히, AI 모델의 학습 데이터 관리 시스템 구축 및 개인정보 마스킹 기술 개발을 통해 데이터 보안 수준을 한층 끌어올리는 방안을 모색하고 있다.

현재까지 개인정보 침해 사고는 생성형 AI 기술의 활용과 밀접한 관련이 없는 경우가 많지만, 기술의 발전 속도를 고려할 때, 잠재적인 위험은 간과할 수 없다. 따라서, 생성형 AI 기술 개발자들은 개인정보보호에 대한 책임 의식을 가지고 데이터 보안 기술을 적용하고, 사용자에게 충분한 정보를 제공하여 정보보호 조치를 강화해야 할 것이다.