최근 급증하는 인공지능(AI) 관련 부작용을 막기 위해 정부가 나선다. 과학기술정보통신부는 안전하고 신뢰할 수 있는 AI 사회를 만들기 위한 ‘인공지능 윤리원칙’ 제정 작업에 들어갔다. 이는 국민이 안심하고 AI를 사용할 수 있는 기반을 마련하는 것이 목표다.
과기정통부는 이를 위해 다양한 분야 전문가로 구성된 자문단을 발족했다. 최근 생성형 AI 기술이 발전하면서 가짜뉴스, 딥페이크 등 새로운 윤리적 문제가 발생했기 때문이다. 기존 윤리기준을 현재 상황에 맞게 발전시킬 필요가 있다는 공감대가 형성됐다.
전문가 자문단은 다음 달 중순까지 윤리원칙 초안을 마련할 계획이다. 이후 정부는 일반 국민과 기업의 의견을 수렴하는 공론화 과정을 거친다. 최종 윤리원칙은 오는 6월까지 제정될 예정이다.
이번 윤리원칙 제정은 AI가 만드는 사회적 혼란과 윤리적 갈등을 줄이는 중요한 기준이 될 전망이다. 국민의 일상에 깊숙이 들어온 AI 기술을 더 안전하게 활용하는 계기가 될 것으로 보인다.
더 많은 이야기
우리 동네 스마트도시 되면 국비 최대 160억 원 받는다
AI 잘 쓰면 30억 상금… 정부, 전국민 AI 경진대회 개최한다
UN AI 허브 유치 시동, 국내에 양질의 일자리 열린다