생성형 인공지능(AI) 서비스 과정에서 이용자 피해를 방지하기 위한 가이드라인이 마련됐다.
방송통신위원회는 28일 전체회의를 열어 텍스트, 오디오, 이미지 등 생성형AI 서비스 이용 과정에서 피해를 방지하기 위해 사업자들이 참고할 수 있는 실천 방안을 담은 ‘생성형AI 서비스 이용자 보호 가이드라인’을 보고 받았다.
내달 28일부터 시행되는 가이드라인은 생성형AI 개발사와 서비스 제공자를 대상으로 서비스 전반에 걸쳐 추구해야 할 4가지 기본원칙과 이를 실현하기 위한 6가지 실행 방식을 제시하고 있다.
가이드라인의 기본 원칙은 ▲인간중심의 생성형 AI 서비스 ▲설명 가능성이 확보된 생성형 AI 서비스 ▲안전하게 작동하는 생성형 AI 서비스 ▲공정한 생성형 AI 서비스로 설정했다.
이에 따라 이용자 인격권 보호, 결정 과정을 알리려는 노력, 다양성 존중 노력, 입력데이터 수집활용 과정에서 관리, 문제 해결을 위한 책임과 참여, 건전한 유통 배포를 위한 노력 등의 실행 방식을 세웠다.
예컨대 인격권을 침해하는 요소를 발견하고 이를 통제하는 알고리즘 구축을 위해 노력하고 내부 모니터링 체계를 갖춰야 하는 식이다. 생성형 AI를 통한 콘텐츠 산출물임을 알리고, 편향적 사용을 막기 위한 필터링 장치를 마련하는 동시에 신고 절차를 마련하는 방안도 담았다.
또 서비스 제공자와 이용자의 책임 범위를 정의하고 책임 주체가 이를 명확히 인지하도록 안내하며 부적절한 콘텐츠를 생성하거나 공유하지 않도록 알리는 내용을 명시했다.
사업자들의 수용성과 이해도를 높이기 위해 실제 제공되고 있는 서비스 중 이용자 보호 영역의 모범 사례도 제공한다.
생성형 AI 기술의 급격한 발전이 일상생활에 혁신적 변화를 가져오고 있지만, 사회적으로 물의가 되는 딥페이크 성범죄물, 차별 편향 등 부작용도 심각하게 떠오르면서 이용자 안전과 권리를 보호할 제도적 기반 마련 필요성이 지속적으로 제기된 데 따른 것이다.
이진숙 방통위원장은 “한쪽에서는 산업적 측면으로 발전에 집중하지만, 우리 위원회에서는 소비자와 이용자 보호하는 데 초점을 맞춰서 적극적으로 이해관계자들과 이야기를 놔눠달라”고 주문했다.
한편 방통위는 정보통신정책연구원(KISDI), AI 전문가가 참여하는 연구반을 구성하고, 그 간의 생성형 AI 피해 사례와 국내외 주요 서비스별 이용자 보호 현황 등을 검토해 가이드라인을 마련했다.
이 과정에서 이해관계자 의견을 수렴하기 위해 지난해 9월 열린 ‘AI 서비스 이용자보호 학술회의’를 통해 가이드라인의 주요 내용을 발표하고, 주요 사업자 대상 기업 간담회를 개최해왔다.
가이드라인은 시행일 기준 2년마다 타당성을 검토해 개선 조치가 이뤄질 예정이다.

관련기사
- 민주당, 김홍일 방통위원장 탄핵 추진..."6월내 통과 목표"2024.06.27
- 김홍일 위원장 "2인 체제 방통위, 바람직하지 않지만 위법 아니다”2024.06.21
- LG 구광모 6년...AI·바이오·클린테크 키운다2024.06.28
- 화재 막는 배터리 진단기술 뜬다...민테크, 상장 후 존재감 '쑥쑥'2024.06.28