[디엘지 law 인사이트] 콘텐츠 기업, 생성AI 활용 지침 마련해야

전문가 칼럼입력 :2025-07-28 19:55:13    수정:

황혜진 법무법인 디엘지 변호사 기자 페이지 구독 기자의 다른기사 보기

콘텐츠를 생성형 AI로 만들고 있는가? 그렇다면 지금 당신의 회사에 필요한 건 툴도, 인재도 아닌 내부 가이드라인이다. 텍스트, 이미지, 영상 모두 AI로 손쉽게 만들 수 있는 시대다. 그러나 그 결과물이 타인의 저작권이나 퍼블리시티권을 침해했거나 관련 법령을 위반한 방식으로 사용됐다면, 그 책임은 기술이 아닌 기업과 사람의 몫이 된다.

이를 예방하는 가장 실질적인 방법은 기업이 생성형 AI 사용에 관한 규칙을 스스로 만들고, 그 사용을 규율하는 것이다. 그리고 그 시작점이 바로 생성형 AI 활용 가이드라인이다. 생성형 AI 결과물을 법적으로 보호받고자 한다면, 가이드라인에 생성형 AI 결과물의 저작물성 판단 기준이 명확히 정리돼야 한다.

현행법상 AI가 전적으로 생성한 결과물은 인간의 사상이나 감정을 표현한 것으로 볼 수 없어 ‘저작물’로 인정되지 않는다. 따라서 기업이 AI 결과물을 콘텐츠 자산으로 활용하더라도 그 자체로는 저작권법상 보호를 받을 수 없으며, 타인이 이를 그대로 모방하거나 이용해도 법적으로 제지할 수 없다. 현행법상 이를 보완할 수 있는 방안은 콘텐츠산업 진흥법에 따라 콘텐츠 또는 그 포장에 일정한 표기를 함으로써 콘텐츠 제작일로부터 5년간 보호받도록 하는 것이다.

한편 생성형 AI 결과물 중 인간의 창작적 기여가 더해진 경우, 그 부분은 저작권 보호 대상이 될 수 있다. 이를 위해선 가이드라인에 어떤 작업이 창작적 기여로 인정받는지에 대한 기준도 제시되어야 한다. 단순히 프롬프트를 입력하거나 AI가 자동으로 제시한 결과물을 선택하는 수준으로는 보호받을 수 없다. 편집, 재배열, 수정 등을 통해 인간의 창작성이 드러나는 경우에만 제한적 권리가 인정된다. 가이드라인은 구성원들이 ‘어느 수준까지 개입해야 저작권이 인정되는지’를 판단하는 구체적인 기준이 되어야 한다.

황혜진 법무법인 디엘지 변호사

 실제 실무에서는 프롬프트 관리가 매우 중요하다. 특정 브랜드, 작가명, 실존 인물 등을 직접 입력하는 경우, 생성 결과물이 해당 저작물과 실질적으로 유사해질 가능성이 높고, 이 경우 저작권 침해나 퍼블리시티권 침해가 성립될 수 있다. 따라서 가이드라인에는 금지 프롬프트 목록과 예시를 기재해둘 필요가 있다.

만약 자체적으로 AI 모델을 개발한다면 작가명, 고유명사, 상표, 캐릭터명 등이 포함된 경우 경고 메시지를 띄우거나 입력을 제한하는 방식의 필터링 시스템을 도입하는 것이 바람직하다. 이는 단순한 예방책이 아니라 저작권 침해 여부 판단에서 ‘원저작물에 대한 의거성’ 추정을 차단하고, 법적 책임을 피할 수 있는 실질적 장치다.

AI 생성물의 유사성 여부를 사전에 점검할 수 있는 도구를 가이드라인에 명시하는 것도 중요하다. 예컨대, 이미지 유사도는 Google Lens, TinEye 등으로 확인할 수 있다. 영상의 경우, ffmpeg를 활용해 스틸 이미지를 추출한 뒤 이를 이미지 검색 도구에 입력해 유사성을 점검하는 방식을 고려해볼 수 있다.

텍스트는 Copyleaks, Turnitin 등으로 유사성을 검사할 수 있으며, 음악은 Shazam이나 ACRCloud를 통해 상용 음원과의 일치 여부를 확인하는 것이 가능하다. 이러한 검수 프로세스 없이 AI 생성 결과물을 바로 출시하는 경우, 타인 권리 침해에 관한 분쟁 발생 시 책임을 회피하기 어려울 수 있다.

가이드라인에는 생성 이력을 체계적으로 기록하고 보관하는 기준도 포함되어야 한다. 어떤 프롬프트가 언제 입력되었고, 어떤 AI 모델에서 어떤 결과물이 나왔으며, 이후 어떤 수정이 가해졌는지를 문서화해야 한다. 이러한 기록은 추후 인간의 창작적 기여를 입증하거나, 타인의 침해 주장을 반박하는 자료로 활용될 수 있다. 특히 직원들이 이직이 잦은 회사일수록, AI 사용 기록을 면밀히 관리할 필요가 있다.

또한 기업은 사용할 수 있는 생성형 AI 툴을 사전에 지정해 두고, 그 외의 툴은 사전 승인을 받은 경우에만 사용할 수 있도록 기준을 마련해야 한다. 플랫폼 선정 기준에는 결과물의 권리 귀속, 플랫폼이 결과물을 활용할 수 있는 범위, 프롬프트 및 생성 이력의 저장 가능 여부, 상업적 이용 제한 여부 등이 포함된다. 아울러 플랫폼 이용약관은 수시로 변경될 수 있으므로, 정기적으로 각 툴의 정책 변동 여부를 모니터링하고 필요한 경우 즉시 반영하는 절차도 함께 마련해야 한다.

기업이 AI 생성물을 외부에 공개할 경우, AI 생성 여부를 명확히 표시해야 한다. 2026년 시행 예정인 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'은 생성형 AI를 이용한 제품 및 서비스를 제공할 시, 생성형 AI에 의하여 생성되었음을 표시하도록 규정하고 있으며, 유튜브, 틱톡 등 글로벌 플랫폼들도 유사한 정책을 도입하고 있다. 따라서 기업은 콘텐츠 출시 전에 해당 콘텐츠가 AI 생성물인지 확인하고, 필요시 표시 의무를 이행해야 한다.

콘텐츠를 외주 제작하는 경우에 이를 관리하기 위한 가이드라인도 필요하다. 협력사가 생성형 AI를 활용하려는 경우에는 사전에 AI 활용 계획서를 제출받아 도구명, 라이선스 여부, 프롬프트, 입력 데이터의 출처를 확인하고, 납품 시 AI 활용 확인서를 함께 제출하도록 해야 한다.

김홍일 방통위원장

관련기사

황혜진 법무법인 디엘지 변호사psooh@zdnet.co.kr