요즘 챗GPT(ChatGPT) 같은 AI가 엄청난 인기를 끌고 있다. 챗GPT는 출시한 지 단 2개월 만에 사용자가 1억 명을 넘어서며 역사상 가장 빨리 퍼진 앱이 되었다. 이는 마치 아이폰이 휴대폰 시장을 완전히 바꿔놓은 것과 비슷한 현상이다. 전문가들은 이런 AI 시장이 2030년까지 약 150조 원 규모로 커질 것이라고 예상한다.
AI는 업무를 자동으로 처리하거나 광고 문구를 빠르게 만드는 등 시간과 돈을 절약해 주고 일의 효율을 높여준다. 문제는 AI가 심각한 실수를 할 수 있다는 점이다. 그래서 기업들은 AI를 안전하게 사용하면서도 경쟁력을 높이는 방법을 찾아야 한다. 세계적인 IT 컨설팅 기업 캡제미니(Capgemini)는 보고서를 통해 기업들이 안전하고 효과적으로 AI를 도입하는 방법에 대한 명확한 가이드라인이 필요하다고 강조했다.
복잡한 AI 기술, 이제는 '조립식'으로 쉽게 사용 가능
최신 AI는 엄청나게 복잡하다. 예전보다 훨씬 많은 정보를 학습할 수 있어서, 구글이나 마이크로소프트 같은 큰 기술 회사들이 서로 경쟁하며 더 좋은 AI를 만들고 있다. 이 덕분에 일반 기업들은 처음부터 AI를 만들 필요 없이, 이미 만들어진 AI를 골라서 자신의 회사에 맞게 사용할 수 있게 되었다. 마치 컴퓨터를 직접 조립하지 않고 완제품을 사서 쓰는 것과 비슷하다.
AI는 글쓰기와 그림 그리기를 정말 잘한다. 이론적으로는 번역이나 손글씨 읽기, 사진 분석 등에서 사람보다 더 잘할 수 있다. 하지만 큰 문제가 있다. AI가 때때로 '환각'이라고 불리는 현상을 일으켜 거짓 정보를 만들어낸다는 것이다. 더 무서운 것은 AI가 이런 거짓 정보를 마치 확실한 사실인 것처럼 자신 있게 말한다는 점이다.
회사 정보로 AI 훈련시키면 더 똑똑해져
캡제미니의 보고서에 따르면, AI를 회사의 정보와 지식으로 훈련시키면 훨씬 더 똑똑하고 정확해진다. 이렇게 하면 AI가 그 회사에 딱 맞는 답변을 하고, 정해진 규칙 안에서만 일하게 할 수 있다. 회사 정보로 AI를 훈련시키고 AI 주변에 안전장치를 만들면, 믿을 수 있는 환경에서 대규모로 AI를 사용할 수 있다. 하지만 이 과정에서 실수하면 큰 문제가 생길 수 있어서 매우 조심해야 한다. 예전처럼 데이터만 분석하는 방식이 아니라, AI 모델 자체를 과학적으로 관리하는 새로운 방식이 필요하다.
생성형 AI 안전하게 쓰는 5가지 방법
캡제미니가 제시한 생성형 AI 안전 사용법의 핵심은 AI 시스템 주변에 여러 겹의 보안 장치를 구축하는 것이다. 먼저 AI가 정보를 새어 나가지 않도록 감시하는 '모델 허브'를 만들어야 한다. 이 허브는 AI 도구 사용 과정에서 발생할 수 있는 정보 유출을 실시간으로 모니터링하고 차단하는 역할을 한다. 이를 통해 AI가 안전하고 비공개적으로 사용되도록 보장할 수 있다.
다음으로는 AI 시스템 주변에 '신뢰 레이어'라는 보안막을 설치해야 한다. 이는 AI가 회사 밖으로 중요한 정보를 보내는 것을 막고, AI의 모든 활동을 기록하고 검증하는 역할을 한다. 또한 AI가 잘못된 정보를 만들거나 회사 방침에 어긋나는 답변을 하지 못하게 막는 '가드레일' 시스템도 필수적이다. 이러한 안전장치는 AI가 거짓 정보를 만드는 환각 현상을 방지하고 정확성을 유지하는 데 핵심적인 역할을 한다.
특히 중요한 것은 AI에게 '겸손함'을 가르치는 것이다. AI가 모르는 것은 솔직히 "모른다"고 말하도록 훈련시켜야 한다. 일부 AI는 정확하지 않아도 무조건 답변을 하려고 하는데, 이를 방지하기 위해 명확한 경계를 정하고 AI가 자신의 한계를 인정하도록 해야 한다. 마지막으로 AI 내부 작동 원리를 완전히 이해하지 못하더라도, AI가 특정 결과에 도달한 과정은 항상 설명할 수 있어야 한다. 이를 통해 AI의 판단 근거를 추적하고 검증할 수 있어 문제 발생 시 원인을 파악하고 해결할 수 있다.
실제 기업 사례: AI가 만든 광고, 인간보다 30% 더 좋은 평가
실제로 한 글로벌 생활용품 회사는 광고 문구 자동 생성, 언어 번역, 웹사이트 검색 최적화에 GPT-3라는 AI를 사용하기 시작했다. 이로 인해 많은 카피라이터 직원을 AI가 만든 내용을 검토하고 수정하는 편집자로 바꿀 수 있었다.
AI를 이용해 광고 자료를 만드는 것은 비용을 줄이고 시간을 절약할 뿐만 아니라, 사람만으로 만든 내용보다 더 정확하고 일관성 있는 결과를 만들어낸다. 실제로 중요한 검색어 10개를 포함한 매력적인 제품 설명을 AI가 만들었을 때 품질 점수가 100점을 받았다. 반면 AI 도구를 사용하지 않고 사람이 만든 내용은 70점밖에 받지 못했다.
FAQ
Q: AI가 거짓 정보를 만든다는 게 무슨 뜻인가요?
A: AI는 때때로 '환각'이라는 현상을 일으켜 사실이 아닌 정보를 마치 진실인 것처럼 만들어냅니다. 예를 들어 존재하지 않는 뉴스나 통계를 그럴듯하게 만들어내는 것입니다. 이런 가짜 정보를 AI가 매우 확신에 찬 말투로 제시하기 때문에 더욱 위험합니다.
Q: 회사가 AI를 안전하게 사용하려면 어떻게 해야 하나요?
A: 먼저 AI 주변에 안전장치를 만들어야 합니다. 회사의 정보와 규칙을 AI에게 가르치고, AI가 잘못된 답변을 하지 못하도록 경계를 설정해야 합니다. 또한 AI가 모르는 것은 솔직히 "모른다"고 말하도록 훈련시켜야 합니다.
Q: AI 시장이 얼마나 클 것으로 예상되나요?

관련기사
- 민주당, 김홍일 방통위원장 탄핵 추진..."6월내 통과 목표"2024.06.27
- 김홍일 위원장 "2인 체제 방통위, 바람직하지 않지만 위법 아니다”2024.06.21
- LG 구광모 6년...AI·바이오·클린테크 키운다2024.06.28
- 화재 막는 배터리 진단기술 뜬다...민테크, 상장 후 존재감 '쑥쑥'2024.06.28