
대표적인 대화형 AI 서비스는 뤼튼테크놀로지스의 '크랙', 스캐터랩의 '제타', 타인AI의 '러비더비' 등이 있다. 앱을 다운받아 서비스에 가입하면 손쉽게 이용할 수 있다는 점에서 접근성이 매우 높다. 그러나 최근 해당 서비스에 대한 미성년자 보호 공백과 안전성이 문제로 떠오르고 있다. AI가 생성하는 대화나 그림이 미성년자에게 부적절하거나 민감한 주제를 포함했다는 지적이 제기되면서다.
해외 주요 AI 기업들은 이 같은 문제를 사전에 차단하기 위해 안전장치를 강화하는 추세다. 챗GPT는 이용자와의 대화에서 성적·유해 콘텐츠를 엄격히 제한하는 정책을 적용하고 있으며, 특정 키워드나 맥락이 감지될 경우 자동으로 응답을 제한하거나 안전한 방향으로 대화를 전환하는 필터링 시스템을 운영 중이다. 제미나이도 유사한 안전 정책을 적용하고 있다. 제미나이는 아동·청소년 보호를 위해 성적 콘텐츠 생성 자체를 제한하고 있으며, 위험성이 감지되는 경우 답변을 거부하거나 경고 메시지를 제공하는 방식으로 대응한다.
글로벌 기업들이 이용자 보호를 위한 최소한의 기준을 마련하는 사이 국내에서는 관련 논의가 상대적으로 더딘 모습이다. 현재 AI 서비스 운영사들은 연령대를 나눠 콘텐츠를 제공하는 한편 자체적인 가이드라인을 만들어 운영 중이다. 예컨대 크랙은 연령 사용자에게 노출되는 '세이프티 콘텐츠'와 성인 인증을 통해 이용할 수 있는 '언세이프티 콘텐츠'로 나누고, 세이프티 콘텐츠의 과도한 신체 노출이나 성적 부위, 행위 묘사 등을 금지하고 있다. 제타 역시 '세이프 모드' '언리밋 모드'로 나누고 성적 접촉을 유도하거나 과도하게 폭력적인 소재의 콘텐츠를 제한하는 중이다.
캐릭터형 AI 대화 서비스가 청소년층에서 빠르게 확산되고 있다는 점에서 제도적 장치의 부재는 뼈아프다. 해당 서비스가 일상 속으로 깊숙이 들어오고 있음에도 불구하고, 이를 통제할 수 있는 사회적 논의는 여전히 부족하다. 기술 발전 속도를 제도가 따라가지 못하는 전형적인 사례라는 지적이 나오는 이유다. 지금 필요한 것은 '어디까지 허용할 것인가'에 대한 사회적 합의와 이를 실행할 최소한의 기준점 마련이다.
뉴스웨이 유선희 기자
point@newsway.co.kr
저작권자 © 온라인 경제미디어 뉴스웨이 · 무단 전재 및 재배포 금지




댓글