오픈AI가 챗GPT 운영 원칙으로 개인정보 보호, 성인 자유 보장, 청소년 안전 강화를 새 정책 방향으로 제시했다.

오픈AI가 챗GPT와 관련된 새로운 정책 세 가지를 16일 발표했다. 오픈AI CEO 샘 알트먼이 직접 블로그를 통해 공개한 이번 발표는 ▲개인정보 보호 ▲사용자 자유 ▲청소년 안전이라는 세 가지 축을 원칙으로 제시했다.
먼저 개인정보 보호와 관련해 오픈AI는 대화 내용 보안을 한층 강화하겠다고 밝혔다. 알트먼은 “사람들이 AI와 나누는 대화는 이전 세대 기술과는 차원이 다를 정도로 개인적이며, 의사에게 병력을 말하거나 변호사에게 법적 상황을 설명하는 것처럼 특권적 보호가 필요하다”고 설명했다. 그는 이러한 보호 수준이 AI 대화에도 동일하게 적용돼야 한다며, 이를 정책 입안자들과 논의 중이라고 덧붙였다. 오픈AI는 앞으로 자사 직원조차 사용자와 AI 간 대화에 접근할 수 없도록 할 계획이다. 다만 생명 위협, 타인에 대한 해악 계획, 대규모 사이버 보안 사고 등 심각한 위험이 감지될 경우 자동화 시스템을 통해 모니터링하고 필요한 경우 제한적으로 검토가 이뤄질 수 있다고 밝혔다.
두 번째는 성인 사용자에게 더 넓은 자유를 보장하는 것이다. 알트먼은 “기본 모델은 애정 섞인 대화에는 응답하지 않지만, 성인 사용자가 요청한다면 응해야 한다고 본다”고 말했다. 자살 실행법에 관한 요청에는 응답하지 않지만, 성인이 허구적 서사(예: 소설)에서 자살 장면을 표현하려 할 때는 도움을 제공할 수 있다는 취지다. 그는 “성인 사용자를 성인으로 대한다”는 원칙 아래, 타인에게 해를 끼치거나 자유를 침해하지 않는 선에서 가능한 한 많은 자유를 보장하겠다고 강조했다.
마지막으로 청소년 보호와 관련된 원칙도 발표됐다. 알트먼은 “미성년자에 대해서는 프라이버시와 자유보다 안전을 우선한다. 새로운 강력한 기술인 만큼 청소년은 특별한 보호가 필요하다”고 말했다. 현재 챗GPT는 만 13세 이상을 대상으로 제공되고 있지만, 오픈AI는 사용 패턴을 분석해 나이를 추정하는 시스템을 개발 중이다. 이 과정에서 나이를 확실히 구분할 수 없을 경우 보수적으로 18세 미만 사용자로 분류해 서비스를 제공할 계획이다. 일부 국가에서는 신분증 확인을 요구할 수도 있다. 또한 청소년 사용자에게는 호감 표현 대화나 자살·자해 관련 대화를 전혀 제공하지 않으며, 자살 충동이 감지될 경우 부모에게 연락하고 필요 시 당국에 신고하는 절차를 마련한다.
실제로 미국에서는 한 10대 소년이 챗GPT와 대화를 나눈 뒤 극단적 선택을 한 사건이 발생했고, 유족이 오픈AI를 상대로 소송을 제기한 바 있다.
알트먼은 “이러한 원칙들이 본질적으로 충돌할 수밖에 없음을 인정한다”며 “그러나 전문가들과 논의한 끝에 최선의 결정을 내렸고, 이를 투명하게 공유하고자 한다”라고 밝혔다.
jihyun.lee@foundryco.com