오픈AI가 개발한 챗GPT에서 연령 예측 모델 도입 작업을 착수했다. 18일(현지시간) 오픈AI는 “챗GPT 소비자 플랜에서 연령 예측 모델을 단계적으로 도입하는 초기 작업 중”이라고 밝혔다. 계정 이용자가 미성년자일 가능성이 있다는 판단이 들면 청소년 보호 장치를 자동 적용하는 데 도움이 될 것이라고 설명했다. 연령 확신 없으면 ’18세 미만’ 간주한다. 연령에 대한 확신이 없거나 정보가 불완전하다면 기본적으로 ’18세 미만(U18) 원칙’을 적용하고, 성인에게는 연령을 확인할 수 있는 방법을 제공할 것이라고 밝혔다. 이 원칙은 13~17세 청소년을 대상으로 안전하고 연령에 적합한 경험을 제공하도록 안내하는 것이 골자로, 미국심리학회(APA) 등 전문가 자문을 거쳐 마련했다. 자해·자살, 로맨틱·성적 역할극, 노골적·외설적 콘텐츠, 위험한 활동과 물질, 신체 이미지와 섭식 장애, 위험한 행동을 비밀로 해 달라는 요청 등 위험도가 높은 영역을 다룰 때 모델이 각별한 주의를 기울이도록 하는 보호장치를 구현했다. 대화가 위험도가 높은 영역으로 이동할 경우 청소년은 더 강한 가드레일, 더 안전한 대안, 신뢰할 수 있는 오프라인 지원을 찾도록 하는 권유를 접하게 된다. 즉각적인 위험이 있는 경우에는 응급 서비스나 위기 지원 자원에 연락하도록 안내한다. 그룹 채팅, 챗GPT 아틀라스 브라우저, 영상 생성 플랫폼 ‘소라'(Sora) 등에도 청소년 보호 기능을 확장 적용했다.
오픈AI는 인공지능 모델이 어떻게 행동해야 하는지 규정하는 문서인 ‘모델스펙’에 ’18세 미만 원칙’을 새로 포함했다고 18일(현지시각) 밝혔다. 모델의 행동 방식은 인간과 인공지능의 상호작용 방식에 중대한 영향을 미친다며 “청소년에게 챗지피티가 안전하고 연령에 적합한 경험을 제공하도록 안내한다”고 배경을 설명했다. 18세 미만 원칙은 △청소년의 안전을 최우선으로 △현실 세계의 지원을 촉진할 것 △청소년을 청소년답게 대할 것 △투명성이라는 네 가지 핵심으로 구성된다. 예방성, 조기개입을 우선한다. 인공지능이 자해 및 자살, 연애 또는 성적 역할극, 노골적이거나 외설적 콘텐츠, 섭식장애 등 고위험 영역을 다룰 때 보호장치가 동작하는 식이다.
@Meerae AI 빅데이터 연구소 meerae.info@gmail.com
