
사용자 보호를 위한 가이드라인 핵심 정리
최근 교육, 기업, 공공 부문까지 빠르게 확산되는 생성형 인공지능. 놀라운 창의력과 생산성을 제공하는 기술이지만, 그만큼 사용자 보호에 대한 논의도 활발해지고 있습니다. 이에 방송통신위원회는 국내외 주요 기준을 반영해 『생성형 인공지능 서비스 이용자 보호 가이드라인』을 발표했습니다. 이 가이드라인은 생성형 인공지능이 사용자에게 유익한 방향으로 작동하도록, 개발사와 서비스 제공자가 반드시 고려해야 할 기본 원칙과 실행 전략을 제시하고 있습니다.
생성형 인공지능이 지켜야 할 4가지 기본 원칙
가이드라인에서 제시한 첫 번째 축은 서비스 제공자가 따라야 할 4가지 기본 원칙입니다.
- 인간의 존엄성과 권리 보장
→ 생성형 인공지능이 인간의 가치를 침해하지 않도록 설계해야 합니다. - 작동 원리 및 결과의 투명한 설명
→ 사용자에게 결과가 어떻게 도출되었는지 설명할 수 있어야 합니다. - 안전성과 오남용 방지
→ 악용 가능성을 고려해 방어 체계를 갖추고, 유해 콘텐츠 차단 기능도 포함돼야 합니다. - 차별 없는 공정한 결과 제공
→ 성별, 인종, 나이 등에 따른 편향적 결과 생성을 방지해야 합니다.
이 네 가지는 기술의 편리함보다 사람 중심의 기술을 지향해야 한다는 방향을 분명히 제시합니다.
책임 있는 기술을 위한 6가지 실행 전략
이러한 원칙을 실제 서비스에 녹여내기 위해, 방송통신위원회는 6가지 실행 전략도 함께 제시했습니다.
- 인격권 보호:
혐오 표현, 폭력성, 사생활 침해와 같은 콘텐츠 생성을 방지하도록 학습 및 운영 설계에 주의해야 합니다. - 설명 가능성 확보:
결과물이 단순히 ‘그럴듯해 보이는’ 수준이 아니라, 어떻게 도출되었는지를 사용자에게 알릴 수 있어야 합니다. - 편향 최소화 및 다양성 확보:
데이터 수집과 학습 과정에서 사회적 편향을 줄이기 위한 설계가 필요합니다. - 이용자 동의 기반 데이터 수집:
개인정보를 활용할 때는 사전 고지와 명확한 동의 절차를 거쳐야 하며, 비동의 시 불이익이 없어야 합니다. - 책임 주체 명확화:
생성형 인공지능이 낸 결과물로 인해 문제가 발생했을 때, 누구에게 책임이 있는지를 분명히 해야 합니다. - 유해 콘텐츠 차단 및 수정 기능 제공:
잘못된 생성 결과가 사용자에게 노출되지 않도록 선제적 차단, 또는 사후 수정이 가능해야 합니다.
디디쌤은 어떻게 대응하고 있을까?
디디쌤은 이러한 생성형 인공지능 기준을 실제 서비스에 반영하고 있습니다.
예를 들어, 디디쌤의 AI 상담 요약 기능은 상담 대화 내용의 민감도를 고려해 특정 단어, 표현이 과도하게 노출되지 않도록 자동 필터링 시스템을 운영 중입니다.
또한 상담 대화 내용은 학습자의 사전 동의 없이 다른 용도로 재사용되지 않으며, 상담 후 생성된 요약 결과도 관리자 검토 과정을 거쳐 학부모에게 전달됩니다.
이는 신뢰 중심의 AI 서비스 운영을 지향하는 디디쌤의 정책 철학을 보여주는 부분입니다.
마무리: 기술 이전에, 책임의 문제
생성형 인공지능은 분명 교육과 사회 전반에 새로운 가능성을 열고 있습니다. 그러나 그 가능성은 올바른 책임 구조와 투명한 기준 없이는 오히려 위협이 될 수도 있습니다.
기술이 빠르다고 해서 기준이 느려도 괜찮은 것은 아닙니다. 오히려 기술이 빠를수록, 서비스 제공자의 책임감 있는 접근이 중요해집니다. 디디쌤은 앞으로도 생성형 인공지능 기반 서비스를 안전하고 윤리적으로 설계하기 위한 기준을 계속 고민하고, 사용자와 함께 공유하겠습니다.
👉🏻원문 보러가기
