방통위, AI 윤리 논란에 이용자 보호 지침 정비
상태바
방통위, AI 윤리 논란에 이용자 보호 지침 정비
이용자‧사업자 대상 AI 윤리 교육 지원
"AI서비스 부작용 최소화 위해 사람중심의 AI 정책 추진"
  • 박수선 기자
  • 승인 2021.01.14 10:00
  • 댓글 0
이 기사를 공유합니다

AI 챗봇 '이루다' ⓒ 스캐터랩
윤리 논쟁을 불러일으킨 AI 챗봇 '이루다' 

[PD저널=박수선 기자] 방송통신위원회(이하 방통위)가 최근 사회적 논란이 된 AI서비스와 관련해 사업자 윤리교육 지원과 이용자 보호 지침 등을 새롭게 마련한다. 

방통위는 “사람중심의 AI서비스가 제공되고, AI서비스가 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록, 이용자‧사업자 대상 교육‧컨설팅을 지원하고, AI 윤리규범 등을 구체화하여 제도개선을 추진할 계획”이라고 14일 밝혔다. 

최근 AI 채팅봇 ‘이루다’를 향한 이용자의 성희롱성 발언과 혐오‧차별 논란이 커지면서 AI 윤리에 대한 필요성도 대두됐다. 방통위는 “사업자‧이용자‧정부 등 지능정보사회 구성원 모두가 AI 윤리의 중요성을 인지하고, 각자가 실천할 수 있는 방안을 모색해야 한다는 지적이 커지고 있는 상황”이라고 진단했다. 

방통위는 올해부터 AI서비스에 대한 비판적 이해와 주체적 활용을 할 수 있도록 이용자 대상 교육부터 실시한다. 교육 내용은 이용자가 AI 서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화해 서비스를 이용할 수 있는 방안 등을 담을 계획이다. 

2022년부터는 AI 윤리교육 지원 대상을 사업자까지 확대하고, 스타트업 등을 대상으로 서비스 설계시 AI 역기능 등 위험관리 컨설팅을 지원하는 사업을 추진할 예정이다. 
 
AI서비스 이용자 보호를 위한 제도도 구체화한다. 2019년 ‘이용자 중심의 지능정보사회를 위한 원칙’을 실천하기 위해 구체적 사례‧방법 등을 사업자 등과 공유하겠다는 것이다. 방통위는 사업자의 규제 부담 및 AI서비스의 혁신 저해를 최소화하기 위해 민간에서 실천하고 있는 모범사례를 적극 발굴해 실행지침을 마련할 계획이라고 밝혔다.   
 
이용자에게 피해를 야기한 AI서비스의 책임소재‧권리구제 절차 등이 담긴 법체계도 정비해 나간다. 방통위는 지난해 1월 정보통신정책연구원 내에 지능정보사회 정책센터를 설립하고, 법제 연구반을 구성‧운영하고 있다.

한상혁 방통위원장은 “AI서비스는 더 많으 부가가치를 창출하고, 생활의 편의를 더해줄 것이지만, 올바른 윤리와 규범이 없는 AI서비스는 이용자 차별과 사회 갈등을 초래할 수 있다”며 “AI기술의 혜택은 골고루 누리되 부작용은 최소화할 수 있도록 사람중심의 AI를 위한 정책을 추진해 나갈 것”이라고 밝혔다. 
  
  


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사
이슈포토