【베이비뉴스 전아름 기자】
한국여성민우회 성평등미디어팀이 17일 '페미니스트가 함께 만든 AI 가이드라인'을 발표했다.
민우회는 AI를 페미니즘 관점에서 분석하고, 성평등 AI 기술 개발의 방향성을 모색하기 위해 4차례 대중강의를 진행했으며 전문가 워크숍 등을 통해 AI 이용자와 개발자, 연구자를 만났다.
민우회는 가이드라인 여는글에서 "사회에 존재하는 차별에 적극적인 인식 없이 누구도 차별하지 않는 성평등한 기술을 만들 수 있을까?"라고 자문하고 "AI가 가진 불투명성과 확산성이 만나 기존의 차별이 강화되거나 새로운 차별이 생겨날 수 있다"고 말했다.
이어 20대 여성을 기반으로 만든 AI 챗봇 '이루다'가 혐오표현과 개인정보 유용 등의 논란을 키우자 이루다의 제작사인 스캐터랩이 대화 모델을 폐기한 사례를 언급했다. 민우회는 국내에서도 'AI 윤리'가 화두로 떠올랐다고 설명했다. "차별을 경계하며 더 많은 인간에 도움이 되는 기술을 만들겠다는 목소리는 소중하다. 이 목소리에 성평등을 더하고, 기술을 비판적으로 읽어낼 수 있는 다양한 고민이 필요하다고 생각했다"라며 가이드라인 제작 이유를 밝혔다.
가이드라인에서 민우회는 ▲AI 기술 개발 시 페미니즘 관점에서 논의 필요 ▲AI 기술은 개인의 프라이버시와 친밀감을 침해하지 않는다 ▲AI 기술로 발생할, 그리고 발생한 차별과 편향의 사회적 맥락을 고려한다 ▲AI에서 비롯한 수익은 사회적으로 환원해야 하며 ▲AI는 인간의 자율성을 존중하고 공동체의 미래와 더 나은 삶에 기여한다는 기본원칙을 제시했다.
여기에 데이터편향, 알고리즘편향, 차별금지, 개인정보보호, 책무성, 다양성, 설명책임, 투명성, 기술통제권, 고위험AI, 교육, 영향평가, 정부와 의회, 이용자의무, 시민참여 등 16개 키워드, 52개 항목으로 구성했다. 가이드라인 소책자는 한국여성민우회 홈페이지에서 PDF 다운받아 볼 수 있다.
【Copyrightsⓒ베이비뉴스 pr@ibabynews.com】