AI가 인간 기본권 침해 사례 등장
국내∙외 AI 윤리 관련 논의 진행∙∙∙대책 마련 나서
미국, 유럽, 중국, 일본 등 AI 윤리 관련 법안 마련 현황은?

ⓒ게티이미지뱅크
ⓒ게티이미지뱅크

[스타트업투데이] 인공지능(AI) 시대가 도래했다. 그동안 영화 속 AI 로봇이 사람처럼 말하고 행동하며 먼 미래의 꿈인 듯 보였지만, 스마트폰에 AI 기술이 들어가면서 일상생활에 깊이 파고들고 있다. 오늘 저녁에 어떤 영화를 볼 것인지, 휴가 때 어떤 책을 읽을지 추천해주기도 한다. 

최근 몇 년간 AI가 윤리적 문제를 일으켰다. 2021년 AI 챗봇 ‘이루다’는 AI가 사람에 대한 혐오와 차별 등 반윤리적 대화를 생산하며 서비스가 중단됐다. 이보다 앞선 2020년에는 AI 배차시스템을 도입한 배달앱 요기요가 배달기사에게 식사, 생리문제 등을 위해 시간을 배려하지 않는 AI 배차 알고리즘을 통한 근무평가 및 일가 배정으로 인간의 기본권을 침해하는 사례가 발생하기도 했다. 

최근에는 챗GPT(Chat GPT)가 예술, 교육, 정치 등 다양한 영역에서 인간과 비슷한 능력을 발휘할 가능성이 보이자 일각에서는 AI 입법이 필요하다는 목소리를 내고 있다. 

사실 챗GPT의 등장 전에도 국내∙외에서는 AI 윤리와 관련된 논의가 본격적으로 있어 왔다. 전 세계 각국은 AI에 의한 부작용을 막기 위해 AI 윤리와 관련된 대책 마련에 나섰다. 

 

美 ‘알고리즘 책임법안’ 발의∙∙∙차별적 요소 자체 감시 

ⓒ게티이미지뱅크
ⓒ게티이미지뱅크

지난 2019년 론 와이든(Ron Wyden)∙코리 부커(Cory Booker 상원의원과 이베트 클라크(Yvette Clarke) 하원의원이 2019년 「알고리즘 책임법안」(Algorithmic Accountability Act)을 발의했고 이를 보완해 지난해 상∙하원의원에 제정됐다. 해당 법안은 모든 기술 대기업이 사용하고 있는 머신러닝(ML) 시스템에 편견이나 차별적인 요소가 있는지를 자체적으로 감사하고 문제점이 발견될 경우 적시에 이를 수정해야 한다는 내용이 담겨있다. 

2020년에는 연방거래위원회(FTC)가 「AI와 알고리즘 사용 지침」(Using artificial intelligence and algorithms)을 발표하면서 기업이 AI와 알고리즘을 사용하는 과정에서 투명성, 설명 가능성, 공정성, 견고성과 실증적 타당성, 책임성을 갖추도록 했다. 

유럽연합(EU)은 지난 2018년 「개인정보보호규정」(GDPR)을 기반으로 다양한 AI 관련 정책문서 또는 규범(안)을 발표하고 있다. 먼저 EU는 2020년 7월부터 「온라인 플랫폼 시장의 공정성 및 투명성 강화를 위한 2019년 EU 이사회 규칙」(Regulation on Promoting Fairness and Transparency for Business Users of Online Intermediation Services)을 시행하고 있다. 해당 법안은 알고리즘 투명성 강화 방안으로서 검색결과 노출순위를 결정하는 알고리즘 주요 매개변수의 공개 등이 규정돼 있다. 

같은 해 유럽연합 집행위원회(EC)는 지난 2018년 윤리적이고 안전하며 최첨단의 AI를 위한 유럽에서의 AI 비전을 제시했다. EU는 AI에 대한 고위 전문가 그룹(HLEG)을 설립했고 이 그룹에 윤리 가이드라인을 만들도록 했다. 당시 EC 측은 “윤리 가이드라인은 AI가 사회를 의미 있게 변화시킬 수 있는 잠재력이 있지만, AI 그 자체가 목적이 돼서는 안 된다”며 “인간의 번영을 위한 수단, 즉, 인간 중심적이어야 한다”고 강조하기도 했다. 

그 결과 지난 2020년 EC는 발전과 신뢰를 위한 「AI 백서」(White Paper on Artificial Intelligence)를 발표했다. 백서에는 고위험 분야의 AI에 대해 향후 안전성 요건을 수립하고 사전 적합성 평가를 받도록 하는 내용이 담겨 있다. 법무법인 지평 신용우 변호사는 “고위험 분야는 개인의 법적 권리에 상당한 영향을 주거나 신체∙생명∙재산에 심각한 피해를 초래할 수 있어 금융 분야도 포함될 것”이라고 예측하기도 했다. 

캐나다도 2021년 「자동의사결정에 관한 지침」(Directive on Automated Decision-Making)을 제정해 AI 윤리 및 법적 이슈와 관련된 알고리즘 투명성, 데이터품질보장 등에 관한 연성법을 제정했다. 

 

韓中日, AI 윤리 규범 마련 현황은? 

과학기술정보통신부 외관(사진=과학기술정보통신부)
과학기술정보통신부 외관(사진=과학기술정보통신부)

중국도 AI 기술의 윤리적 방향을 정립하는 원칙을 세웠다. 지난 2021년 국가차세대인공지능거버넌스전문위원회(国家新一代人工智能. 治理专业委员会)는 AI에 대한 인간의 통제를 위해 「차세대 인공지능 윤리규범」을 발표했다. AI 수명주기에 윤리와 도덕을 접목해 AI 관련 업계에 종사하는 자연인∙법인∙기타 유관기관을 위한 윤리적 지침을 제공하고 책임 있는 AI 연구개발 및 발전을 도모하기 위해서다. 

AI 윤리규범은 ▲인류 복지 증진 ▲공평성과 공정성 강화 ▲개인정보보호 및 데이터 보안 ▲통제가능성 및 신뢰가능성 확보 ▲책임 강화 ▲윤리적 소양 제고 등 6가지 기본 윤리규범 준수를 강조했다. 이외에도 AI와 관련된 관리, 연구개발, 공급, 사용 등 특정 활동에 관한 18개 항목의 구체적 윤리 요건을 마련했다. 

일본은 비교적 일찍 AI 윤리규범을 수립했다. 지난 2016년 일본에서 열린 G7 정보통신장관 회의에서 AI 개발 가이드라인을 제안했고 이듬해 「AI 연구개발 가이드라인」 초안을 발간했다. 

한편 한국에서도 AI 윤리가 제정될 것으로 보인다. 과학기술정보통신부(이하 과기부)는 지난 2020년 정보통신정책연구원(KISDI)과 사람이 중심이 되는 「인공지능(AI) 윤리기준」을 마련했다. 바람직한 AI 개발∙활용 방향을 제시하는 게 목표다. 

이후 과기부는 AI 윤리 정책세미나, 연구윤리지침(안) 토론회, AI  윤리 정책포럼 출범 등을 통해 AI 윤리∙신뢰성 확산에 본격적인 시동을 걸고 있다. 

[스타트업투데이=염현주 기자] [email protected]

관련기사

저작권자 © 스타트업투데이(STARTUPTODAY) 무단전재 및 재배포 금지