과기정통부, 인공지능 윤리·신뢰성
강화를 위한 현장간담회 개최
-새로운 디지털 질서 정립방안 이행을 위한 인공지능 윤리·신뢰성 논의 본격 착수
- 인공지능 윤리·신뢰성 추진현황 공유 및 확산방안 집중논의
과학기술정보통신부(장관 이종호, 이하 과기정통부) 박윤규 2차관은 5월 11일(목) 오후 2시 30분 디지털 기업 및 학계 전문가들과 함께 챗지피티(ChatGPT) 등 초거대·생성형 인공지능 확산에 대응하여 인공지능 윤리와 신뢰성을 확보하기 위하여 서울 제네시스 랩에서 현장간담회를 개최하였다.
이번 간담회는 국무회의 안건이었던 ‘새로운 디지털 질서 정립 방안(5.2일)’ 후속조치의 일환으로, 모든 간담회 과정을 기자단에게 공개하는 동시에 기자단이 함께 토론에 참여하여 질의응답을 진행하는 등 활발한 언론 소통 방식으로 진행되었다.
챗지피티의 등장으로 인해 인공지능이 사람 수준의 지적 능력을 보유할 수 있다는 가능성을 누구든지 체감하게 되면서 거짓정보 생성, 편향성 강화 등의 의도하지 않은 인공지능의 위험성에 대한 우려가 심화되고 있다.
과기정통부는 2020년도에 사람중심의 인공지능 구현을 위해 경제협력개발기구(OECD), 유럽연합(EU) 등의 인공지능 권고안을 반영하여 3대 원칙·10대 요건*으로 구성한 인공지능 윤리기준을 수립하여 모든 사회 구성원이 인공지능 개발에서 활용까지 전 단계에서 함께 지켜야 할 내용을 제시한 바 있다.
* <3대원칙> □1인간 존엄성 원칙, □2사회의 공공선 원칙, □3기술의 합목적성 원칙
<10대요건> ①인권 보장, ②프라이버시 보호, ③다양성 존중, ④침해금지, ⑤공공성, ⑥연대성, ⑦데이터 관리, ⑧책임성, ⑨안전성, ⑩투명성
이번 현장간담회는 윤리기준 제시에서 더 나아가 윤리규범 실천을 위한 구체적 방안을 논의하는 자리로, 정부와 민간에서 윤리원칙을 적용한 사례와 인공지능 윤리·신뢰성 확산을 위한 향후 계획을 공유하였다.
먼저 과기정통부 최동원 과장이 정부의 인공지능 윤리·신뢰성 확보를 위한 그간의 노력을 설명하였다. 인공지능 윤리기준 제정부터 실천방안(자율점검표·개발안내서) 마련, 윤리정책포럼 운영 등 민간 자율적 윤리체계 확립을 위한 그간의 정책 추진상황과 향후계획을 발표하였다.
정보통신정책연구원(KISDI) 문정욱 센터장은 인공지능 윤리기준의 준수 여부를 기획자·운영자 스스로 점검할 수 있도록 과기정통부와 정보통신정책연구원(KISDI)이 개발한 ‘자율점검표’의 내용을 소개하고, 대화로봇(챗봇)·작문·영상 분야별 기업 현장 적용 사례를 공유하였다
한국정보통신기술협회(TTA) 이강해 단장은 인공지능 윤리기준 중 기술적으로 구현 가능한 4가지의 핵심요건을 기반으로 개발자가 참고할 수 있는 기술적 요구사항을 담은 ‘개발안내서’의 내용과 공공사회·의료·자율주행 분야별 개발안내서가 어떻게 활용되었는지를 발표하였다.
이어 네이버 송대섭 이사가 서울대 인공지능(AI) 정책 이니셔티브(SAPI)와 함께 만든 ‘네이버 인공지능(AI) 윤리준칙’을, 엘지(LG) 인공지능(AI)연구원의 김유철 부문장이 ‘엘지(LG) 인공지능(AI) 윤리원칙’을 중심으로 인공지능 윤리·신뢰성 강화를 위한 기업의 자율적 노력과 향후 계획에 대해 발표하였으며, 제네시스랩 이영복 대표가 공정성이 중요한 채용 분야의 신뢰성을 확보하기 위해 개발안내서를 적용한 현황을 발표하였다.
아울러 인공지능 윤리·신뢰성 확립 방안에 대한 집중 논의를 위해, 먼저 간담회 참석 기업들의 인공지능 윤리·신뢰성 실천을 위한 자율적 노력을 공유하고 윤리의 사회적 확산을 위한 과제에 대해 논의하였다. 다음으로 현재 인공지능의 위험성 정도를 평가하고 현재의 위험이 통제 가능한 범위인지도 검토하였다.
박윤규 2차관은 “챗지피티 등장 이후 초거대·생성형 인공지능이 산업과 일상 속으로 빠르게 확산되고 있는 상황에서 인공지능 윤리·신뢰성 쟁점(이슈)이 새로운 국면에 접어들고 있다”면서,
“기술의 개발부터 활용의 전 단계에서 인공지능 윤리·신뢰성을 확보하는 것이 기업의 생존과 직결된 만큼 간담회에서 논의된 사항을 바탕으로 인공지능 윤리·신뢰성 확보와 관련하여 더욱 더 많은 노력을 기울일 것”라고 밝혔다.