자유게시판

제4차 인공지능 법제정비단 공개발표회(세미나) 개최

작성자 : 관리자 작성일 : 2022-01-26

 
“인공지능 제품과 서비스, 어떻게 규율하나”

- 제4차 인공지능 법제정비단 공개발표회(세미나) 개최,

인공지능 위험성 판단기준과 규율 방안을 논의하다 -

□ 과학기술정보통신부(장관 임혜숙, 이하 과기정통부)는 1월 26일(수)  “인공지능의 위험성 판단과 법적 과제”를 주제로, 인공지능 법‧인문사회‧기술 분야 전문가들이 참여하는 제4차 인공지능 법‧제도 공개발표회(세미나)를 개최한다고 밝혔다.

 ㅇ 과기정통부 주관으로 구성한 인공지능 법제정비단은 인공지능 법‧제도‧규제 관련 주요 이슈를 연구하는 전문가 협의체로, 지난 3월부터 제2기 활동을 출범하여 현재까지 총 4차례에 걸친 공개세미나를 개최하며 학계와 업계 국민의 의견을 수렴하고 있다.

 ㅇ 참고로, 지난 9, 10, 12월에는 “인공지능 법적지위, 어디까지?”와 “공정한 알고리즘과 자율적 관리방안”, “인공지능 사고와 범죄, 누가 어떻게 책임질까?”를 주제로 공개발표회를 개최한 바 있다.

< 참고 > 인공지능 법‧제도 공개발표회 개최경과

회차

회차별 주제(안)

제1차(`21.9.)

인공지능의 법률적 지위와 책임 / 인공지능과 후견제도

제2차(`21.10.)

민간 자율적인 인공지능 관리·감독 가이드라인

제3차(`21.12.)

인공지능 불법행위와 과실책임주의 / 인공지능 관련 범죄의 특징 및 형사법적 과제

제4차(`22.1)

인공지능 위험성 판단과 법적 과제

□ 이번 발표회에서는 작년 4월 유럽연합에서 제안한 ‘인공지능 법안’과 같은 세계적인 인공지능 규율 동향을 살피고, 동 법안과 같이 인공지능 위험성을 분류하여 그 수준별 의무를 부과하는 것이 좋을지, 특히 ‘고위험 인공지능’의 범위와 규제 수준은 어디까지일지를 다양한 사례를 바탕으로 논의하는 자리를 갖는다.

 ㅇ 먼저, 유럽연합에서 위험수준별 인공지능을 어떻게 분류하고 있는지, 금지되는 인공지능과 제품·서비스 출시에 일정한 요건이 요구되는 고위험 인공지능을 중심으로 국내 산업 환경에 비추어 위험기반 접근방식의 적절성을 살펴본다.

 ㅇ 나아가, 잠재적 위험성에 대한 관리가 필요한 ‘고위험 인공지능’에는 무엇이 있고 어떤 의무사항을 통해 규율하는 것이 적절한지를 기술·산업의 발전과 신뢰성 확보의 측면에서 검토한다.

  - 위 논의에는 오병철 교수(연세대), 이근우 변호사(화우), 김병필 교수(KAIST), 하정우 연구소장(네이버), 남운성 대표(씨유박스)가 함께할 예정이다.
 
□ 이번 발표회는 최근 코로나19 상황을 고려하여 현장 참석 인원은 최대 80명 수준으로 제한되며, 인터넷 생중계(유투브, 네이버TV)도 함께 진행하여  청중이 자유롭게 질문하고 답변을 듣는 과정에서 국민의 생생한 의견을 수렴할 예정이다. 

□ 과기정통부 박윤규 정보통신정책실장은 “인공지능이 사람의 생명과 신체, 기본권에 위해가 될 가능성이 있는 경우, 적절한 규율 방안을 마련할 필요가 있다.”고 밝히며,

 ㅇ “다만, 인공지능 기술 자체는 중립적인 것으로 우리 삶에 다양한 혜택을 제공하는 등 무궁무진한 발전가능성을 제시하고 있는 바, 관련 기술과 산업 발전을 저해하지 않도록 구체적인 활용 사례를 중심으로 한 위험성 판단과 규제가 필요할 것이다.”고 말했다.

 ㅇ “아울러, 최근 인공지능 기술의 빠른 발전속도를 고려하면, 국민의 안전과 신뢰의 기반을 이루는 법과 제도가 현실을 유연하게 반영할 수 있도록 인공지능 법제정비단의 역할이 계속될 필요가 있다”고 강조했다.