보도자료

신뢰할 수 있는 인공지능 구현 전략 발표

작성자 : 관리자 작성일 : 2021-05-14

 

과기정통부, 「신뢰할 있는 인공지능 실현전략」발표

 

- 누구나 신뢰할 있는 인공지능, 모두가 누릴 있는

인공지능 구현 위한 3 전략 10 실천과제 제시 -

 

- 2025년까지 지속·단계적으로 추진할 계획 -

 

  ▶ 신뢰구현 법제도·윤리·기술적 요구사항을 종합한 인공지능 ‘개발 가이드북’ 제작·보급

 

  ▶ 인공지능 제품·서비스에 대한 민간 자율의 인증제 도입·지원

 

  인공지능 일괄(One-Stop) 지원 플랫폼 운영 : 데이터 - 컴퓨팅 파워 – 신뢰성 검증 지원

 

  ▶ 설명가능성·공정성·견고성 등 향상을 위한 신뢰성 원천기술 개발 추진

 

  학습용 데이터의 신뢰성 확보를 위한 표준 기준 제시 및 데이터 개방

 

  고위험 인공지능에 대한 국민 안전·신뢰성 향상 방안 연구

 

  ▶ 인공지능 윤리기준 실천을 위한 윤리 교육 강화 및 개발자·이용자용 체크리스트 보급

 

  ▶ 윤리·신뢰성 향상을 위한 공론의 장인 ’윤리 정책 플랫폼‘ 운영

 

 

 

 

과학기술정보통신부(장관 최기영, 이하 과기정통부) 5 13 대통령 직속 4차산업혁명위원회 22 전체회의에서 사람이 중심이 되는 인공지능을 위한 「신뢰할 있는 인공지능 실현전략」‘을 발표했다.

 

1. 수립배경

 

 

4 산업혁명을 견인하는 범용기술인 인공지능 산업・사회 빠르게 도입・확산되며 혁신 창출하고 있으나, 확산에 따른 예상하지 못한 사회적 이슈* 우려 함께 대두되고 있다.

 

  * 인공지능 챗봇 ‘이루다’(21.1.), 오바마 전대통령 딥페이크(18.7.), MIT개발 사이코패스 인공지능(18.6.)

 

 

 

이에, 주요국 인공지능 대한 사회적 신뢰(Trust) 확보 인공지능의 사회적·산업적 수용 전제요소 인식하고, 인공지능 신뢰성 강조하며 실현 위한 적극적인 정책 추진하고 있다.

 

  특히, 유럽(EU) 사람에게 부정적 영향을 미칠 있는 고위험 인공지능 중심으로 제도 정립 선도 중이며, 미국 기술개발 민간 자율규제 중심으로 인공지능에 대한 신뢰성 확보를 추진 중에 있다.

 

< 글로벌 주요국의 인공지능 신뢰 확보를 위한 정책 추진 현황 >

유럽

(EU)

「인공지능 법안」으로 고위험 인공지능 중심 규제(공급자 의무 부과 등) 제안(21.4.)

 

‘자동화된 의사결정’에 대한 사업자의 활용 고지 의무 및 이용자의 이용거부, 설명요구 이의제기 권리를 제도화(「유럽개인정보보호법」, 18.~)

 

민간 신뢰성 자율점검 체크리스트 보급(20), 신뢰가능한 인공지능 3대요소 제시(19)

미국

국가 인공지능 연구개발 전략으로 ‘기술적으로 안전한 인공지능 개발’ 채택(19)

 

주요 기업(IBM, MS, 구글 등)을 중심으로 인공지능 개발원칙 마련, 공정성 점검도구 개발・공유윤리적 인공지능 실현을 위한 자율규제 전개

 

과잉규제 지양위험기반 사후규제 기조하에 연방정부 차원에서 인공지능 신뢰확보 10대 원칙(투명성, 공정성 등)을 담은 규제 가이드라인 발표(20)

프랑스

▸기업・시민 등 3천명참여숙의적인 공개 토론을 통해 ‘인간을 위한 인공지능’ 구현필요권고사항 도출(18)

영국

5대 윤리규범(18.4.), 공공부문 안전한 인공지능 활용을 위한 지침(19.6.), 설명 가능한 인공지능 가이드라인(20.5.) 등 수립

일본

▸인공지능과 관련된 모든 이해관계자들이 유의해야 할 7대 기본 원칙을 담은 「인간 중심의 인공지능 사회 원칙(18.3.) 발표

 

 

이러한 흐름 속에서, 사람 중심 되는 ‘인공지능 강국’으로 도약하기 위해 신뢰 있는 인공지능 실현 위한 지원 정책 조속히 필요하다는 판단에 따라 이번 전략 마련하였다.

 

  전략은 지난해 발표한 「인공지능 윤리기준*(20.12.) 실천방안 구체화하고, 민간 자율적으로 신뢰성 확보 있도록 지원체계 구축하며 재정·기술력이 부족한 스타트업 등에 대한 지원책 담은 것이 특징이다.

 

    * ‘인간성을 위한 인공지능’(AI for Humanity)을 위해 모든 사회구성원이 지켜야 할 3대 원칙(인간 존엄성, 사회 공공선, 기술의 합목적성)10대 요건(책임성, 안전성, 투명성 등)을 제시

 

 

 

2. 비전 추진전략

 

 

이번 전략은 누구나 신뢰할 있는 인공지능, 모두가 누릴 있는 인공지능 구현”을 비전으로 하여, 기술・제도・윤리 측면의 3 전략 10 실행과제 통해 25까지 단계적으로 추진되며,

 

  민간 인공지능 서비스 구현 체계적으로 지원하고, 이용자 믿고 안전하게 사용 있도록 제도 보완하며, 사회 전반 건전한 인공지능 윤리 확산하는 것이 중점 방향이다.

 

< 신뢰 할 수 있는 인공지능 실현전략의 비전・목표・추진전략 >

그림입니다. 원본 그림의 이름: CLP00003cec0001.bmp 원본 그림의 크기: 가로 830pixel, 세로 361pixel

 

3. 주요내용

 

 

1. 신뢰 가능한 인공지능 구현 환경 조성 

 

[1] 인공지능 제품·서비스 구현단계별 신뢰 확보 체계 마련한다.

 

  민간에서 인공지능 제품・서비스 구현하는 단계(개발  검증  인증) 따라, 기업, 개발자, 3 등이 신뢰성 구현을 위해 참조할 있는 신뢰 확보 기준 방법론 제시하고 지원한다.

 

< 인공지능 제품・서비스 구현단계별 지원 흐름도>

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

개발 단계

 

 

 

검증 단계

 

 

 

인증 단계

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

수요발생

그림입니다. 원본 그림의 이름: CLP000036c03d58.bmp 원본 그림의 크기: 가로 166pixel, 세로 221pixel

 

제품・서비스 기획

 

그림입니다. 원본 그림의 이름: CLP000036c03d58.bmp 원본 그림의 크기: 가로 166pixel, 세로 221pixel

 

기술・윤리적 검증(검증체계)

 

그림입니다. 원본 그림의 이름: CLP000036c03d58.bmp 원본 그림의 크기: 가로 166pixel, 세로 221pixel

 

 ➌신뢰성 인증(요건 확인)

 

그림입니다. 원본 그림의 이름: CLP000036c03d58.bmp 원본 그림의 크기: 가로 166pixel, 세로 221pixel

출시

 

 

 

 

 

그림입니다. 원본 그림의 이름: 그림1.png 원본 그림의 크기: 가로 48pixel, 세로 39pixel

 

 

 

그림입니다. 원본 그림의 이름: 그림1.png 원본 그림의 크기: 가로 48pixel, 세로 39pixel

 

 

 

그림입니다. 원본 그림의 이름: 그림1.png 원본 그림의 크기: 가로 48pixel, 세로 39pixel

 

 

 

 

 

 

 

 

설계/개발(가이드북)

 

 

 

검증 완료

 

 

 

인증 완료

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

   - ‘개발’단계에서는 국내・외 신뢰성 관련 법・제도・윤리・기술적 요구사항 번에 확인 있는 ‘개발 가이드북’ 제작・보급한다.

 

   - ‘검증’단계에서는 개발 가이드북을 준수한 신뢰성 확보 여부 수준을 확인하고 평가 있는 검증절차・항목・방법 등의 검증체계’를 마련하고 제시한다.

 

   - ‘인증’단계에서는 기술·윤리적 요구사항 충족하여 검증체계 통과 제품·서비스에 대해 민간 자율 인증 공시 추진한다.

 

[2] 민간 인공지능 신뢰성 확보 지원한다.

 

  기술・재정적 상황이 열악한 스타트업 등도 체계적으로 신뢰성 확보 나갈 있도록 인공지능 구현 위한 ‘데이터 확보→ 알고리즘 학습→ 검증’ 통합 지원하는 플랫폼 운영한다.

 

   - 학습용 데이터와 컴퓨팅 자원을 지원 중인 인공지능 허브(AI Hub) 플랫폼에서 검증체계에 따른 신뢰 속성별 수준 분석, ()환경 테스트 등의 기능 추가 개발·연계하여 일괄적으로 지원한다.

 

< ‘데이터 확보 → 알고리즘 학습(컴퓨팅) → 검증’ One-Stop 지원 플랫폼 구성안 >

그림입니다. 원본 그림의 이름: CLP00000dfc0007.bmp 원본 그림의 크기: 가로 1282pixel, 세로 333pixel

 

 

 

[3] 인공지능 신뢰성 원천기술 개발한다.

 

  이미 구현된 시스템에 인공지능 판단기준 등을 설명할 있는 기능 추가할 있고, 인공지능이 스스로 법・제도・윤리적 편향성 진단하고 효율적으로 제거 있도록,

 

   - 인공지능의 설명가능성, 공정성, 견고성 제고 위한 원천기술 개발 추진한다.

 

 

 

< ‘설명’, ‘공정’, ‘견고’ 분야 원천기술 개발과제() >

구분

‘설명가능’ 분야 기술개발()

‘공정’ 분야 기술개발()

‘견고’ 분야 기술개발()

기간/

예산

22~26(5) /

450억원*

22~26(5) /

200억원*

22~26(5) /

기획 추진 중

주요

내용

설명가능성에 대한 고려 없이 개발된 모델에 전문가 보고서 생성 수준의 설명가능성 제공

규정 등으로부터 스스로

편향 요인을 식별, 편향 가능성 진단하고 최적제거 방안판단・적용

복합 정보를 이용한 인공지능 공격에 대한 선제적 대응 기술 개발

 * 예타 통과 금액 기준

 

 

2. 안전한 인공지능 활용을 위한 기반 마련

 

[1] 인공지능 학습용 데이터 신뢰성 제고한다.

 

  민・관 인공지능 학습용 데이터 제작공정에서 공통적으로 준수해야할 신뢰 확보 검증지표 등의 표준 기준* 민간과 함께 마련하여 통일성 있게 구축 있도록 확산한다.

 

    * 학습용 데이터 활용 목적에 따라 신뢰 확보 요구사항세분화・구체화하고 검증지표, 측정방법 등 제시.

 

  한편, 디지털 뉴딜 추진되는 ‘데이터 댐’ 사업에서는 구축 과정에서 저작권, 개인정보보호와 같은 법·제도 준수 여부 등의 신뢰성 확보 고려사항 선제적으로 적용하여 품질 향상 계획이다.

 

[2] 고위험 인공지능 대한 신뢰 확보 추진한다.

 

  국민의 안전이나 기본권 잠재적 위험 미칠 있는 고위험 인공지능 범주 설정하고, 서비스 제공 해당 인공지능의 활용 여부 이용자에게 고지’하도록 계획이다.

 

  고지 이후, 해당 인공지능 기반 서비스에 대한 이용 거부, 인공지능의 판단 근거에 대한 결과 설명 이에 대한 이의제기 등의 제도화에 대해서는

 

   - 글로벌 입법・제도화 동향, 산업적 파급력, 사회적 합의・수용성, 기술적 실현 가능성 등을 고려하여 종합적으로 중장기 검토 계획이다.

 

 

 

 

[3] 인공지능 영향평가 실시한다.

 

  인공지능 국민생활 전반 미치는 영향 종합・체계적으로 분석하고 대응하기 위해 「지능정보화기본법」 56* 규정된 사회적 영향평가 도입할 계획이다

 

    * 국가 및 지방자치단체는 국민의 생활에 파급력이 큰 지능정보서비스 등의 활용과 확산이 사회ㆍ경제ㆍ문화 및 국민의 일상생활 등에 미치는 영향에 대하여 다음 각 호의 사항을 조사ㆍ평가할 수 있다

 

   - 신뢰성 요소(안전성, 투명성 ) 토대로 인공지능 영향력 종합 분석하여 향후 인공지능 관련 정책이나 기술・관리적 조치방안 수립 활용 계획이다.

 

[4] 인공지능 신뢰 강화 위한 제도 개선한다.

 

  지난해 인공지능 법・제도・규제 정비 로드맵(20.12.) 통해 발굴 과제 인공지능에 대한 신뢰 확보, 이용자의 생명·신체보호 등과 관련 과제

 

   - 업계 자율적 알고리즘 관리・감독환경 조성, 플랫폼 알고리즘 공정성・투명성 확보, 영업비밀 보장 위한 알고리즘 공개기준 마련, 고위험 기술기준 마련 관련 제도 개선 계획이다.

 

3. 사회 전반 건전한 인공지능 의식 확산

 

[1] 인공지능 윤리 교육 강화한다.

 

  인공지능이 사회에 미치는 영향, 인간-인공지능 상호작용 사회·인문학적 관점 윤리 기준 사회 실천 인식 있는 내용을 담은 인공지능 윤리교육 총론 마련하고, 이를 토대로  연구·개발자, 일반시민 맞춤형 윤리 교육 개발·실시한다.

 

 

 

 

[2] 주체별 체크리스트 마련・배포한다.

 

  인공지능 윤리기준 대한 구체적인 행위지침으로, 연구・개발자, 이용자 등이 업무, 일상생활 등의 속에서 윤리 준수 여부 자율점검 있는 체크리스트 개발하여 보급한다.

 

   - 기술발전 양상을 반영하고 인공지능 윤리기준을 기본원칙으로 하여 분야 자율점검표(: 개인정보위 개인정보보호 자율점검표)와도 체계성 정합성 유지하여 현장의 실천 가능성 제고한다.

 

< 예시 : 체크리스트 문항 예시 >

체크리스트 문항

윤리기준 요건

인공지능이 개인정보를 활용 또는 처리하여 훈련하거나 개발되었는가?

사생활 보호,

데이터관리

인공지능 개발 단계에서 사회에 존재하는 선호의 다양성, 이용자 간 수용 능력 차이고려하였는가?

다양성 존중,

공공성

▪훈련데이터 출처 기록 등 감사를 위해 인공지능 개발과정추적
할 수 있는 프레임워크구축하였는가?

책임성, 투명성

▪인공지능 시스템 결과사용자에게 설명할 수 있는가?

투명성

 

 

[3] 윤리 정책 플랫폼 운영한다.

 

  학계·기업·시민단체·공공 다양한 사회 구성원 참여하여 인공지능 윤리 대해 깊이 있게 토의하고 의견 수렴 발전방향 논의하는 공론의 마련・운영한다.

 

4. 정책 메시지

 

 

금번 전략 수립과 관련하여 과기정통부 최기영 장관 최근 발생했던 챗봇 사건 우리 사회가 인공지능 신뢰성 대해 어떻게 대처해야 하는지 많은 숙제를 안기는 계기 되었다’고 생각한다며,

 

  ‘과기정통부는 기업·연구자 등이 인공지능 제품·서비스 개발 과정에서 혼란 겪거나 이로 인해 국민 피해 보지 않도록 인공지능 신뢰 확보 기준 명확화하고,

 

 

 

  기술적·재정적으로 부족한 중소기업 등이 신뢰성 기준 준수하는 어려움 없도록 지원 방안을 마련하는 사람이 중심이 되는 인공지능 강국 실현 위해 전략을 차질 없이 추진해나갈 계획이다’고 밝혔다.