"AI 위험성, 판단·규제 필요…발전과 균형 맞춰야"


과기정통부, '인공지능의 위험성 판단과 법적 과제' 세미나

[아이뉴스24 심지혜 기자] 인공지능(AI) 기술 발달이 생활의 편의성을 높여주는 반면 위험성에 대한 관리가 필요하다는 목소리가 커지고 있다. 정부도 이에 대비, 인공지능 위험성을 진단하고 적절한 규율 방법 모색에 나섰다.

현대백화점 더 현대 서울 내부에 위치해 있는 LG 클로이 AI 로봇. 기사 내용과 관계 없음. [사진=김문기 기자]

과학기술정보통신부(장관 임혜숙)는 '인공지능의 위험성 판단과 법적 과제'를 주제로 오는 26일 인공지능 법‧인문사회‧기술 분야 전문가들이 참여하는 제4차 인공지능 법‧제도 공개세미나를 개최한다고 25일 발표했다.

세미나는 과기정통부 주관으로 구성한 인공지능 법제정비단이 인공지능 법‧제도‧규제 관련 주요 이슈를 연구하는 전문가 협의체가 진행한다. 지난 3월부터 제2기 활동을 했고 현재까지 총 4차례에 걸친 공개세미나를 개최해 학계와 업계 국민의 의견을 수렴하고 있다.

이번에는 지난해 4월 유럽연합(EU)에서 제안한 ‘인공지능 법안’과 같은 세계적인 인공지능 규율 동향을 살필 예정이다. 해당 법안과 같이 인공지능 위험성을 분류하여 그 수준별 의무를 부과하는 것이 좋을지, 특히 ‘고위험 인공지능’의 범위와 규제 수준은 어디까지일지를 다양한 사례를 바탕으로 논의할 예정이다.

EU에서 위험수준별 인공지능을 어떻게 분류하고 있는지, 금지되는 인공지능과 제품·서비스 출시에 일정한 요건이 요구되는 고위험 인공지능을 중심으로 국내 산업 환경에 비춰 위험기반 접근방식의 적절성을 살펴볼 예정이다.

나아가 잠재적 위험성에 대한 관리가 필요한 ‘고위험 인공지능’에는 무엇이 있고 어떤 의무사항을 통해 규율하는 것이 적절한지를 기술·산업의 발전과 신뢰성 확보의 측면에서 검토한다.

이번 논의에는 오병철 교수(연세대), 이근우 변호사(화우), 김병필 교수(KAIST), 하정우 연구소장(네이버), 남운성 대표(씨유박스)가 참석한다.

세미나는 최근 코로나19 상황을 고려하여 현장 참석 인원은 최대 80명 수준으로 제한되며, 인터넷 생중계(유투브, 네이버TV)도 함께 진행한다.

박윤규 과기정통부 정보통신정책실장은 "인공지능이 사람의 생명과 신체, 기본권에 위해가 될 가능성이 있는 경우, 적절한 규율 방안을 마련할 필요가 있다"며 "다만, 인공지능 기술 자체는 중립적인 것으로 우리 삶에 다양한 혜택을 제공하는 등 무궁무진한 발전가능성을 제시하고 있는 바, 관련 기술과 산업 발전을 저해하지 않도록 구체적인 활용 사례를 중심으로 한 위험성 판단과 규제가 필요할 것"이라고 말했다.

/심지혜 기자(sjh@inews24.com)







포토뉴스