AI윤리 문제 처음으로 다뤄 … 인공지능 활용한 개인 안전 및 기본권 확보 목적
챗봇, 언더라이팅 등 다방면 보험업계 활용 높아 … 법 파장 따라 영향 커

사진설명 - EU가 전세계 최초로 고도화 된 AI에 대한 처벌 규정을 내놨다. 당장 전 세계적으로 규정이 적용되는 것은 아니지만 EU를 진출하려면 이 규정을 따라야만 보험을 판매할 수 있게 된다는 것이다. 이미 고도화 된 AI서비스를 시행하는 한국 입장에선 난처한 입장에 처하게 됐다.
사진설명 - EU가 전세계 최초로 고도화 된 AI에 대한 처벌 규정을 내놨다. 당장 전 세계적으로 규정이 적용되는 것은 아니지만 EU를 진출하려면 이 규정을 따라야만 보험을 판매할 수 있게 된다는 것이다. 이미 고도화 된 AI서비스를 시행하는 한국 입장에선 난처한 입장에 처하게 됐다.

[금융경제신문=장인성 기자] AI가 개발되면 될수록 고도화 되고 높은 지능을 소유하게 되면서 개개인에 대한 피해가 커질 수 있다는 경고가 잇따르자 EU는 인공지능법을 전 세계 최초 발표했다. 고위험 AI라고 규정을 지었지만 생각보다 법안 내용이 강력해 AI확대에 나섰던 보험업계가 촉각을 세우고 있다.

◇ AI위험 정도에 따라 규제 강도 달라져 … 처벌 받을 시 최대 3000만 유로 벌금 내야

11일 보험업계에 따르면 지난 4월 유럽연합(EU)이 생체 인식, 신용 평가 등 고위험 AI에 대한 규제를 포함한 인공지능법 초안을 발표해 EU회원국 간 협의 및 승인을 거쳐 오는 2023년 이후 시행될 예정이라고 밝혔다.

이번 초안은 지난 2020년 발표된 디지털서비스법(DSA)과 디지털시장법(DMA)의 연장으로, AI의 신뢰성을 제고하고 미래 변화에 대비하고 인공지능을 활용하는 개인의 안전과 기본권을 확보할 수 있을 것으로 기대할 수 있다.

초안은 AI를 위험 정도에 따라 ▲불허용 위험 ▲고위험 ▲제한적 위험 ▲최소 위험 등 4가지로 구분해 각 해당 항목에 따라 규제를 달리 적용하도록 했다. 특히 이미지 인식을 포함한 생체 인식, 신용 평가 등 고위험 AI에 대한 강력한 제재를 규정하고 있다.

인공지능법 시행을 위해서는 회원국 간 협의 및 승인 등 절차가 요구되기에 법률의 시행까지는 최소 2년의 시간이 소요될 전망이다.

구체적으로 ▲고위험 AI에 대해 적절한 위험 평가 및 관리 시스템 ▲고품질의 데이터 세트 추적을 위한 로그자료 확보 등을 요구한다는 방침이다. 또 ▲시스템 모든 정보가 포함된 상세 문서 ▲명확한 정보제공 ▲리스크 줄이는 인적 감독 조치 ▲높은 수준 보안 및 정확도다.

이밖에 ▲시민들 생명 및 건강에 위협이 되는 인프라(교통 등) ▲신용 점수와 같은 필수적인 민간 또는 공공 서비스 등이 포함되기도 한다. 그리고 ▲시험 채점 ▲수술 보조 로봇 ▲이력서 분류 소프트웨어 ▲법적 증거의 신뢰성 판단 ▲이주 또는 망명 및 국경 통제 ▲사법 행정 및 민주적 절차에 사용되는 경우 등이다.

특히 원격 생체인식시스템의 경우 실종 아동의 수색, 테러범 탐색 등과 같은 경우 제한적인 경우를 제외하고 법 집행을 목적으로 하는 공개적인 공간에서의 사용이 원칙적으로 금지된다.

AI시스템이 인종·성적 차별을 지양하고 편향 위험을 최소화할 수 있도록 탄탄한 기술력을 요구하고 있다는 점에서 상당히 고도화 된 기술을 가진 AI에 대한 규제가 만들어졌다고 볼 수 있다.

초안대로 고위험 AI 사업자가 데이터 관련 금지요건 위반 시 3000만유로(한화 407억 5000만원) 또는 전년도 총 매출액 6% 중 높은 금액을 한도로 벌금을 부과한다. 기타 요건 또는 의무 위반 시 2000만유로(한화 271억 6680만원) 또는 전년도 총 매출액의 4% 중 높은 금액을 한도로 벌금을 부과할 방침이다.

◇ 챗봇, 언더라이팅 등 다방면 국내 보험업계 활용 높아 … 법 파장 따라 영향 커

이번 인공지능법 초안은 국가 차원의 AI 규제로는 최초이며 광범위한 산업과 분야에 대한 규제와 위반 시 벌금을 부과하는 등 예상보다 강력한 규제 내용이 담겨 있어 글로벌 기업들을 포함한 시장의 반응이 엇갈리고 있다.

법안이 도입되면 EU 내 각 회원국은 감독기관을 지정하고 감독 활동을 수행해야 하고 규정을 준수하지 않는 경우 위반 대상에 대해 행정 벌금 등의 처벌을 내린 후 이를 위원회에 전달하기 때문이다.

찬성하는 측은 AI 리스크에 대한 선제 대응이 가능해져 보다 AI에 대한 신뢰도가 상승하고 개인정보 보호가 강화될 것으로 기대하고 있다. 무엇보다 AI 전체를 규제하는 것이 아니라 고위험 AI에 대해서만 엄격한 규제를 적용하고 있어 규제 정도도 적정하다고 보고 있다.

반면에 반대 측은 IT기술 및 발전에 한계를 설정해 산업 혁신이 어려워질 것이라고 강조하며 정부에 의해 기술이 오·남용될 수 있다는 점을 지적하고 규제가 과도해질 수 있다고 주장하고 있다.

일부 전문가들 사이에선 IT 및 AI기술로 앞서가는 중국과 미국을 견제하기 위한 조치라고 평가하고 있기도 하다. 한편으론 급격한 IT기술 변화에 규제가 따라가지 못해 효용성이 거의 없을 것이라는 회의적인 시각도 존재한다.

이미 국내에선 이미지를 가지고 AI가 학습을 통해서 언더라이팅을 자동으로 해주거나 보험사기 유형을 골라내는 등 고도화 작업이 상당부분 진행 된 상태다.

무엇보다 톡으로 문의를 하면 답변을 해주는 방식의 쳇봇은 점점 사람과 대화하는 것처럼 진화했고 콜센터도 직접 사람과 응대하는 느낌을 받는 경우도 늘고 있다.

문제는 이러한 사례가 앞서 EU에서 처벌을 받을 수 있다고 지정한 부분들 중 하나라는 점이다. 이미 고도화 된 AI 서비스를 받고 있는 국내 보험업 서비스들은 EU에 아예 진출조차 할 수 없는 태생적 한계를 지니게 되는 셈이다.

그럼에도 고도화 AI를 포기할 수 없는 것은 EU시장을 제외한 나머지 시장에선 충분히 활용도가 높고 중국에서도 해당 AI서비스가 널리 각광받고 있어서다. ABL생명이 국내 내놓은 서비스 상당수가 중국에서 이미 시행하는 서비스라는 것도 기억할 필요가 있다.

이에 손민숙 보험연구원 연구위원은 “EU 인공지능법 도입은 글로벌 기업을 시작으로 AI기술을 적극 도입 중인 보험업에 일부 영향이 예상 돼 적절한 대비가 필요하다”며 “코로나19를 계기로 보험업도 AI시대를 맞았지만 규제 확대 시 서비스 제공에 제약이 있다”고 답했다.

저작권자 © 금융경제신문 무단전재 및 재배포 금지