“‘AI 기본법’ 업계 이익 치중, 인권과 안전 외면” 비판

23개 시민사회단체 “고위험 AI 대응과 개선 소홀, 국회 통과 유감” “AI 시스템, 투명성과 책임성을 갖고 운영될 수 있도록 감시할 것”

2025-01-08     이상영 기자
국회를 통과한 '인공지능기본법'의 미비점을 두고 시민사회의 비판이 일고 있다. 사진은 AI를 비롯한 IT 관련 R&D기술이 전시된 '2024 월드IT쇼' 전경. 

[중소기업투데이 이상영 기자] 지난 연말 국회를 통과한 ‘인공지능법’에 대한 비판의 목소리가 높다. 정식 명칭 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안’(AI기본법)이 통과된 후 시민사회 일각에선 “업계의 이익에 치중한 나머지, 인권과 안전을 도외시했다”는 비판이 일고 있다.

소비자연맹을 포함한 언론·시민사회단체, 보건의료단체 등 23개 기관과 단체는 해당 법안에 대해 “시민사회의 수정보완 요구에도 불구하고, 끝내 ‘AI 기본법’을 통과시켰다”면서 “이는 고위험 AI로 인해 발생할 수 있는 위험으로부터 시민의 안전과 인권을 보호해야 한다는 시민사회의 요구를 외면한 것”이라고 비판했다.

이들 단체는 공동성명을 통해 “우리 시민사회는 21대 국회에서부터 AI의 위험성을 통제하고 고위험 AI 사업자의 책임성을 강화하며, AI의 영향을 받는 사람의 권리를 보장하는 방향으로 AI 기본법이 제정되도록 노력해왔다”며 안전과 위험성을 외면한 법안이라며 강하게 성토했다.

이들은 “시민사회의 노력과 문제 제기에도 불구하고, 이번 국회 본회의를 통과한 AI 기본법은 시민사회가 줄기차게 요구해왔던 핵심적인 내용을 누락하고 있어, 21대 국회에서 논의되었던 법안과 크게 다르지 않다”며 조목조목 반박했다.

이에 따르면 우선 ▲금지해야 할 인공지능에 대한 규정이 없고 ▲고영향(위험) 인공지능 사업자의 범위는 여전히 협소하며 ▲고영향 인공지능 사업자의 책무 위반에 대한 처벌 규정도 미흡하다는 지적이다. 단지 “책무 위반에 대한 과기정통부의 시정명령을 이행하지 않을 때에야 과태료를 부과하고 있을 뿐”이라고 지적했다.

이 외에도 “인공지능에 영향받는 자의 정의가 포함된 것은 다행이지만, 정작 영향받는 자의 권리 및 구제에 대한 조항은 두고 있지 않다”면서 “학습 데이터 공개 등 범용 인공지능 사업자의 의무 조항 역시 포함돼 있지 않다”고 짚었다. 특히 “인공지능 인권영향평가도 ‘노력할 의무’만을 부여하고 있어 실효성이 있을지 의문”이라고 한계를 지적했다. 더구나 “독소조항을 새롭게 포함하고 있다”면서 “즉, 국방 또는 국가안보 목적의 인공지능을 이 법의 적용에서 배제한 것은 크게 잘못된 일”이라고 반발했다.

 AI에이전트 기술의 보편화를 시사한 이미지. [디크립트]

이들 단체는 “그나마 정부여당안보다 보완된 일부 내용이 최소한의 규제로 작동할 수 있는 부분은 불행 중 다행”이라며 해당 규정을 일일이 나열했다. 즉 ▲일부 발의안에 포함됐던 ‘우선허용·사후규제 원칙’ 조항이 최종 AI 기본법에 포함되지 않은 점 ▲국제적인 정합성을 위해 OECD 정의를 차용해 ‘인공지능 시스템’을 정의하고, ‘영향받는 자’의 개념도 정의에 포함된 점, 고영향(고위험) 인공지능에 ‘유아교육·초등교육 및 중등교육에서의 학생 평가’가 포함된 점 등이다.

그나마 ▲동법 기본원칙(제3조)에서 “인공지능이 사람의 생명·신체의 안전 및 기본권에 중대한 영향을 미치는 경우”를 전제하고, “그 결과의 이유 및 원리 등에 대해 기술적·합리적으로 가능한 범위에서 명확하고 의미 있는 설명을 제공받을 수 있는 ‘영향받는 자의 권리’”를 규정했다.

또한 ▲‘영향받는 자’를 포함한 이해당사자가 신고 및 민원을 제기할 수 있도록 하고, 사실조사를 통해 과기정통부 장관이 법 위반사항을 조사하고 시정명령을 할 수 있는 권한도 신설했다. 이와 함께 ▲딥페이크 등 생성AI의 고지 및 표시 의무 등 투명성 의무가 강화되었다. 또한 미약하지만, 고영향 AI 사업자에 대해 영향평가를 위해 ‘노력’할 의무를 부과했다.

이들 단체는 “이미 다양한 AI 제품과 서비스가 우리 사회에 도입되고 있다. 이번 국회를 통과한 AI 기본법이 AI의 위험성을 예방하고 통제하는데 과연 실효성이 있을지는 의문”이라며 이같은 내용을 중심으로 총체적인 문제점을 지적했다.

특히 “실제 AI의 편향, 오류, 남용으로 인해 차별적 결정, 감시, 안전 위험 등이 발생하더라도 이에 대해 피해 당사자가 인지하지 못하거나 그 원인을 제대로 파악할 수 없을 가능성이 높다는 점”을 가장 큰 문제로 꼽았다. 그러면서 “이번에 제정된 AI 기본법 규정상으로는 AI에 대한 제대로 된 규율이 어렵게 되었다”며 “그러나 행정당국의 권한을 확인하는 것을 넘어 영향을 받는 자가 적극적인 권리를 행사, 우리 사회에 도입된 AI 시스템이 투명성과 책임성을 갖고 운영되도록 감시할 것”을 선언했다.

이와 함께 조속한 재개정도 촉구했다. “‘AI 기술의 빠른 발전 속도를 고려할 때, 정부와 국회 역시 AI 기본법의 문제점을 빠르게 보완하고, 안전과 인권에 기반한 AI 기술 개발이 이뤄질 수 있도록 노력해야 한다”며 “각 부처는 소관 분야별로 규제를 집행하는 ‘특별법’을 제정, AI의 위험성을 최소화할 필요가 있다”고 강조했다.