고영향 AI 정의, 기업별 규제 차등화, 인프라 확충 등 시급한 개선 요구
정부가 인공지능(AI) 기본법 시행을 앞두고 법적 보완책 마련이 시급하다는 지적이 나오고 있다. AI 산업이 급격히 발전하면서 고영향 AI의 정의 명확화, AI 사업자의 의무 차등화, GPU 및 데이터센터 확충, AI 생태계 지원 정책 강화 등이 필수적이라는 분석이다.
이번 보도는 국회입법조사처에서 발간한 ‘인공지능(AI) 기본법 시행 전 보완을 위한 입법 과제’(2025.3.4, 제2327호) 보고서를 바탕으로 정리되었다.
AI 기본법, 시행 전 해결해야 할 주요 이슈
AI 기본법은 AI 기술 개발을 촉진하면서도 안전성 및 윤리성을 확보하고 산업 발전을 지원하기 위한 종합적 법률이다. 그러나 일부 핵심 조항의 모호성과 부족한 인프라 지원 등이 시행 전 해결해야 할 과제로 떠오르고 있다.
1. 고영향 AI 개념 명확화
현재 AI 기본법에서는 ‘고영향 AI’를 사람의 생명, 신체 안전, 기본권 보호에 중대한 영향을 미치거나 위험을 초래할 수 있는 AI로 정의하고 있다.
그러나 어떤 기준으로 AI가 ‘고영향 AI’에 해당하는지 구체적인 명확성이 부족한 상태다.
고영향 AI 사업자는 △AI 안전성·신뢰성 검증, △위험 관리 방안 마련, △이용자 보호 조치 시행, △사람 중심의 관리·감독 등의 의무를 이행해야 한다. 하지만, 어떤 기준과 절차를 통해 AI가 ‘고영향 AI’로 분류되는지 법적 명확성이 필요하다는 지적이 나오고 있다.
2. AI 사업자 유형별 의무 차등화
AI 산업은 하나의 기업이 AI 모델 개발부터 서비스 제공까지 독점하는 방식이 아니라, 기반 AI 모델을 개발하는 기업과 이를 활용해 응용 제품·서비스를 제공하는 기업이 구분되는 구조로 운영된다.
따라서 AI 모델 개발 사업자와 이를 활용하는 AI 응용 서비스 사업자의 규제 및 책임을 차등화할 필요가 있다.
EU의 인공지능법(AI Act)은 고위험 AI 개발 기업에 대해서는 데이터 관리, 위험 평가, 기술 문서 작성, 안전성 검증 의무를 부과하고, 고위험 AI를 이용하는 기업에게는 적절한 이용지침 준수, 기본권 영향평가 수행 의무를 부과하는 방식으로 규제를 차등화하고 있다.
한국 역시 AI 기본법에서 AI 기업 간 차등적 책임 부여가 필요하다는 목소리가 높아지고 있다.
3. AI 인프라 확충 및 산업 지원 강화
국내 AI 산업이 글로벌 시장에서 경쟁력을 갖추기 위해서는 컴퓨팅 인프라 및 인력 양성 정책의 강화가 필수적이다.
GPU(그래픽처리장치) 확보 문제: 현재 한국의 AI 기업들은 AI 연산을 위한 GPU 부족 문제를 겪고 있으며, 미국·중국과 비교해 컴퓨팅 자원이 현저히 부족한 상황이다. 이에 따라 정부는 2026년까지 GPU 1.8만 장을 확보해 운영하는 ‘국가 AI 컴퓨팅센터’ 설립을 추진하고 있지만, 이와 같은 인프라 지원을 법적 근거로 명확히 마련해야 한다는 의견이 제기되고 있다.
데이터센터 설립 규제 개선: 현재 데이터센터는 분산에너지 활성화 특별법 등 전력 관련 규제와 전자파 우려로 인해 수도권 지역 설립이 제한되는 문제가 있다. AI 공급자와 수요자가 밀집한 수도권에 데이터센터를 구축할 수 있도록 법적·행정적 지원 방안이 필요하다는 지적이 나온다.
AI 인재 양성 및 정착 지원: 현재 대학 중심으로 AI 인재를 양성하는 정책은 시행되고 있지만, 양성된 인재들이 해외로 유출되는 문제가 크다. 따라서 AI 인력의 국내 정착과 성장 지원을 위한 법적·제도적 보완이 필요하다는 의견이 있다.
AI 제조업 적용 지원(AI Transformation, AX): AI 기술이 제조업 등 다양한 산업에 적용될 수 있도록, 제조업의 AI 도입 지원 정책을 법률에 명시할 필요가 있다.
AI 기본법 시행을 위한 향후 입법 전략
AI 산업이 급변하는 가운데, 한국이 AI 강국으로 자리 잡기 위해서는 AI 법·제도의 유연성과 신속한 대응 능력이 필수적이다. AI 기본법을 시행하기 전, 기술 발전 속도와 산업 생태계를 반영한 보완 입법이 필요하다.
1. AI 거버넌스 체계 강화
AI 기본법 시행을 총괄할 국가인공지능위원회의 정책 조정·집행 기능을 강화해야 한다. 현재 국가인공지능위원회는 주요 정책을 심의·의결하는 역할을 맡고 있지만,
각 부처 간 정책 조율, AI 산업 지원 전략 수립, AI 안전 연구소·컴퓨팅센터 운영 체계 정립 등 실행 기능이 부족한 상태다.
이를 개선하기 위해, 국가인공지능위원회가 정책을 집행하고 부처별 AI 사업을 점검·조정하는 기능을 수행하도록 보완 입법이 필요하다.

2. 글로벌 AI 법제와의 조화
AI 관련 법·제도는 미국·유럽·중국 등 주요국의 규제 방향과 협력·조화를 이루는 것이 중요하다.
- EU AI Act(인공지능법): 고위험 AI 규제, 개발자·이용자별 차등 규제
- 미국 AI 법안: AI 연구 지원, 기업 자율 규제 중심 정책
- 중국 AI 규제: 국가 차원의 AI 개발 및 안전 관리 집중
한국은 글로벌 AI 법제와 균형을 맞추면서도 국내 AI 산업 발전을 지원할 수 있는 차별화된 규제 프레임워크를 구축해야 한다.
3. AI 윤리 및 안전성 확보
AI가 인간의 기본권에 미치는 영향을 최소화하고 신뢰성을 보장하기 위해,
- AI 안전성 평가,
- 투명한 데이터 사용 기준 마련,
- AI 생성 콘텐츠의 신뢰성 검증 등의 보완 입법이 필요하다.
특히, AI 생성 콘텐츠(딥페이크 포함)에 대한 표시 의무와 오남용 방지를 위한 법적 장치 마련이 시급하다.
AI 기본법 시행 앞두고, 신속한 보완 입법 필요
AI 기술은 국가 경쟁력을 결정짓는 핵심 요소로 자리 잡고 있으며, 법적·제도적 정비가 시급하다. AI 기본법이 실효성을 갖추기 위해서는 고영향 AI 개념 정립, AI 사업자 유형별 규제 차등화, 인프라 및 인재 지원 강화 등이 조속히 마련되어야 한다.
정부와 국회는 AI 기본법 시행 전 보완 입법을 통해, 한국이 글로벌 AI 경쟁에서 선두를 차지할 수 있도록 지원해야 할 것이다.
#AI기본법 #인공지능규제 #AI산업발전 #고영향AI #데이터센터 #AI윤리 #AI정책 #국가인공지능위원회