「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(이하 인공지능 기본법) 및 그 하위법령은 대한민국의 인공지능(AI) 관련 정책의 새로운 기준을 마련하기 위해 제정되었다. 이 법체계의 핵심은 '산업 진흥'과 '신뢰 기반 구축'이라는 두 가치를 균형적으로 반영하는 데 있다. 법률은 AI 산업의 체계적 육성을 위한 지원책과 함께, 국민의 권익과 안전을 보호하기 위한 규제적 장치를 동시에 규정하고 있다.
주요 내용은 다음과 같다.
- 거버넌스 확립: 대통령을 위원장으로 하는 국가인공지능위원회를 설치하여 범부처 AI 정책을 총괄 심의·의결하고, 3년 주기의 인공지능 기본계획을 수립하여 국가 전략의 일관성을 확보한다. 또한 인공지능정책센터와 인공지능안전연구소를 통해 정책 및 안전 연구를 전문적으로 지원한다.
- 산업 육성 및 지원: AI 기술 개발, 표준화, 학습용데이터 구축 및 통합 제공 시스템 운영, 중소기업·스타트업 지원, 인공지능집적단지 조성 등 AI 산업 생태계 전반의 경쟁력 강화를 위한 포괄적인 지원책을 명시하고 있다.
- 신뢰 및 안전 확보를 위한 규제 체계:
- 투명성 확보 의무: 고영향 AI나 생성형 AI 서비스 제공 시, AI 기반임을 사전에 고지하고 AI 생성물에는 해당 사실을 표시(예: 워터마크)해야 한다.
- 안전성 확보 의무: 학습에 사용된 누적 연산량이 10의 26승 부동소수점 연산(FLOPs) 이상인 고성능 AI 시스템에 대해 위험 식별, 평가, 완화 등 안전성 확보 조치를 의무화한다.
- 고영향 인공지능 규제: 국민의 생명, 신체, 기본권에 중대한 영향을 미칠 수 있는 특정 영역(의료, 교통, 채용 등)의 AI를 '고영향 AI'로 정의하고, 사업자에게 위험관리방안 수립, 설명 방안 마련, 사람의 관리·감독 등 강화된 책무를 부과한다. 사업자는 필요시 정부에 고영향 AI 해당 여부 확인을 요청할 수 있다.
- 국외 사업자 규율: 일정 규모 이상의 해외 AI 사업자(매출액 1조원, AI 서비스 매출액 100억원, 일 평균 이용자 100만명 이상 등)에게 국내대리인 지정을 의무화하여 국내 이용자 보호 및 규제 형평성을 확보한다.
- 유연한 규제 운영: 법 시행 초기 기업의 혼란을 최소화하기 위해 과태료 부과에 대한 계도기간을 운영할 계획이며, 다른 법령에 따라 유사한 의무를 이행한 경우 본 법상의 의무를 이행한 것으로 간주하는 조항을 두어 중복 규제 부담을 완화한다.
이 법은 2026년 1월 22일부터 시행될 예정이며, 대한민국이 글로벌 AI 규범 경쟁 속에서 기술 우위를 확보하고 안전한 AI 활용 환경을 조성하는 법적 기틀이 될 것으로 전망된다.

Ⅰ. 법률 제정 배경 및 목적
「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」은 인공지능 기술의 급속한 발전과 사회 전반으로의 확산에 대응하여, 기술 우위를 확보하고 AI 규범을 선도하기 위한 목적으로 제정되었다. 미국, EU, 일본 등 주요국이 자국 산업 발전과 AI의 잠재적 위험에 대응하기 위해 법제도를 정립하는 글로벌 경쟁 속에서, 대한민국 역시 산업 현황을 고려한 균형 잡힌 법적 기준을 마련할 필요성이 대두되었다.
본 법률과 그 하위법령은 인공지능의 건전한 발전을 지원하고 인공지능사회의 신뢰 기반을 조성하는 데 필요한 기본적인 사항을 규정함으로써, 최종적으로 국민의 권익과 존엄성을 보호하고 삶의 질 향상과 국가경쟁력 강화에 이바지하는 것을 목표로 한다(법 제1조). 이는 '규제보다는 진흥'에 무게를 두면서도, 필요최소한의 규제를 합리적이고 유연하게 도입하여 산업 발전과 안전이라는 두 가치를 조화시키는 것을 핵심 제정 방향으로 삼고 있다.
Ⅱ. 주요 추진 체계 및 거버넌스
1. 국가인공지능위원회
인공지능 관련 주요 정책을 심의·의결하기 위해 대통령 소속으로 국가인공지능위원회(이하 위원회)를 설치한다(법 제7조). 이는 범부처 AI 정책을 총괄 조정하는 컨트롤 타워 역할을 수행한다.
- 구성: 위원장(대통령), 부위원장 1명을 포함한 45명 이내의 위원으로 구성된다. 위원은 관계 중앙행정기관의 장, 국가안보실 차장, 대통령비서실 수석비서관 및 민간 전문가(과반수 이상)로 이루어진다.
- 주요 기능 (법 제8조):
- 인공지능 기본계획의 수립·변경 및 시행 점검
- AI 관련 정책 및 연구개발·투자 전략 수립
- 산업 발전을 저해하는 규제 발굴 및 개선
- 고영향 인공지능 규율에 관한 사항 심의·의결
- 국가기관 등에 대한 법령·제도 개선 권고 또는 의견 표명
- 운영: 위원회는 법 시행일로부터 5년간 존속하며, 업무 지원을 위해 지원단을 둔다.
2. 인공지능 기본계획
과학기술정보통신부장관은 관계 기관의 의견을 수렴하고 위원회의 심의·의결을 거쳐 3년마다 인공지능 기본계획을 수립·시행해야 한다(법 제6조).
- 포함 내용:
- 정책의 기본 방향과 전략
- 전문인력 양성 및 개발·활용 촉진 기반 조성
- AI 윤리 확산 등 신뢰 기반 조성에 관한 법·제도
- 재원 확보 및 투자 방향
- 교육·노동·경제 등 사회 각 영역의 변화와 대응
- 경미한 사항 변경: 단순 착오, 법령 개정 내용 반영 등 대통령령으로 정하는 경미한 사항은 위원회 심의 없이 변경할 수 있다(시행령 제3조).
3. 지원 기관
전문적인 정책 및 안전 연구를 위해 별도의 지원 기관을 지정·운영한다.
- 인공지능정책센터 (법 제11조, 시행령 제9조):
- 지정: 과학기술정보통신부장관이 지정한다. 「지능정보화 기본법」에 따른 **한국지능정보사회진흥원(NIA)**을 우선 지정하며, 전문성을 갖춘 대학 부설연구소, 공공기관, 정부출연연구기관 등도 추가 지정이 가능하다.
- 주요 업무: 기본계획 수립 지원, AI 관련 시책 개발 및 동향 분석, 법·제도 연구 등 정책 개발과 국제규범 정립·확산을 지원한다.
- 인공지능안전연구소 (법 제12조, 시행령 제10조):
- 운영: 과학기술정보통신부장관이 운영하며, AI 관련 위험으로부터 국민을 보호하고 신뢰 기반을 유지하기 위한 업무를 수행한다.
- 주요 업무: AI 안전 관련 위험 정의·분석, 정책 연구, 평가 기준 및 기술 연구, 국제 협력 등을 수행한다.
Ⅲ. 인공지능 산업 육성 및 지원책
1. 기술 개발 및 기반 조성
- 기술 개발 및 표준화 (법 제13조, 제14조): 정부는 AI 기술의 연구·개발, 실용화, 사업화 등을 지원하고, AI 기술, 학습용데이터, 안전성·신뢰성 관련 표준화 사업을 추진할 수 있다.
- 학습용데이터 시책 (법 제15조, 시행령 제12조-제14조):
- 지원 대상: 학습용데이터의 생산·수집·관리·유통 및 활용 촉진에 기여도가 높은 사업을 지원 대상으로 선정할 수 있다.
- 통합제공시스템: 과기정통부장관은 학습용데이터를 통합 제공·관리하는 시스템을 구축·운영해야 하며, 이용자로부터 비용을 징수할 수 있다. 비영리 연구기관이나 교육기관 등에는 이용료 감면이 가능하다.
2. 산업 활성화 및 생태계 구축
- AI 기술 도입·활용 지원 (법 제16조): 기업 및 공공기관의 AI 기술 도입을 촉진하기 위해 컨설팅, 교육, 자금 등을 지원하며, 특히 중소기업등을 우선적으로 고려한다(법 제17조).
- 창업 활성화 (법 제18조): 창업자 발굴·육성, 교육·훈련, 사업화 지원 등 AI 분야 창업 활성화를 위한 사업을 추진할 수 있다.
- 인공지능집적단지 (법 제23조, 시행령 제17조-제18조):
- 지정: 국가 및 지자체는 AI 기업·기관의 집적화를 위해 인공지능집적단지를 지정할 수 있다. 지정 시 지역적 집적화 및 경쟁력 강화 효과 등을 고려해야 하며, 국가인공지능위원회의 심의·의결을 거쳐야 한다.
- 전담기관: 집적단지의 효과적 운영을 위해 전담기관을 설치·지정할 수 있다. 전담기관은 전담인력 10명 이상 상시 고용, 공공성 있는 기관 등의 요건을 갖춰야 한다.
- 한국인공지능진흥협회 (법 제26조, 시행령 제20조):
- 설립: AI 관련 연구 및 업무 종사자 50명 이상이 발기인이 되어 과기정통부장관의 인가를 받아 법정 협회를 설립할 수 있다.
- 업무: AI 이용 촉진, 현황 조사, 공동이용시설 운영, 해외진출 지원 등 산업 진흥과 신뢰 기반 조성을 위한 업무를 수행한다.
Ⅳ. 인공지능 신뢰 및 안전 확보를 위한 규제 체계
1. 투명성 확보 의무 (법 제31조, 시행령 제22조)
이용자의 알 권리를 보장하고 AI 생성물로 인한 혼란을 방지하기 위해 투명성 확보 의무를 부과한다.
- 사전 고지 의무: 고영향 AI나 생성형 AI를 이용한 제품·서비스 제공 시, AI 기반으로 운용된다는 사실을 이용자에게 사전에 알려야 한다.
- 방법: 계약서·이용약관 기재, 이용자 화면 표시, 제공 장소 게시 등 다양한 방법을 선택할 수 있다.
- 결과물 표시 의무: 생성형 AI가 만든 결과물에는 해당 사실을 표시(예: 워터마크)해야 한다.
- 방법: 사람이 인식 가능한 방법 또는 기계가 판독 가능한 방법(이 경우 1회 이상 안내 문구·음성 제공 필요)을 사용할 수 있다.
- 딥페이크 등: 실제와 구분하기 어려운 가상 결과물을 제공할 경우, 이용자가 명확히 인식할 수 있는 방식으로 고지 또는 표시해야 한다.
- 적용 예외:
- AI 활용 사실이 명백한 경우 (예: 제품명)
- 인공지능사업자의 내부 업무 용도로만 사용되는 경우
- 기타 과기정통부장관이 고시하는 경우
2. 안전성 확보 의무 (법 제32조, 시행령 제23조)
고도로 발전된 대규모 AI 시스템의 잠재적 위험을 관리하기 위한 의무이다.
- 대상: 학습에 사용된 누적 연산량이 10의 26승 부동소수점 연산(FLOPs) 이상인 AI 시스템으로서, 과기정통부장관이 기술 발전 수준, 위험도 등을 고려하여 고시하는 기준에 해당하는 시스템.
- 이는 미국의 대통령 행정명령(10^26 FLOPs) 등 글로벌 규범 동향과 정합성을 맞춘 기준이다.
- 의무 내용:
- AI 수명주기 전반에 걸친 위험의 식별·평가 및 완화
- 안전사고 모니터링 및 대응을 위한 위험관리체계 구축
- 보고: 사업자는 상기 의무의 이행 결과를 과기정통부장관에게 제출해야 한다.
3. 고영향 인공지능(High-Impact AI) 규제
가. 정의 및 범위 (법 제2조)
사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템으로, 다음 영역에서 활용되는 것을 말한다.
| 영역 구분 | 상세 내용 |
| 에너지/수자원 | 에너지 공급, 먹는물 생산 공정 |
| 의료/안전 | 보건의료 제공, 의료기기 개발, 원자력시설 안전 관리 |
| 공공/사법 | 범죄 수사·체포를 위한 생체인식정보 분석, 공공서비스 자격 확인 및 결정 |
| 사회/경제 | 채용, 대출 심사 등 개인의 권리·의무에 중대한 영향을 미치는 판단 |
| 교통/교육 | 주요 교통수단·시설·체계의 작동 및 운영, 초·중등 교육에서의 학생 평가 |
나. 확인 절차 (법 제33조, 시행령 제24조-제25조)
사업자의 법적 불확실성을 해소하기 위한 선택적 확인 절차를 마련했다.
- 요청: 사업자는 AI 서비스 제공 전, 고영향 AI 해당 여부를 자체 검토해야 하며, 필요시 과기정통부장관에게 확인을 요청할 수 있다.
- 판단 기준: 확인 시에는 ▲활용 영역 ▲사람의 생명·신체·기본권에 미치는 위험의 영향, 중대성, 빈도 ▲활용 영역별 특수성 등을 종합적으로 고려한다.
- 처리 기간: 요청을 받은 날부터 30일 이내에 결과를 회신해야 한다. 복잡성 등을 이유로 1회에 한해 30일 범위에서 연장할 수 있다.
- 재확인 및 전문위원회: 결과에 이의가 있을 경우 10일 이내에 재확인을 요청할 수 있으며, 재확인 요청 시에는 반드시 전문위원회의 자문을 받아야 한다.
다. 사업자 책무 (법 제34조, 시행령 제26조)
고영향 AI 사업자에게는 안전성·신뢰성 확보를 위한 다음 조치들이 의무화된다.
- 위험관리방안 수립·운영: 위험관리정책, 조직체계 등을 포함한다.
- 설명 방안 수립·시행: AI 결과 도출에 활용된 주요 기준, 학습용데이터 개요 등에 대한 설명 방안을 마련해야 한다.
- 이용자 보호 방안 수립·운영: 적법·안전한 데이터 수집, 이용자 권리 보장 정책 등을 포함한다.
- 사람의 관리·감독: 관리·감독하는 사람의 성명 및 연락처를 확보해야 한다.
- 문서 작성 및 보관: 위 조치들의 이행 근거를 문서로 작성하여 5년간 보관해야 한다.
- 정보 공개: 위험관리방안, 설명 방안, 이용자 보호 방안 등의 주요 내용을 홈페이지 등에 게시해야 한다. 단, 영업비밀에 해당하는 사항은 제외할 수 있다.
- 이행 간주: 다른 법령에 따라 위 책무에 준하는 조치를 이행한 경우, 이 법에 따른 조치를 이행한 것으로 본다. 예를 들어, 「디지털의료제품법」상 품질관리체계를 갖춘 경우 위험관리방안 수립 의무를 이행한 것으로 간주될 수 있다.
라. 영향평가 (법 제35조, 시행령 제27조)
- 성격: 사업자는 고영향 AI 서비스 제공 시 사람의 기본권에 미치는 영향을 평가하도록 노력하여야 한다 (자율적 노력 의무).
- 공공 부문: 국가기관등은 영향평가를 실시한 제품·서비스를 우선적으로 고려해야 한다.
- 평가 포함 사항: 영향받는 개인·집단 식별, 영향받는 기본권 유형 식별, 위험 예방·완화 방안 등을 포함해야 한다.
Ⅴ. 국외 사업자 규제 및 기타 사항
1. 국내대리인 지정 의무 (법 제36조, 시행령 제28조)
국내에 주소나 영업소가 없는 해외 AI 사업자에 대한 규제 집행력을 확보하기 위한 제도이다.
- 대상 사업자 기준 (다음 중 하나에 해당):
- 전년도 매출액이 1조원 이상인 사업자
- AI 서비스 부문 전년도 매출액이 100억원 이상인 사업자
- 직전 3개월간 일 평균 국내 이용자 수가 100만명 이상인 사업자
- 법 위반으로 과기정통부로부터 자료 제출을 요구받은 자
- 대리인의 역할: 안전성 확보 의무 이행 결과 제출, 고영향 AI 확인 요청, 사업자 책무 이행 지원 등을 대리한다.
2. 과태료 및 집행 (법 제43조, 시행령 제32조)
- 부과 대상 및 금액: 다음 위반 행위에 대해 3천만원 이하의 과태료를 부과할 수 있다.
- 제31조제1항 위반: AI 기반 사실 사전 고지 미이행 (1회 500만원, 2회 1,000만원, 3회 이상 1,500만원)
- 제36조제1항 위반: 국내대리인 미지정 (횟수와 무관하게 2,000만원)
- 제40조제3항 위반: 시정명령 미이행 (1회 1,000만원, 2회 2,000만원, 3회 이상 3,000만원)
- 계도기간 운영: 법 시행 초기 기업의 혼란을 최소화하고 적응을 돕기 위해, 위반사항 적발 시 즉시 과태료를 부과하기보다는 행정지도 및 안내 조치를 우선하는 계도기간을 운영할 계획이다.
Ⅵ. 입법 과정 및 향후 계획
- 추진 경과: 법률 제정 이후, 과기정통부는 산업계, 학계, 법조계 등 약 80여명의 민간 전문가로 구성된 '하위법령 정비단'을 운영하며 70여 차례의 의견 수렴을 거쳐 시행령 및 관련 고시·가이드라인 초안을 마련했다.
- 시행: 법률은 2026년 1월 22일부터 본격적으로 시행된다.
- 향후 계획: 정부는 입법예고, 규제심사, 법제처 심사 등의 행정 절차를 거쳐 2025년 12월 말까지 하위법령 제정을 완료할 예정이다. 또한, 기업의 의무 이행을 지원하기 위한 상세 가이드라인을 공개하고, 안전·신뢰 검·인증 및 영향평가에 대한 컨설팅과 비용 지원을 병행할 계획이다.