정부정책

AI 기본법 시행령 제정안: 주요 내용, 쟁점 및 향후 전망

해시우드 2025. 11. 17. 14:51
반응형

정부는 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(이하 AI 기본법)의 내년 1월 22일 시행을 앞두고, 법률에서 위임된 사항을 구체화하는 시행령 제정안을 입법예고했다. 이번 시행령은 '규제보다는 진흥에 무게를 둔다'는 기조 아래, AI 산업 육성을 위한 지원책과 함께 필요최소한의 유연한 규제 체계를 도입하는 것을 목표로 한다.

 

핵심 내용은 ▲AI 생성물에 대한 고지 의무화, ▲고성능 AI 시스템의 안전성 확보 기준 설정, ▲'고영향 AI'의 판단 기준 및 사업자 책무 구체화, ▲해외 AI 사업자에 대한 국내대리인 지정 의무 등이다. 정부는 제도의 현장 안착을 위해 최소 1년 이상의 과태료 부과 계도기간을 운영하고, 기업 지원을 위한 통합안내지원센터를 설치할 계획이다.

 

그러나 시행령 제정안을 둘러싸고 이해관계자들의 반응은 엇갈리고 있다. 산업계와 법조계에서는 '고영향 AI'의 기준이 모호하고, 투명성 확보 의무가 기술 현실을 반영하지 못해 혁신을 저해할 수 있다는 우려를 제기한다. 반면, 시민사회에서는 규제 수준이 시민의 안전과 인권을 보호하기에 매우 미흡하며, 과태료 유예 등은 기업의 책임을 면제해주는 것이라며 강하게 비판하고 있다. 향후 입법예고 기간 동안 수렴될 다양한 의견이 최종 시행령에 어떻게 반영될지가 국내 AI 규범의 방향을 결정하는 중요한 분수령이 될 전망이다.

AI 기본법 시행령 제정안: 주요 내용, 쟁점 및 향후 전망

1. 개요 및 입법 배경

1.1. 입법 목적 및 방향

2026년 1월 22일 시행 예정인 AI 기본법은 AI 산업의 발전을 촉진하고, 동시에 AI 기술의 잠재적 위험으로부터 국민을 보호하기 위한 안전 및 신뢰 기반을 구축하는 것을 목적으로 한다. 이에 따라 과학기술정보통신부(이하 과기정통부)는 법률의 입법 취지를 살리고 현장에서 조속히 안착할 수 있도록 시행령 제정안을 마련했다.

 

정부의 기본 방향은 글로벌 규범 동향과 국내 AI 산업의 성장 잠재력을 고려하여 규제보다는 진흥에 무게를 두는 것이다. 이를 위해 '필요최소한의 유연한 규제 체계'를 도입하고, 관계 부처와의 협의를 통해 중복되거나 유사한 규제를 최소화하는 데 집중했다.

 

배경훈 부총리 겸 과기정통부 장관: "AI기본법 시행령 제정안은 AI G3 강국 지위를 확고히 하기 위한 제도적 초석이 될 것입니다. 입법예고 기간에 현장의 다양한 의견을 수렴해 AI산업 발전과 안전·신뢰 기반 조성이라는 입법취지를 시행령에 잘 반영할 수 있도록 철저히 준비하겠습니다."

1.2. 추진 경과

과기정통부는 시행령 초안 마련을 위해 민간전문가 80여 명으로 구성된 하위법령 정비단을 운영했으며, 산업계, 학계, 시민단체, 관계부처 등과 70여 차례에 걸쳐 의견을 수렴했다. 2025년 11월 12일부터 12월 22일까지 40일간의 입법예고를 통해 추가적인 국민 의견을 수렴한 후 최종안을 확정할 예정이다.

 

2. 시행령 제정안의 주요 내용

2.1. AI 산업 육성 및 지원

시행령은 국내 AI 산업 육성을 위한 법적 기반을 구체화했다.

  • 지원 사업 명확화: AI 연구개발(R&D), 학습용 데이터 구축, AI 도입 및 활용 촉진 등 법률에서 정한 지원 사업의 대상, 기준, 내용을 명확히 규정했다.
  • AI 집적단지: AI 관련 기업, 대학, 연구소 등을 집적하여 시너지를 창출하기 위한 AI 집적단지의 지정 기준과 절차를 마련했다. 지정 시 지역적 집적화, 경쟁력 강화 효과 등을 고려해야 한다.
  • 지원 기관 지정: AI 산업 육성과 안전·신뢰 기반 조성을 체계적으로 지원하기 위한 전문 기관의 지정 및 운영 방안을 규정했다.
    • 인공지능정책센터: AI 정책 개발과 국제 규범 정립·확산을 지원한다. 한국지능정보사회진흥원, 대학 부설연구소, 공공기관 등을 지정할 수 있다.
    • 인공지능안전연구소: AI 안전 관련 기술 연구, 자문, 교육 등을 전문적으로 수행한다.
    • AI 집적단지 전담기구: 집적단지 운영 및 입주 기업 지원 업무를 종합적으로 수행한다.

2.2. 투명성 및 신뢰 확보 의무

AI 기술 활용에 대한 이용자의 알 권리를 보장하고 사회적 신뢰를 구축하기 위한 제도를 구체화했다.

가. AI 활용 고지 의무 (제22조)

  • 사전 고지: 사업자는 '고영향 AI' 또는 '생성형 AI'를 이용한 제품·서비스를 제공할 때, AI에 기반해 운용된다는 사실을 이용자에게 사전에 고지해야 한다.
    • 고지 방법: 계약서, 이용약관, 사용 설명서에 기재하거나, 이용자 화면에 표시, 또는 서비스 제공 장소에 게시하는 등 다양한 방법을 선택할 수 있다.
  • 생성형 AI 결과물 표시: 실제와 구분하기 어려운 딥페이크와 같은 결과물에 대해서는 'AI로 생성되었음'을 이용자가 명확하게 인식할 수 있도록 고지 또는 표시해야 한다.
    • 표시 방법: 사람이 인식할 수 있는 방법(텍스트, 음성 안내 등) 또는 기계가 판독할 수 있는 방법(워터마크 등)이 모두 허용된다. 단, 기계 판독 방식을 사용할 경우, 최소 1회 이상 안내 문구나 음성으로 알려야 한다.
    • 고려 사항: 주된 이용자의 연령, 신체적·사회적 조건 등을 고려하여 효과적인 방식으로 고지해야 한다.

나. 고지 의무의 예외 (제22조)

다음의 경우에는 투명성 확보 의무가 적용되지 않는다.

  1. 제품·서비스명, 화면 구성 등을 통해 AI 활용 사실이 명백한 경우
  2. 사업자의 내부 업무 용도로만 사용되는 경우
  3. 기타 기술 수준, 이용 형태 등을 고려하여 과기정통부 장관이 고시로 정하는 경우

2.3. 고성능 AI의 안전성 확보 의무 (제23조)

대규모 연산량을 사용해 개발된 고성능 AI 시스템이 초래할 수 있는 잠재적 위험을 관리하기 위한 조치다.

  • 의무 대상: 학습에 사용된 누적 연산량이 10의 26승 부동소수점 연산(FLOPs) 이상인 AI 시스템.
  • 세부 기준: 위 연산량 기준을 충족하더라도, 과기정통부 장관이 AI 기술 발전 수준, 위험도 등을 고려하여 고시하는 기준에 해당하는 시스템에 한해 의무가 부과된다. 이는 미국 등 해외 규범 동향을 참고한 것이다.
  • 의무 내용: 대상 시스템을 개발·운영하는 사업자는 위험 요소를 식별·평가·완화하고, 그 결과를 과기정통부 장관에게 제출해야 한다.

2.4. 고영향 AI 규제

사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미칠 수 있는 AI를 '고영향 AI'로 지정하고, 사업자에게 특별한 책무를 부과한다.

가. 고영향 AI의 판단 기준 및 확인 절차 (제24조, 제25조)

  • 판단 기준: 고영향 AI 여부는 다음 사항을 종합적으로 고려하여 판단한다.
    • 활용 영역 (에너지, 보건의료, 교통, 교육, 채용, 대출 심사 등 법률에 명시된 영역)
    • 사람의 생명, 신체 안전, 기본권에 미치는 위험의 영향, 중대성, 빈도
    • 활용 영역별 특수성
  • 확인 절차: 사업자는 자체적으로 고영향 AI 해당 여부를 검토해야 하며, 판단이 어려운 경우 과기정통부 장관에게 확인을 요청할 수 있다.
    • 처리 기간: 요청일로부터 기본 30일 이내에 결과를 회신하며, 1회에 한해 30일 연장이 가능하다.
    • 재확인 요청: 결과에 이의가 있을 경우, 10일 이내에 재확인을 요청할 수 있으며, 이때는 '고영향 AI 전문위원회'의 자문을 거쳐야 한다.

나. 고영향 AI 사업자의 책무 (제26조)

고영향 AI를 제공하는 사업자는 다음 조치를 이행하고 그 근거를 5년간 문서로 보관해야 하며, 주요 내용은 홈페이지 등에 게시해야 한다(단, 영업비밀은 제외 가능).

  1. 위험관리방안 수립·운영: 위험관리 정책 및 조직체계 수립
  2. 설명방안 수립·시행: 결과 도출의 주요 기준, 학습 데이터 개요 등
  3. 이용자 보호방안 수립·운영: 이용자 권리 보장 정책 등
  4. 관리·감독자 지정: 담당자의 성명 및 연락처 명시
  5. 문서 작성 및 보관
  • 중복 규제 해소: 다른 법령(예: 디지털의료제품법, 신용정보보호법 등)에 따라 유사한 조치를 이행한 경우, AI 기본법상의 책무를 이행한 것으로 간주하여 기업의 이중 부담을 완화했다.

2.5. 인공지능 영향평가 (제27조)

사업자가 자사 AI 제품·서비스가 인간의 기본권에 미치는 영향을 자율적으로 평가하고 위험 완화 방안을 마련하는 제도다. 영향평가 시 다음 사항을 포함해야 한다.

  • 영향을 받을 수 있는 개인 또는 집단 식별
  • 영향을 받을 수 있는 기본권 유형 식별
  • 기본권에 대한 사회적·경제적 영향의 내용 및 범위
  • 위험의 예방·완화·손실 복구 방안
  • 개선이 필요한 경우 그 이행 계획

2.6. 해외 사업자의 국내대리인 지정 (제28조)

국내에 주소나 영업소가 없는 해외 AI 사업자 중 일정 기준을 충족하는 경우, 법적 의무 이행과 이용자 보호를 위해 국내대리인을 의무적으로 지정해야 한다.

구분 기준
매출액 기준 1 전년도 매출액 1조 원 이상
매출액 기준 2 AI 서비스 부문 전년도 매출액 100억 원 이상
이용자 수 기준 직전 3개월간 일평균 국내 이용자 수 100만 명 이상
기타 법 위반으로 과기정통부로부터 자료 제출을 요구받은 경우

 

3. 시행 후 조치 및 지원 방안

3.1. 과태료 부과 계도기간 운영

법 시행 초기 제도의 현장 안착과 기업의 준비 기간을 고려하여, 최소 1년 이상 과태료 부과를 유예하는 계도기간을 운영할 계획이다. 이 기간에는 법규 위반 시 과태료 부과 대신 행정지도 및 안내 조치가 이루어진다.

3.2. 통합안내지원센터(가칭) 운영

계도기간 동안 기업들이 법 적용과 관련하여 겪는 어려움을 해소하기 위해 통합안내지원센터를 운영한다. 센터는 기업의 문의 사항에 상세히 안내하고, 현장의 의견을 지속적으로 수렴하여 향후 법령 및 가이드라인 개정에 반영할 예정이다. 또한 AI 검·인증, 영향평가 수행 비용을 지원하는 등 기업 부담 완화책도 병행한다.

 

4. 주요 쟁점 및 이해관계자 반응

4.1. 산업계 및 법조계의 우려

'진흥 우선'이라는 정부 기조에도 불구하고, 산업계와 법조계에서는 일부 규정의 불확실성이 혁신의 발목을 잡을 수 있다는 우려가 제기된다.

  • 고영향 AI 기준의 모호성:
    • 마경태 변호사(김앤장): "고영향 AI 확인은 기획 단계에서 이뤄져야 하는데, 확인 요청에 필요한 서류는 개발 완료 후에나 알 수 있는 정보다. 개발 완료 후 고영향 AI로 판정되면 전체 과정을 다시 검토해야 하는 이중 부담이 발생할 수 있다."
    • 전문가들은 '의미 있는 인적 개입'과 같은 판단 기준이 위험을 '판단'하는 기준이 아닌 위험 '완화 조치'에 가까워 모순적이라고 지적한다.
  • 투명성 의무의 현실적 부담:
    • 김유진 변호사(김앤장): "'실제와 구분하기 어려운 경우'의 기준이 되는 이용자가 불명확하며, 텍스트 콘텐츠는 복사·편집이 용이해 워터마크 적용이 사실상 불가능함에도 예외 규정이 없다"고 비판했다.
    • '내부 업무용' 예외 조항 역시 계열사나 외주 업체와의 공유가 '내부'에 포함되는지 등 해석 기준이 모호하다는 지적이 있다.
  • 혁신 저해 및 중복 규제 우려:
    • 스타트업 업계에서는 고영향 AI의 불명확한 정의, 광범위한 생성형 AI 표시 의무, 기존 법령과의 충돌 가능성 등이 기술 개발을 위축시킬 수 있다고 우려한다. 폐암 진단 AI, 자율주행차 기술 등이 고영향 AI로 분류될 경우, 잦은 업데이트가 필수적인 AI 산업 특성상 복잡한 행정 절차가 큰 부담으로 작용할 수 있다.

4.2. 시민사회의 비판

시민사회는 정반대의 시각에서 시행령안이 기업의 책임을 완화하고 시민 보호에 소홀하다고 비판한다.

  • 불충분한 규제 수준:
    • 참여연대 등 시민단체는 현행 AI 기본법 자체가 시민 피해 발생 시 사업자의 책임을 강력하게 묻기에는 미흡하다고 평가한다. 이들은 학습 데이터와 알고리즘 작동 원리에 대한 공개 의무가 더 강화되어야 한다고 주장한다.
  • 시행 유예 및 과태료 계도기간 반대:
    • 시민사회는 AI 위험으로부터 시민을 보호하는 것은 시급한 과제이므로, 최소한의 규제조차 유예해서는 안 된다는 입장이다. 특히 과태료 조항 유예는 "AI 위험 대비를 기업에만 맡기고 국가는 뒷짐 지겠다는 선언"이라며 강하게 비판하고 있다.
  • 글로벌 규제 동향과의 비교:
    • EU가 금지 AI 규제를 즉시 시행하고 미국 주정부들도 안전장치 의무화에 나서는 등 국제적 흐름과 달리, 한국은 산업 발전 논리에 치우쳐 안전과 인권 보호 의무를 소홀히 하고 있다는 지적이 제기된다.

 

5. 결론 및 향후 전망

AI 기본법 시행령 제정안은 '산업 진흥'과 '안전·신뢰 확보'라는 두 가지 가치를 조화시키려는 정부의 정책 방향을 담고 있다. 산업 육성을 위한 구체적인 지원책을 마련하는 한편, 투명성·안전성 의무와 고영향 AI 규제라는 최소한의 안전장치를 도입했다.

 

하지만 산업계의 '혁신 저해' 우려와 시민사회의 '규제 미흡' 비판이 정면으로 충돌하면서, 사회적 합의 도출이라는 과제를 남겼다. 정부는 입법예고 기간을 통해 이러한 상반된 의견을 수렴하고, 최종 시행령과 함께 구체적인 기준과 사례를 담은 다수의 고시와 가이드라인을 마련할 예정이다.

 

결론적으로, 이번 시행령 제정안은 한국형 AI 규범의 첫 단추를 꿰는 중요한 단계다. 향후 의견 수렴 과정에서 얼마나 실효성 있고 균형 잡힌 규제 체계를 완성하느냐에 따라 국내 AI 산업의 경쟁력과 사회적 수용성이 결정될 것이다.

반응형