AI 기본법 정리 | 꼭 알아야 할 핵심 요약 가이드 (고영향 AI/고성능 AI 기준)

2026년 본격 시행되는 AI 기본법 정리 내용을 확인하세요. 고영향/고성능 AI 분류 기준부터 기업의 의무 사항까지, 복잡한 법안을 핵심만 추려 알기 쉽게 설명해드릴게요.
Feb 10, 2026
AI 기본법 정리 | 꼭 알아야 할 핵심 요약 가이드 (고영향 AI/고성능 AI 기준)

2026년 시행 AI 기본법이란? 법안의 제정 배경과 목적

2026년 1월부터 시행되는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(AI 기본법)은 AI 기술의 발전 속에서 국민의 안전과 권리를 지키기 위해 마련된 가이드라인이에요. 딥페이크나 가짜뉴스로 인한 피해를 막고, 글로벌 규제 흐름에 발맞춰 국내 기업들의 성장 환경을 마련하는 것이 핵심이죠.

이 법의 가장 큰 목표는 '신뢰할 수 있는 AI 환경'을 만드는 거예요. 핵심을 간단히 정리하면, ① 생성형 AI 활용 여부를 쉽게 알 수 있도록 하고, ② ‘고영향 AI’와 ‘고성능 AI’를 분류해 더 엄격한 의무를 부과해요. ③ 서비스 이용자는 고영향 AI가 생성한 결과에 대해 설명을 요구할 수 있어요.

그럼 구체적으로 어떤 인공지능이, 어떤 규제를 받게 될까요?

서버실 배경 위에 빛나는 두뇌 형상과 법을 상징하는 저울, 그리고 오벨리스크 형태의 조형물이 무한대($\infty$) 기호로 연결된 이미지입니다. 인공지능 기술의 무한한 발전과 그에 따른 법적·윤리적 책임 사이의 균형을 시각적으로 표현하고 있습니다.

AI 기본법 정리: 어떤 AI가 규제 대상인가요?

1. 생성형 AI & 딥페이크

텍스트, 이미지, 영상 등을 만들어내는 AI는, 그 결과에 대해 이용자가 "이것이 AI가 만든 것임"을 알 수 있게 해야 해요.

  • 생성형 AI: 텍스트, 이미지, 오디오, 영상 등을 생성하는 모든 AI예요. 이를 이용한 제품·서비스는 "이 서비스는 AI 기술을 활용한다”라고 사전에 알리고, 결과물에 대해 최소한 비가시성 식별 표시를 적용해야 해요.

  • 딥페이크(Deepfake): 생성형 AI 중에서도 실제 사람의 얼굴, 신체, 목소리를 합성하여 실제와 구분하기 어려운 가상의 음향, 이미지, 영상을 만든 경우예요. 이 경우 반드시 콘텐츠 내에 "AI로 생성됨"을 식별할 수 있는 표시(워터마크, 라벨 등)를 해야 해요. (텍스트는 제외)

2. 고영향 AI (High-impact AI)

생명, 금융, 채용 등 사람의 생활에 중대한 영향을 미치는 AI로, 더 엄격한 의무가 부과돼요. 결과물을 사람이 한번 더 검수해야 하고, 이용자는 결과에 대해 설명을 요구할 수 있어요.

🔍

예시

  • 채용: 입사 지원자의 이력서와 면접 영상을 분석해 합격 여부를 판정하는 AI

  • 의료: 흉부 X-ray 사진을 분석해 폐렴 여부를 진단하고 의사를 보조하는 AI

  • 범죄 수사: 범죄 예측이나 용의자 프로파일링에 사용되는 AI

  • 교육: 학생의 에세이를 분석해 자동으로 점수를 매기는 AI

3. 고성능 AI: 안전성 확보 의무 대상

일반적인 AI 서비스보다는, 막대한 연산 자원을 투입해 개발된 최첨단 파운데이션 모델이 여기에 해당돼요. 아래 세 가지 요건을 모두 충족하면 고성능 AI로 분류돼요. 위험을 방지하기 위해 개발사에 특별한 안전 의무가 부과돼요.

  • 연산량: 학습에 사용된 누적 연산량이 1026 FLOPs(부동소수점연산) 이상일 것

  • 기술 수준: 현존하는 AI 중 최첨단(State-of-the-Art) 기술을 적용했을 것

  • 위험도: 사람의 안전이나 기본권에 광범위하고 중대한 영향을 미칠 우려가 있을 것

④ 책임의 주체: 개발사업자 vs 이용사업자

같은 AI를 다루더라도 사업자 역할에 따라 의무가 달라져요.

  • 인공지능 개발사업자: AI 모델을 직접 만들거나, 기존 모델을 실질적으로 변경(파라미터 재학습 등)하여 제공하는 곳이에요.

    (예: LLM을 자체 개발한 네이버, 오픈AI 등)

  • 인공지능 이용사업자: 개발된 AI를 가져다가 자사 서비스에 붙여서 이용자에게 제공하는 곳이에요.

    (예: 미드저니, 클링 등을 활용하는 콘텐츠 제작 에이전트 캐럿 등)

분류 기준

분류 명칭

주요 정의 및 기준

관련 의무

생성 능력

생성형 AI (+딥페이크)

콘텐츠 생성 기능 / 실제와 구분 힘든 가상 정보

AI 사용 사실 고지, 워터마크/라벨링 표시

영향력

고영향 AI

의료, 에너지, 채용, 대출 등 국민 안전/권리에 중대 영향

위험관리, 설명요구 대응, 관리자 감독 등

기술 규모

고성능 AI

학습 연산량 1026 FLOPs 이상 + 최첨단 기술

위험 식별·평가·완화, 사고 대응 체계 구축

역할

개발 vs 이용 사업자

AI 모델 개발자 vs AI 활용 서비스 제공자

역할에 따른 차등적 의무 부여

좌측 상단 'High-impact AI' 구역에는 중앙의 사람 전신 실루엣을 중심으로 방패, 청진기, 법봉, 심장 아이콘과 여러 데이터 그래프가 배치되어 있습니다. 우측 상단 'Generative AI' 구역은 푸른색과 금색의 데이터 입자들이 소용돌이치며 흩어지는 추상적인 형태를 보여줍니다. 좌측 하단 'High-performance AI' 구역은 수많은 서버 유닛들이 푸른색 빛의 회로망으로 촘촘하게 연결된 입체적인 구조를 띠고 있습니다. 우측 하단 'Development & Deployment' 구역은 'Developers'와 'Business Users'라고 적힌 인물 아이콘 사이를 빛나는 아치형 다리가 연결하고 있으며 주변에는 다양한 막대그래프와 원형 차트가 포함되어 있습니다.

기업과 이용자가 준수해야 할 주요 의무 사항

AI 기본법은 단순한 권고를 넘어 실질적인 '의무'를 부여하고 있어요. 고위험 AI를 개발하거나 배포하는 기업은 설계 단계부터 서비스 운영까지 모든 과정을 꼼꼼히 관리해야 해요. 서비스 이용자들은 투명성과 안정성이 보장된 만큼, 인공지능을 더 효과적으로 활용할 수 있죠.

기업: 안전하고 투명한 AI를 만들 3단계 책임

① 투명성 확보 (라벨링 & 사전 고지)

이용자가 AI를 사용하고 있다는 사실을 사전에 명확히 알려야 하고, 결과물에 대해서도 AI 활용 여부를 확인할 수 있도록 해야 해요. 특히 실제 사람과 유사한 딥페이크 결과물에 대해서는 가시적으로 활용 여부를 표시해야 해요.

  • 사전 고지: 서비스 시작 전, 약관이나 화면에 AI 사용 사실을 알려야 해요.

    예: 챗봇 대화창 진입 시: "이 챗봇은 AI에 기반하여 답변을 생성하며, 부정확한 정보가 포함될 수 있습니다"라는 문구 표시

    두 개의 모바일 앱 화면을 나란히 배치한 것으로 왼쪽 화면에는 인공지능이 생성한 메시지가 부정확할 수 있다는 안내 문구가 있고 오른쪽 화면에는 세이프봇이 AI 기술로 메시지를 분석하여 가려준다는 설명이 빨간색 사각형으로 강조되어 있습니다.
    출처: https://www.msit.go.kr (인공지능 투명성 확보 가이드라인 PDF)
  • 워터마크/표시: AI가 만든 결과물에는 식별 표시를 해야 해요.

    AI가 생성한 이미지와 경고 팝업창을 함께 보여주는데 왼쪽 강아지 이미지 하단에는 별 모양의 가시적 워터마크가 빨간색 원 안에 표시되어 있습니다. 오른쪽에는 콘텐츠가 인공지능을 통해 생성되었다는 영문 문구가 적힌 검은색 경고창이 컴퓨터 모니터 화면 위에 떠 있는 모습입니다.
    출처: https://www.msit.go.kr (인공지능 투명성 확보 가이드라인 PDF)
    • 예: 이미지 생성 시: 우측 하단에 AI 로고를 박거나, 파일 정보(메타데이터)에 'Created by AI' 기록

    • 예: 음성 생성 시: 오디오 시작 부분에 "이 목소리는 AI가 생성했습니다"라는 안내 멘트 삽입

② 고영향 AI 사업자의 특별 책무

채용, 의료 등의 분야에서 고영향 AI를 다룬다면 '설명 가능성'과 '사람의 개입' 요건을 갖추어야 해요.

  • 설명 가능성: AI가 왜 그런 결정을 내렸는지 이용자에게 설명해야 해요.

    예: AI 채용 면접: 지원자가 "왜 떨어졌나요?"라고 물으면, "AI 분석 결과, 직무 적합성 지표가 기준 점수(80점)보다 낮은 75점으로 산출되었습니다"라고 근거를 제시할 수 있어야 해요.

  • 사람의 개입: AI가 단독으로 결정하게 두지 말고, 중요한 순간에는 사람이 개입해야 해요.

    예: 의료 진단 AI: AI가 '폐렴 가능성 90%'라고 분석하더라도, 최종 확진은 반드시 의사가 검토한 후 환자에게 통보해야 해요.

③ 사고 발생 시 신속 보고

고성능 AI 모델에서 중대한 사고가 발생하면, 인지한 시점부터 24시간 이내에 과학기술정보통신부 장관에게 보고해야 해요.

이용자: 정당한 권리로 안전한 사용 보장

① 설명 요구권 & 이의 제기권

고영향 AI의 결정에 불복할 경우, 설명을 요구하거나 사람이 다시 봐달라고(재검토) 요청할 수 있어요.

예: AI가 과제 점수를 'C+'로 매겼을 때, B씨는 "내가 직접 쓴 글이니 교수님이 다시 채점해 주세요"라고 이의를 제기할 수 있어요.

② 알 권리

내가 보는 영상이 진짜인지, 내가 대화하는 상담원이 사람인지 AI인지 알 권리가 있어요.

예: 뉴스에 나온 유명인의 영상이 딥페이크라면, 화면에 "AI로 생성된 가상 영상입니다"라는 자막이 보여야 해요.

구분

주요 의무 및 권리

구체적 예시

기업

투명성 확보

챗봇 대화창에 "AI 기반 서비스" 표시, 생성 이미지에 워터마크 삽입

고영향 AI 관리

채용 AI의 불합격 근거 설명 자료 준비, 오작동 시 사람 개입 절차 마련

안전성 보고

대규모 AI 모델 사고 발생 시 24시간 내 정부 보고

이용자

권리 행사

AI 면접 결과에 대한 이의 제기 및 재검토 요청

책임 이용

딥페이크 기술로 타인을 사칭하거나 가짜 뉴스 유포 금지

미래적인 오피스 환경에서 대형 홀로그램 스크린을 통해 데이터 품질 관리(Data Quality Control), 투명성(Transparency), 위험 관리(Risk Management)를 모니터링하는 모습입니다. 중앙에는 'AI CONTENT: GENERATED WITH HUMAN OVERSIGHT'라는 문구가 있어 인간의 감독하에 AI가 운영됨을 강조합니다.

AI 기본법 위반 시 처벌 수위와 대응 전략

이번 AI 기본법의 처벌 수위는 최대 3,000만 원 규모의 과태료로 책정되었어요. 여기에는 기업에 무거운 형벌이나 과징금을 내리는 대신, 기술 혁신의 흐름을 방해하지 않으려는 의도가 담겨 있답니다. 지나친 규제로 기업의 성장을 막기보다는, 법적 의무를 잊지 않도록 도와주는 최소한의 안전장치 역할을 한다고 할 수 있어요.

기업들은 우리 서비스가 어느 AI 분류에 속하는지 먼저 진단하고, 정부에서 제공하는 가이드라인을 선제적으로 도입하는 전략이 필요해요. 기업 내부적으로는 AI 윤리 위원회를 구성하거나 전문 법무 검토를 거치는 등 '책임 있는 AI(Responsible AI)' 문화를 정착시키는 것이 장기적인 리스크 관리의 핵심이에요.

고층 빌딩 숲이 보이는 회의실에서 전문가들이 마주 앉아 'RESPONSIBLE AI FRAMEWORK'에 대해 논의하는 장면입니다. 테이블 중앙에는 방패 모양의 'R' 로고와 함께 AI 윤리 프레임워크의 구조도가 홀로그램으로 떠 있어, 기술 도입에 따른 사회적 책임과 안전한 운영 방침을 수립하고 있음을 보여줍니다.

FAQ (자주 묻는 질문)

Q. 위험관리를 위한 별도의 전담 조직을 반드시 새로 만들어야 하나요?

A. 사업자의 규모 및 역량을 고려하여 기존 조직이나 인력이 겸임할 수 있어요. 다만 개발 부서와 분리된 독립성을 확보하는 것이 권장돼요.

Q. 설명 방안 책무를 위해 모든 판단 근거를 설명해야 하나요?

A. 실질적으로 이용자의 권리에 영향을 미치는 중대한 결과는 상세히 설명하고, 영향이 적은 결과에 대해서는 시스템 수준의 일반적인 설명을 제공하는 등 차등을 둘 수 있어요.

Q. 홈페이지에 책무 이행 내용을 게시할 때 영업비밀이 유출될까 걱정돼요.

A. 시행령에 따르면 부정경쟁방지 및 영업비밀보호에 관한 법률 에 따른 영업비밀에 해당하는 사항은 홈페이지 게시에서 제외할 수 있어요. 따라서 기술적 사양보다는 관리 체계와 이용자 권리 보호 절차 위주로 공개하면 돼요.

Q. 개인정보가 포함된 데이터를 학습에 써도 되나요?

A. 적법한 동의를 받거나 가명처리 등 개인정보 보호법에 따른 조치를 취한 후 사용해야 하며, 데이터의 보유 기간과 파기 절차도 수립해야 해요.

Q. 이용자가 인공지능의 결정에 대해 이의를 제기하면 어떤 절차를 거쳐야 하나요?

A. 이용사업자는 이용자가 이의를 제기하거나 설명을 요구할 수 있는 절차를 수립해야 해요. 이 때 사람 전문가가 해당 결정을 재검토하거나, AI 분석 로그 등을 바탕으로 판단 근거를 안내하는 등의 대응 프로세스가 필요해요.

관련 게시글


캐럿(Carat)은 300만 가입자의 국내 최대 콘텐츠 제작 AI 에이전트입니다. 캐럿과 함께 가장 간편한 AI 콘텐츠 제작을 경험해보세요!

Make with AI, Share with the World

Share article

AI가 궁금할 땐, 캐럿 블로그