인공지능(AI) 기술은 우리 사회 전반에 걸쳐 혁신적인 변화를 가져오고 있으나, 동시에 윤리적 문제, 안전성, 책임 소재 등 다양한 도전 과제를 제기하고 있습니다. 이러한 배경 속에서 대한민국은 인공지능의 건전한 발전과 신뢰 기반 조성을 위한 법적 토대를 마련하고자 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(이하 ‘AI 기본법’)을 제정하였습니다. 이 법은 인공지능 기술의 잠재력을 최대한 발휘하면서도 발생 가능한 위험을 최소화하고, 인간 중심의 인공지능 시대를 열기 위한 중요한 이정표가 될 것입니다.
목차
AI 기본법의 개념과 제정 목적
‘AI 기본법’은 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’의 약칭으로, 인공지능 기술의 건전한 발전과 인공지능 사회의 신뢰 기반을 조성하는 데 필요한 기본적인 사항들을 규정하는 법률이다. 이 법은 인공지능 기술의 잠재력을 최대한 활용하면서도, 기술 오남용으로 발생할 수 있는 사회적 문제와 윤리적 딜레마를 해결하기 위한 국가 차원의 법적 프레임워크를 제공한다. 궁극적인 목적은 국민의 권익과 존엄성을 보호하고, 국민의 삶의 질을 향상시키며, 나아가 국가 경쟁력을 강화하는 데 이바지하는 것이다.
예를 들어, 자율주행차나 의료 진단 AI와 같이 사람의 생명이나 안전에 직결되는 인공지능 시스템은 높은 수준의 신뢰성과 안전성이 요구된다. AI 기본법은 이러한 시스템이 예측 불가능한 사고를 일으키거나, 불공정한 결과를 초래하는 것을 방지하기 위한 제도적 장치를 마련한다. 또한, 인공지능 기술 혁신을 저해하지 않으면서도 윤리적 기준을 준수하도록 유도함으로써, 기술 발전과 사회적 책임 간의 균형을 추구한다. 이는 마치 고속도로를 건설하면서도 안전 규정과 교통 법규를 함께 마련하여 빠르고 안전한 이동을 가능하게 하는 것과 유사하다고 볼 수 있다.
등장 배경 및 연혁
AI 기본법의 제정은 인공지능 기술의 급격한 발전과 그에 따른 사회적, 기술적 변화에 대한 대응의 필요성에서 비롯되었다. 2010년대 후반부터 딥러닝, 자연어 처리, 생성형 AI(Generative AI) 등 인공지능 기술이 눈부시게 발전하면서, 인공지능은 국가 경쟁력 강화의 핵심 기술로 부상하였다. 특히 2022년 말 챗GPT(ChatGPT)의 등장은 인공지능의 잠재력과 함께 딥페이크, 개인정보 침해, 알고리즘 편향성 등 예상치 못한 윤리적 문제와 위험성을 동시에 부각시키며 사회적 논의를 촉발했다.
이러한 상황에서 미국, 유럽연합(EU), 중국 등 주요 국가들은 이미 인공지능 기술 개발 및 관련 정책을 마련하고 있었으며, 특히 EU는 2021년 ‘EU AI Act’를 제안하여 2024년 8월 1일 발효시켰다. 국내에서도 인공지능 기술의 발전 속도를 따라가지 못하는 법적, 윤리적 기준의 부재가 다양한 사회적 문제를 야기할 수 있다는 우려가 커지면서, 인공지능 기술의 건전한 발전과 안전한 활용을 위한 법적 토대 마련의 필요성이 강력하게 제기되었다.
AI 기본법은 지난 4년여간의 논의 끝에 2024년 12월 26일 국회 본회의를 통과하였다. 이는 2021년 7월 첫 법안이 발의된 이후 약 3년 6개월 만에 여야 합의로 19개 법안을 병합하여 이룬 결실이다. 법안은 2025년 1월 21일 공포되었으며, 1년의 유예 기간을 거쳐 2026년 1월 22일부터 본격적으로 시행될 예정이다. 이로써 대한민국은 EU에 이어 세계에서 두 번째로 포괄적인 인공지능 관련 일반법을 보유한 국가가 되었다.
주요 내용 및 핵심 원칙
AI 기본법은 인공지능 시대의 신뢰 기반을 조성하고 산업을 육성하기 위한 다양한 핵심 내용을 담고 있다. 크게 정책 추진 체계, 기술 개발 및 산업 육성을 통한 진흥, 그리고 인공지능 윤리 및 신뢰성 확보를 위한 규제로 나누어 볼 수 있다.
AI 정의
AI 기본법은 법률의 적용 범위를 명확히 하기 위해 인공지능의 개념을 정의한다. 법 제2조에 따르면, “인공지능”이란 학습, 추론, 지각, 판단, 언어의 이해 등 인간이 가진 지적 능력을 전자적 방법으로 구현한 것을 말한다. 이는 인공지능 기술의 광범위한 스펙트럼을 포괄하는 정의이다.
특히, 법은 인공지능 시스템을 그 영향력과 위험성에 따라 ‘고영향 인공지능’과 ‘생성형 인공지능’으로 분류하고, 각각에 대한 별도의 규정 및 책무를 명시한다.
- 고영향 인공지능 (High-Impact AI): 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능 시스템을 의미한다. 이는 EU AI Act의 ‘고위험 AI’ 개념과 유사하나, ‘위험’이라는 부정적 의미 대신 ‘영향’이라는 가치 중립적 단어를 사용하여 산업의 중요성을 부각하려는 의도가 담겨 있다. 고영향 인공지능이 활용되는 주요 영역으로는 에너지 공급, 먹는 물 생산 공정, 보건의료 제공, 의료기기 개발 및 이용, 원자력 시설 관리, 범죄 수사용 생체인식 정보 분석, 채용 및 대출 심사 등 개인의 권리·의무 관계에 중대한 영향을 미치는 판단, 교통안전, 공공서비스 의사결정, 교육기관의 학생 평가 등이 포함된다. 예를 들어, 병원에서 환자의 질병을 진단하는 AI 시스템이나 은행에서 개인의 신용 등급을 평가하는 AI 시스템이 이에 해당할 수 있다.
- 생성형 인공지능 (Generative AI): 입력 데이터를 기반으로 글, 소리, 그림, 영상 등 다양한 결과물을 생성하는 인공지능 시스템을 말한다 (예: 챗GPT, 클로드 등).
AI 윤리 원칙
AI 기본법은 인공지능 기술이 인간 중심적으로 발전하고 활용될 수 있도록 인공지능 윤리 원칙을 강조한다. 정부는 인공지능의 안전성과 신뢰성, 그리고 인공지능 기술이 적용된 제품에 대한 접근성 등과 관련된 인공지능 윤리 원칙을 마련하도록 명시되어 있다. 이는 인공지능이 인간의 존엄성을 침해하지 않고, 사회적 가치를 증진하며, 투명하고 공정하게 작동하도록 하는 것을 목표로 한다. 예를 들어, 인공지능 시스템의 개발 단계부터 편향성(bias)을 최소화하고, 모든 사람이 인공지능 기술의 혜택을 누릴 수 있도록 접근성을 고려하는 것이 포함된다.
기업의 책임 강화 (투명성 확보 의무, 안전성 책임)
AI 기본법은 인공지능 기술을 개발하고 활용하는 기업의 책임을 강화하여, 이용자의 권익을 보호하고 사회적 신뢰를 구축하는 데 중점을 둔다.
- 투명성 확보 의무: 인공지능 사업자는 고영향 인공지능 또는 생성형 인공지능을 이용한 제품이나 서비스를 제공할 때, 해당 서비스가 인공지능에 기반하여 운용된다는 사실을 이용자에게 사전에 고지해야 한다. 특히, 생성형 인공지능의 결과물은 인공지능에 의해 생성되었다는 사실을 이용자가 명확하게 인식할 수 있는 방식으로 표시해야 하며, 실제와 구분하기 어려운 가상 음향, 이미지, 영상 등을 제공할 때도 마찬가지이다. 이는 딥페이크와 같은 오남용을 방지하고 이용자의 혼란을 줄이기 위함이다.
- 안전성 확보 의무: 인공지능 시스템의 안전성은 필수적으로 보장되어야 하며, 이를 위해 인공지능 사업자는 위험 식별 및 평가, 위험 완화 조치, 안전 사고 모니터링 및 대응 체계 구축 등의 의무를 이행해야 한다. 이행 결과는 과학기술정보통신부장관에게 제출해야 한다. 이는 인공지능 시스템의 오작동이나 예상치 못한 부작용으로 인한 피해를 예방하고 최소화하기 위한 것이다.
- 고영향 인공지능 사업자의 특별 책무: 고영향 인공지능을 활용한 제품 또는 서비스를 제공하는 사업자는 이용자의 기본권을 보호하기 위한 구체적인 조치를 마련해야 한다. 여기에는 위험 관리 방안 수립 및 운영, 인공지능 결과에 대한 설명 방안 마련, 이용자 보호 방안 수립, 그리고 사람의 관리 감독 체계 구축 등이 포함된다. 이는 고영향 인공지능의 잠재적 위험이 크기 때문에 더욱 엄격한 관리를 요구하는 것이다.
정부의 역할 및 지원 (산업 육성, 데이터 인프라 등)
AI 기본법은 인공지능 산업의 건전한 발전과 국가 경쟁력 강화를 위한 정부의 적극적인 역할과 지원 방안을 명시한다. 과학기술정보통신부장관은 유관 부처와 협의하여 3년마다 인공지능 기술 및 산업 진흥과 국가 경쟁력 강화를 위한 ‘인공지능 기본계획’을 수립하고 시행해야 한다.
정부는 인공지능 연구개발(R&D) 지원, 표준화, 학습용 데이터 시책 수립, 인공지능 도입 및 활용 지원 등 다양한 진흥 시책의 법적 근거를 마련하여 인공지능 생태계의 형성 및 발전을 지원한다. 이는 인공지능 기술 개발의 초기 단계부터 상용화에 이르기까지 전 주기에 걸쳐 국가적인 지원을 통해 혁신을 촉진하겠다는 의지를 보여준다. 예를 들어, 고성능 컴퓨팅 인프라 구축이나 인공지능 전문 인력 양성 프로그램 등이 이러한 지원의 일환으로 추진될 수 있다.
추진 체계 및 지원 방안
AI 기본법은 인공지능 관련 정책을 체계적이고 효율적으로 추진하기 위한 거버넌스 체계를 구축하고, 인공지능 산업 육성을 위한 구체적인 지원 방안을 명시한다.
국가인공지능위원회 및 인공지능 안전연구소
- 국가인공지능위원회: 인공지능 기본법은 대통령 소속으로 ‘국가인공지능위원회’를 설치하여 인공지능 발전과 신뢰 기반 조성을 위한 주요 정책 등을 심의·의결하도록 법적 근거를 마련하였다. 이 위원회는 2024년 9월 ‘국가인공지능위원회’라는 이름의 민관 합동 국가 AI 정책 컨트롤타워로 출범하였으며, 인공지능 정책 전반에 대해 심의·의결하는 역할을 한다. 위원회는 민간 위원이 과반을 구성하도록 하여 민간 주도의 정책 마련을 지향하며, 인공지능 관련 국가 비전 및 중장기 전략 수립, 정책 및 사업의 부처 간 조정, 이행 점검 및 성과 관리 등 컨트롤 타워로서의 역할을 확대하고 있다.
- 인공지능 안전연구소: 과학기술정보통신부장관은 인공지능과 관련하여 발생할 수 있는 위험으로부터 국민의 생명·신체·재산 등을 보호하고 인공지능 사회의 신뢰 기반을 유지하기 위한 ‘인공지능 안전’을 확보하기 위해 ‘인공지능 안전연구소’를 운영할 수 있다. 이 연구소는 2024년 11월 한국전자통신연구원(ETRI) 소속으로 판교에 설립되었으며, 인공지능 안전 정책·평가·기술 분야 연구, 인공지능 안전 평가 방법론 개발, 위험 완화 방안 연구, 국제 교류 및 협력 등의 사업을 수행한다. 이는 인공지능 기술의 오용을 방지하고 안전성을 강화하기 위한 전문 연구 기관의 역할을 담당한다.
인공지능 연구개발(R&D) 지원
정부는 인공지능 기술의 혁신적인 발전을 위해 연구개발(R&D) 지원을 강화한다. AI 기본법은 인공지능 기술 및 산업 진흥을 위한 R&D 지원의 법적 근거를 마련하고 있으며, 이는 인공지능 분야의 핵심 기술 개발과 상용화를 촉진하는 데 기여할 것이다. 예를 들어, 차세대 인공지능 반도체 개발, 초거대 인공지능 모델 연구, 인공지능 기반의 신산업 분야 육성 등을 위한 국가 R&D 프로젝트가 활발히 추진될 수 있다.
학습용 데이터 및 인공지능 데이터센터 구축 지원
인공지능 기술 발전의 핵심 요소인 학습용 데이터와 고성능 컴퓨팅 인프라 구축에도 정부의 지원이 집중된다. AI 기본법은 학습용 데이터 시책 수립 및 인공지능 도입·활용 지원에 대한 정부 지원의 근거를 마련하고 있다. 이는 양질의 데이터를 확보하고, 이를 효율적으로 처리할 수 있는 인프라를 구축함으로써 인공지능 기술 개발의 기반을 다지는 것이다. 예를 들어, 민관 합동으로 대규모 인공지능 데이터센터를 설립하고, 인공지능 반도체 도입을 위한 세액 공제 확대 등 제도적 지원을 병행하여 2030년까지 고성능 GPU 5만 장 확보를 목표로 하는 계획이 추진될 수 있다. 이러한 지원은 국내 인공지능 기업들이 글로벌 경쟁력을 확보하는 데 필수적인 요소로 작용할 것이다.
주요 영향 및 적용 분야
AI 기본법의 시행은 일반 사용자, 기업, 그리고 산업 전반에 걸쳐 광범위한 영향을 미칠 것으로 예상된다. 특히 고영향 인공지능과 생성형 인공지능에 대한 구체적인 규정은 다양한 분야에 직접적으로 적용된다.
일반 사용자 측면에서의 영향
일반 사용자들은 AI 기본법을 통해 인공지능 기술을 더욱 안전하고 신뢰할 수 있게 활용할 수 있게 된다. 가장 체감할 수 있는 변화는 ‘AI 생성물 표시제’의 도입이다. 딥페이크와 같이 실제와 구분하기 어려운 인공지능 생성 콘텐츠에 대해 명확한 고지 또는 표시가 의무화됨으로써, 사용자는 정보의 출처를 명확히 인지하고 오해를 줄일 수 있다. 또한, 고영향 인공지능 시스템의 투명성 및 안전성 확보 의무는 의료, 금융, 교통 등 중요 분야에서 인공지능의 오작동으로 인한 피해를 예방하고, 예측 불가능한 상황에 대한 설명 가능성을 높여 사용자 보호를 강화할 것이다. 이는 인공지능 기술이 가져올 편리함과 함께 사용자의 기본권과 안전을 보장하는 중요한 조치이다.
기업 및 산업 측면에서의 영향
AI 기본법은 인공지능 기술을 활용하는 기업 및 산업 전반에 걸쳐 새로운 도전과 기회를 동시에 제공한다.
- 규제 준수 및 컴플라이언스 강화: 기업들은 자사의 인공지능 시스템이 고영향 인공지능 또는 생성형 인공지능에 해당하는지 검토하고, 법적 의무를 이행하기 위한 내부 컴플라이언스 체계를 구축해야 한다. 여기에는 위험 관리 방안 수립, 이용자 보호 방안 마련, 투명성 고지 의무 준수 등이 포함된다. 특히, 의료, 금융, 모빌리티 등 고영향 인공지능이 활용되는 분야의 기업들은 기존의 규제 체계와 더불어 AI 기본법의 추가 의무를 면밀히 검토해야 한다.
- 혁신과 신뢰 기반 성장: 법적 불확실성이 해소되고 신뢰 기반이 조성됨으로써, 기업들은 장기적으로 인공지능 기술을 더욱 안정적으로 개발하고 활용할 수 있게 된다. 정부의 R&D 지원, 데이터 인프라 구축 지원 등은 인공지능 스타트업 및 대기업 모두에게 중요한 성장 기회를 제공할 것이다. 책임 있는 인공지능 활용은 기업의 브랜드 신뢰도를 높이고, 이는 곧 경쟁력 강화로 이어질 수 있다.
- 산업별 특수성 고려: AI 기본법은 고영향 인공지능의 적용 분야를 구체적으로 명시하고 있어, 해당 산업들은 법의 영향을 직접적으로 받게 된다. 예를 들어, 의료 산업에서는 진단 보조 AI, 신약 개발 AI 등이 고영향 인공지능 범주에 포함되므로, 환자에게 AI 활용 여부를 설명하고 결과에 대해 충분히 고지하는 절차를 체계적으로 마련해야 한다. 금융 산업의 AI 기반 신용 평가 모델이나 투자 자문 서비스 또한 고영향 인공지능으로 분류될 수 있어, 고객에게 AI 활용 사실을 명확히 고지하고 설명 가능성을 보장해야 한다.
생성형 AI 관련 규정 (생성물 표시 및 추적 기술 등)
생성형 AI의 급부상에 따라 AI 기본법은 생성형 AI에 대한 특별한 규정을 포함한다. 생성형 인공지능을 이용한 제품 또는 서비스를 제공하는 경우, 그 결과물이 인공지능에 의하여 생성되었다는 사실을 이용자가 명확하게 인식할 수 있는 방식으로 고지 또는 표시해야 한다. 이는 딥페이크와 같은 허위 정보 유포를 방지하고, 창작물의 진위 여부를 판단하는 데 도움을 주기 위함이다.
다만, AI 생성물 표시 의무가 효과적으로 집행되기 위해서는 인공지능 생성물을 인간 창작물과 식별하는 기술적 수단과 기준이 완비되어야 한다는 쟁점이 존재한다. 현재 기술적 조치가 불완전하고 불명확하다는 지적이 있으며, 기업의 부담과 콘텐츠의 몰입도 저하를 우려하는 업계와 명확한 구분을 원하는 소비자 사이의 접점을 찾는 논의가 시행령 확정 전까지 계속될 전망이다.
현재 동향 및 주요 쟁점
AI 기본법은 2026년 1월 22일 시행을 앞두고 있으며, 국내외적으로 많은 관심과 함께 다양한 쟁점들이 제기되고 있다.
- 시행 시기 및 준비 부족 우려: AI 기본법은 전 세계 최초로 포괄적인 인공지능 규제를 시행하는 사례가 될 수 있다는 상징성을 가지지만, 업계에서는 법 시행을 불과 보름 앞두고도 시행령과 하위 법령이 이제야 정비되는 등 준비가 미흡하다는 우려의 목소리가 높다. 특히 스타트업들은 고영향 AI의 모호한 정의, 투명성 의무와 기업 영업 비밀의 충돌, 과도한 규제 준수 비용 등을 주요 쟁점으로 꼽으며, 최소 6개월 이상의 유예 기간과 적극적인 홍보가 필요하다고 주장한다. 이에 대해 과학기술정보통신부는 법 집행보다는 스타트업들에게 정확한 내용을 알리고 컨설팅하는 데 집중하며, 과태료 부과나 사실 조사를 유예하는 방침을 세우고 있다고 밝혔다.
- 고영향 인공지능 정의의 모호성: 법은 ‘사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능 시스템’을 고영향 AI로 규정하지만, 이 정의가 모호하여 기업들이 자사의 AI 시스템이 고영향 AI에 해당하는지 스스로 판단하기 어렵다는 비판이 제기된다. EU AI Act가 ‘고위험 AI’라는 개념을 분명하게 규정한 것과 달리, 한국법에서 ‘고영향’이라는 다소 낯선 개념을 도입하여 혼선을 초래했다는 지적도 있다.
- 국내외 입법 동향 비교: 한국의 AI 기본법은 EU의 AI Act와 유사한 내용을 담고 있으나, 한국 법은 ‘산업 진흥’에 조금 더 무게를 두고 있다는 평가가 있다. EU AI Act는 AI의 종류를 ‘허용 불가 위험’, ‘고위험’, ‘제한된 위험’, ‘저위험’의 4가지로 분류하여 규제하는 반면, AI 기본법은 고영향 인공지능과 생성형 인공지능에 대해서만 별도로 정의하여 규제하는 차이가 있다. 글로벌 비즈니스를 하는 기업들은 양국의 법률을 모두 준수해야 하는 복잡성에 직면할 수 있다.
- 투명성 및 책임성 쟁점: 생성형 AI 결과물 표시 의무와 관련하여, 표시 방식과 예외 규정에 대한 가이드라인이 충분히 구체화되지 않으면 현장 혼선이 불가피하다는 지적이 있다. 또한, AI를 어느 정도 비율로 활용했을 때 표시 의무가 발생하는지 기준이 모호하다는 문제도 제기된다. 기업의 영업 비밀 보호와 투명성 확보 의무 간의 균형점도 중요한 쟁점이다.
미래 전망
AI 기본법은 인공지능 기술 발전의 가속화와 함께 미래 사회의 변화를 이끌어 나갈 중요한 법적 기반이 될 것이다. 이 법은 인공지능 기술이 가져올 잠재적 혜택을 극대화하면서도, 발생 가능한 위험을 효과적으로 관리하고 통제하는 데 기여할 것으로 기대된다.
장기적으로 AI 기본법은 인공지능 기술 발전의 방향성을 제시하고, 인간 중심의 가치를 실현하는 데 중요한 역할을 할 것이다. 인공지능 기술이 사회 전반에 걸쳐 더욱 깊이 통합되면서, 법은 지속적인 보완과 업데이트를 통해 기술 변화에 유연하게 대응해야 할 것이다. 특히, 디지털 포용 측면에서 인공지능 기술의 혜택이 특정 계층에만 국한되지 않고 모든 국민에게 공정하게 분배될 수 있도록 하는 정책적 노력이 병행되어야 한다. 예를 들어, 인공지능 교육 및 접근성 강화, 소외 계층을 위한 인공지능 서비스 개발 지원 등을 통해 디지털 격차를 해소하고 모든 사람이 인공지능 시대의 주역이 될 수 있도록 기여할 가능성이 크다.
AI 기본법은 단순히 규제의 틀을 넘어, 인공지능 기술이 사회적 신뢰를 바탕으로 지속 가능한 혁신을 이루고, 궁극적으로 인류의 삶의 질을 향상시키는 데 기여하는 미래를 위한 초석이 될 것으로 전망된다.
참고 문헌
- 세계 첫 ‘AI 기본법’ 시행…”스타트업은 준비 안됐다” 우려 목소리 – 유니콘팩토리. (2026-01-06).
- 「AI 기본법」주요 내용과 시행과제 – KISO저널. (2025-03-19).
- AI 기본법 제정안 국회 본회의 통과 – 법무법인 세종. (2024-12-30).
- 국가인공지능전략위원회 – 위키백과, 우리 모두의 백과사전.
- 고영향(고위험) 인공지능의 범주와 사업자의 의무 사항 – 네플라. (2025-06-11).
- AI 기본법 국회 본회의 통과···단통법도 10년만에 폐지 – 헬로디디. (2024-12-26).
- AI안전연구소 다음달 판교 설립…인공지능 오용·안전성 연구 – 한겨레. (2024-10-18).
- 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 – 국가법령정보센터.
- AI 기본법 완전 정리! 2026년 시행, 고영향 AI·생성형 AI 의무사항과 대비 전략. (2025-11-18).
- 한 눈에 보는 AI 기본법 핵심 내용 5가지 | SK쉴더스. (2025-03-31).
- [법령] AI 기본법 제정(인공지능 기본법, 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법) – CELA. (2025-02-07).
- AI 기본법과 고영향 AI 가이드라인, 그리고 국가전략 – 브런치.
- 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 – 나무위키.
- 한국, 전 세계 6번째로 AI안전연구소 개소… 김명주 소장 “글로벌 연대 강화할 것” – 보안뉴스. (2024-11-27).
- ‘한국 AI안전연구소’ 출범…AI 위협에 체계적·전문적 대응 – 대한민국 정책브리핑. (2024-11-27).
- AI 기본법: 혁신적 법적 책임 강조 – 알체라. (2025-03-05).
- 내 AI는 규제대상일까… “고영향 정의 모호, 기업에 혼란 줄 수도” < 국회 – 법조신문. (2025-06-17).
- ‘AI안전연구소’ 생긴다… 전자통신硏 부설로 내달 출범 – 파퓰러사이언스. (2024-10-18).
- “AI 기본법 과잉 규제 우려…’고영향 AI’ 정의 등 정비해야” | 연합뉴스. (2025-09-08).
- AI 기본법 시행 앞두고 ‘투명성·책임성’ 쟁점…“하위 기준 정비 시급” – 테크월드뉴스. (2026-01-07).
- [99.9MHz] 대한민국, 1월 22일 ‘AI 기본법’ 세계 최초 시행… 우리 일상 어떻게 바뀌나? – OBS경인TV. (2026-01-07).
- 인공지능 관련 법 제도의 주요 논의 현황.
- 고영향 AI 판단 가이드라인(안) 발표 – 뉴스레터 – 법무법인(유한) 대륙아주. (2025-09-30).
- ‘AI 기본법’ 국회 본회의 통과…내달 22일 세계 최초 시행 | 서울경제. (2025-12-30).
- “AI로 생성된 결과물” 고지해야…AI기본법 시행령 입법예고 – 대한민국 정책브리핑. (2025-11-12).
- AI기본법 시행 보름 앞으로…업계 ‘준비 부족’ 토로 – 지디넷코리아. (2026-01-06).
- 세계 최초 포괄법 ‘AI 기본법’, 산업 현장 “준비 안 됐다”. (2026-01-07).
- 드디어 통과된 ‘AI 기본법’, 알기 쉽게 정리했습니다 – DIGITAL iNSIGHT 디지털 인사이트. (2025-01-08).
- 인공지능기본법, ‘고영향 AI’ 개념 모호성 논란. (2025-03-20).
- 인공지능 시대의 새로운 서막, AI기본법 국회 본회의 통과 – 보도자료 | 상세화면 – 과학기술정보통신부.
- 국가인공지능전략위원회 – 나무위키.
- AI기본법, 개발자·사업자·이용자…누가 어떤 책임 질까? – 디지털데일리. (2025-09-22).
- ‘AI 컨트롤타워’ 국가인공지능전략위원회 구성 본격화 – 법무법인 세종. (2025-09-05).
- [AI기본법上] ‘고영향AI’란 무엇?..이해민 의원 “위험성만 부각? 능사 아냐” – 디지털데일리. (2024-11-25).
- 대통령 직속 국가AI위원회 역할 세진다 – 뉴시스. (2025-07-14).
- 최근 국회 본회의 통과(2024. 12. 26.)된 인공지능기본법 주요 내용 – 법무법인 대륙아주.
- AI 기본법 시행, 기업은 무엇을 준비해야 하는가 – PwC컨설팅.
- AI 시대 기업이 꼭 알아야 할 법률 | 인사이트리포트 | 삼성SDS. (2025-10-17).
- 대통령 직속 ‘국가인공지능전략위원회’ 출범, AI 총사령탑 역할 – 헬로디디. (2025-09-10).
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


