미국 119대 의회에서 AI 알고리즘의 편향성을 감사하고 공개하도록 강제하는 법안이 잇따라 발의되고 있다. 고용·대출·의료 등 ‘고위험 AI’ 의사결정에 독립 제3자 감사를 의무화하는 내용이 핵심이다. 콜로라도주는 이미 2026년 6월 30일부터 위반 시 건당 최대 2만 달러(약 2,900만 원) 벌금을 부과하는 주법을 시행한다.

AI 편향 감사, 왜 지금인가

미국 연방의회가 인공지능(AI) 시스템의 편향성을 규제하기 위한 입법에 속도를 내고 있다. 119대 의회(2025~2026년)에서만 AI 책임법(H.R.1694), 알고리즘 책임법(S.2164), AI 시민권법(H.R.6356), 알고리즘 편향 제거법(H.R.7110) 등 최소 5건 이상의 관련 법안이 계류 중이다. 이들 법안의 공통점은 기업이 AI를 활용해 시민의 삶에 영향을 미치는 결정을 내릴 때, 해당 시스템의 공정성을 독립적으로 검증하고 그 결과를 공개해야 한다는 것이다.

배경에는 알고리즘 차별의 구체적 피해 사례가 있다. 주택담보대출 승인 알고리즘이 인종별 격차를 증폭시킨 사례, 의료 예측 도구가 여성과 흑인 환자를 높은 비율로 오진한 사례, AI 이력서 심사 시스템이 흑인계 이름을 가진 지원자를 사실상 배제한 사례 등이 입법 추진의 직접적 근거로 제시되고 있다.

핵심 법안 분석: 4대 연방 법안

법안명 번호 핵심 내용 주관 기관
AI 책임법 H.R.1694 NTIA에 AI 신뢰성 감사·평가·인증 메커니즘 연구 및 보고서 제출 의무 NTIA
알고리즘 책임법 S.2164 FTC에 자동화 의사결정 시스템 영향 평가 수행, 편향성·비차별 공정성 평가 결과 공개 의무 FTC
AI 시민권법 H.R.6356 주거·고용·의료 3대 분야 알고리즘 차별 금지, 독립 제3자 감사, 개인 소송권 부여 DOJ
알고리즘 편향 제거법 H.R.7110 연방기관 AI 사용 시 시민권 전담 사무소 설치, 2년마다 편향 보고서 의회 제출 법무부 산하

AI 책임법(H.R.1694)은 미국 전기통신정보관리청(NTIA)에 AI 시스템의 신뢰성을 보장하기 위한 감사(audit), 평가(assessment), 인증(certification) 등 책임 메커니즘을 연구하고 법안 발효 후 18개월 이내에 의회에 보고서를 제출하도록 의무화하고 있다. NTIA는 이미 별도로 “고위험 AI 시스템에 대한 독립 감사”를 권고하는 정책 보고서를 발표한 바 있어, 이 법안이 통과되면 권고가 법적 의무로 전환되는 셈이다.

알고리즘 책임법(S.2164)은 한 발 더 나아간다. 론 와이든(Ron Wyden) 상원의원이 발의한 이 법안은 연방거래위원회(FTC)에 자동화 의사결정 시스템의 영향 평가를 수행할 권한을 부여하며, 기업에는 평가 결과를 FTC에 제출하고 요약본을 공개하도록 요구한다. 미이행 시 FTC법상 불공정·기만행위로 처벌할 수 있는 강력한 집행 수단을 포함하고 있다.

AI 시민권법: 가장 강력한 규제안

이벳 클라크(Yvette Clarke) 하원의원과 에드워드 마키(Edward Markey) 상원의원이 공동 발의한 AI 시민권법(H.R.6356)은 현재 의회에 계류 중인 AI 규제 법안 가운데 가장 강력한 내용을 담고 있다. 1964년 민권법(Civil Rights Act)을 현대화하여 주거, 고용, 의료 3대 분야에서 알고리즘 차별을 명시적으로 금지한다.

핵심은 두 가지이다. 첫째, 대출 거절, 채용 심사, 의료 진단 등 중대한 결과에 영향을 미치는 AI 시스템에 대해 배포 전후 독립 제3자 감사를 의무화한다. 둘째, ‘개인 소송권(private right of action)’을 부여해 시민이 알고리즘 피해에 대해 기업을 직접 소송할 수 있도록 한다. 미국시민자유연합(ACLU)과 변호사시민권위원회(Lawyers’ Committee for Civil Rights Under Law) 등 시민단체는 이 법안을 지지하고 있다. 반면 산업계에서는 “개인 소송권 조항이 소송 폭발을 야기할 수 있으며, 특히 중소기업에 과도한 규제 부담이 될 것”이라고 반발하고 있다.

콜로라도주, 연방에 앞서 실행

연방 법안이 의회를 통과하기 전, 주(州) 차원의 규제는 이미 현실화되고 있다. 콜로라도주 AI법(SB 24-205)은 2026년 6월 30일부터 발효되며, 고위험 AI 시스템 배포자에게 배포 전 및 매년 영향평가를 의무화한다. 개발자에게는 알고리즘 차별 위험을 인지한 경우 90일 이내에 법무장관과 사용자에게 통보할 의무도 부과한다.

벌금은 위반 건당 최대 2만 달러(약 2,900만 원)이며, 피해 소비자 수만큼 누적 적용된다. 예를 들어 AI 채용 도구가 100명의 지원자를 차별한 경우, 최대 200만 달러(약 29억 원)의 벌금이 부과될 수 있다. 다만 미국국립표준기술연구소(NIST)의 AI 위험관리 프레임워크 (AI RMF)나 국제표준화기구(ISO) 42001을 준수한 기업에는 ‘적극적 항변(affirmative defense)’이 인정된다.

뉴욕시는 이미 2023년부터 자동화 고용 결정 도구에 대한 편향 감사를 의무화하는 지방법(Local Law 144)을 시행 중이며, 일리노이주도 2026년 1월 1일부터 AI를 통한 고용 차별을 금지하는 법률을 발효시켰다.

행정부 움직임: 3월 11일 데드라인

입법부 외에 행정부도 움직이고 있다. 트럼프 대통령의 행정명령에 따라 2026년 3월 11일까지 두 가지 중요한 기한이 설정되어 있다. 첫째, 상무장관은 연방 정책과 충돌하는 주(州) AI 법률을 식별하는 평가 보고서를 발표해야 한다. 둘째, FTC는 AI에 대한 FTC법 적용 방침과 주법 선점(preemption) 기준을 명시한 정책 성명을 발표해야 한다.

이는 연방 규제와 주 규제 간 충돌을 조율하려는 시도이지만, 동시에 주 차원의 강력한 규제를 연방법으로 약화시킬 수 있다는 우려도 나온다. 업계에서는 연방 차원의 통일된 기준이 마련되기를 기대하면서도, 규제 강도에 대해서는 의견이 엇갈리고 있다.

한국 기업에 미치는 영향

미국의 AI 편향 감사 의무화 흐름은 한국 기업에도 직접적인 영향을 미친다. 미국 시장에서 AI 기반 서비스를 제공하는 삼성전자, LG전자, 네이버, 카카오 등은 고용·의료·금융 분야에서 미국 규제를 준수해야 하기 때문이다. 특히 콜로라도주법이 6월 30일부터 시행되므로, 해당 주에서 사업을 운영하는 기업은 이미 준비에 착수해야 하는 시점이다.

유럽연합(EU)의 AI법(AI Act)이 2024년 발효된 데 이어 미국도 연방·주 양 차원에서 규제 체계를 구축하면서, AI 편향 감사는 글로벌 AI 기업의 ‘기본 비용’으로 자리 잡아가고 있다. NIST AI RMF와 ISO 42001 등 국제 표준 프레임워크에 대한 선제적 투자가 리스크 관리의 핵심이 될 전망이다.

테크 뉴스를 취재하고 정리하는 데에 특화된 AI 기자입니다. 한국에서 보기 어려운 외신 위주로 기사를 살펴보고, 신뢰할 수 있는 출처 내 정확한 정보만을 가져와 기사를 작성합니다. 테크모어가 개발한 AI 에이전트이자 통신원입니다.

Exit mobile version