일본 경제산업성(METI)이 2026 회계연도 AI·반도체 예산을 전년 대비 약 4배인 1조 2,300억엔(약 79억 달러, 약 11조 4,550억 원)으로 확대한다.
역대 최대 규모, 4배 증액의 배경
일본 경제산업성(METI)은 2026 회계연도(2026년 4월~2027년 3월) 예산안에서 AI·반도체 분야에 1조 2,300억엔(약 79억 달러, 약 11조 4,550억 원)을 편성했다. 이는 전년 대비 약 300% 증가한 수치로, 사실상 4배에 가까운 증액이다. METI 전체 예산도 약 3조 700억엔으로 전년 대비 50% 가까이 늘어났다. 타카이치 사나에 총리 내각이 지난해 12월 승인한 이 예산안은 일본 국회에서 심의 중이며, 일본 정부가 4년 연속으로 반도체·국방 예산을 급격히 확대하는 흐름의 연장선에 있다. 과거 세계 반도체 시장 점유율 50%를 차지했던 일본이 경쟁력 회복을 위해 국가 차원의 총력전에 나선 것이다.
라피더스, 2nm 양산의 꿈에 2,500억엔 누적 투입
이번 예산에서 가장 눈에 띄는 항목은 라피더스(Rapidus)에 대한 1,500억엔(약 9억 7,000만 달러, 약 1조 4,065억 원) 배정이다. 이로써 일본 정부의 라피더스 누적 투자액은 2,500억엔(약 16억 달러, 약 2조 3,200억 원)에 달하게 된다.
라피더스는 2027년까지 2nm급 첨단 로직 반도체 양산을 목표로 하고 있다. 2026년 2월에는 정보기술진흥기구(IPA) 출자 1,000억엔과 캐논, 후지쯔, NTT, 소프트뱅크
소프트뱅크
목차
1. 개요: 소프트뱅크 그룹이란 무엇인가?
2. 역사 및 발전 과정
2.1. 창립 및 초기 성장 (1980년대 ~ 1990년대 중반)
2.2. 인터넷 및 통신 사업 확장 (1990년대 후반 ~ 2000년대)
2.3. 글로벌 투자 기업으로의 전환 (2010년대 이후)
3. 핵심 사업 분야 및 투자 전략
3.1. 통신 사업 (SoftBank Corp.)
3.2. 비전 펀드를 통한 기술 투자
3.3. 기타 사업 부문
4. 주요 투자 및 포트폴리오
4.1. 주요 유니콘 기업 투자 사례
4.2. 국내외 스타트업 투자 현황 (SoftBank Ventures Asia)
5. 현재 동향 및 주요 이슈
5.1. 최근 재무 성과 및 투자 회수 전략
5.2. 논란 및 비판
6. 미래 전망: 소프트뱅크의 다음 행보는?
6.1. AI 및 첨단 기술 분야 투자 강화
6.2. 새로운 성장 동력 발굴
1. 개요: 소프트뱅크 그룹이란 무엇인가?
소프트뱅크 그룹(SoftBank Group Corp.)은 1981년 손정의(Masayoshi Son) 회장이 설립한 일본의 다국적 대기업 복합기업이다. 초기에는 소프트웨어 유통업으로 시작했으나, 현재는 통신, 인터넷 서비스, 인공지능(AI), 로봇 공학, 에너지 등 다양한 첨단 기술 분야에 걸쳐 전 세계적으로 투자하는 글로벌 투자 지주회사로 그 정체성을 확립했다. 소프트뱅크 그룹의 핵심은 미래 기술을 발굴하고 투자하여 전 세계 정보 혁명에 기여하는 것을 목표로 한다. 특히, 1,000억 달러 규모의 비전 펀드(Vision Fund)를 통해 전 세계 유망 기술 기업에 대규모 투자를 단행하며 글로벌 기술 생태계의 주요 플레이어로 자리매김하였다. 2023년 기준, 소프트뱅크 그룹은 전 세계 90여 개국에 걸쳐 1,300개 이상의 기업에 투자하고 있으며, 총 자산 규모는 약 29조 엔(약 2,000억 달러)에 달한다.
2. 역사 및 발전 과정
소프트뱅크 그룹은 40년이 넘는 역사 동안 끊임없는 변신과 혁신을 통해 현재의 글로벌 투자 기업으로 성장했다. 그 과정은 크게 세 단계로 나눌 수 있다.
2.1. 창립 및 초기 성장 (1980년대 ~ 1990년대 중반)
소프트뱅크는 1981년 9월, 손정의 회장이 24세의 나이로 일본 후쿠오카에서 설립했다. 당시 사명은 '소프트뱅크'로, 컴퓨터 소프트웨어 유통 및 출판 사업으로 시작했다. 초기에는 PC 소프트웨어와 잡지를 판매하며 일본 내 소프트웨어 시장의 성장과 함께 빠르게 확장했다. 1982년에는 일본 최초의 컴퓨터 소프트웨어 및 하드웨어 전시회인 '소프트웨어 쇼'를 개최하며 업계의 주목을 받았다. 1980년대 중반에는 일본 최대의 소프트웨어 도매업체로 성장했으며, 1990년대 초반에는 컴퓨터 관련 출판 사업에도 진출하여 'PC Week Japan'과 같은 잡지를 발행하며 정보 기술(IT) 분야의 영향력을 확대했다.
2.2. 인터넷 및 통신 사업 확장 (1990년대 후반 ~ 2000년대)
1990년대 중반, 인터넷의 부상과 함께 소프트뱅크는 사업의 방향을 전환하기 시작했다. 1995년에는 미국 야후(Yahoo!)에 투자하며 인터넷 사업에 본격적으로 뛰어들었고, 1996년에는 야후 재팬(Yahoo! Japan)을 설립하여 일본 인터넷 시장의 선두 주자로 발돋움했다. 야후 재팬은 현재까지도 일본의 주요 포털 사이트로 기능하고 있다. 2000년에는 중국의 전자상거래 기업 알리바바(Alibaba)에 초기 투자를 단행하여 훗날 엄청난 수익을 거두는 기반을 마련했다. 2000년대 들어서는 통신 사업으로의 확장이 두드러졌다. 2004년 일본 4위 유선 통신 사업자였던 일본텔레콤을 인수했으며, 2006년에는 영국 보다폰(Vodafone)의 일본 사업 부문인 보다폰 재팬을 1조 7,500억 엔(약 150억 달러)에 인수하며 이동통신 시장에 진출했다. 이 인수를 통해 소프트뱅크는 일본의 주요 이동통신사 중 하나로 자리매김했으며, 이후 아이폰(iPhone)을 일본에 독점 공급하며 시장 점유율을 빠르게 확대했다.
2.3. 글로벌 투자 기업으로의 전환 (2010년대 이후)
2010년대 이후 소프트뱅크는 단순한 통신 및 인터넷 기업을 넘어 글로벌 기술 투자 기업으로의 전환을 가속화했다. 2013년에는 미국 3위 이동통신사 스프린트(Sprint)를 인수하며 미국 시장에 진출했으나, 이후 T-모바일(T-Mobile)과의 합병을 통해 지분을 정리했다. 이 시기 가장 중요한 변화는 2016년 사우디아라비아 국부펀드(PIF)와 함께 1,000억 달러 규모의 세계 최대 기술 투자 펀드인 소프트뱅크 비전 펀드(SoftBank Vision Fund)를 설립한 것이다. 비전 펀드는 인공지능(AI), 로봇 공학, 사물 인터넷(IoT) 등 미래 핵심 기술 분야의 유망 스타트업 및 유니콘 기업(기업 가치 10억 달러 이상 비상장 기업)에 대규모 투자를 단행하며 소프트뱅크를 글로벌 기술 투자 생태계의 핵심 주체로 만들었다. 이로써 소프트뱅크는 '정보 혁명'을 주도하는 기업이라는 비전 아래, 전 세계 혁신 기업들의 성장을 지원하는 투자 지주회사로서의 면모를 강화했다.
3. 핵심 사업 분야 및 투자 전략
소프트뱅크 그룹의 사업은 크게 통신 사업과 비전 펀드를 통한 기술 투자, 그리고 기타 신사업 부문으로 나눌 수 있다. 이들을 관통하는 핵심은 미래 기술에 대한 선제적인 투자와 혁신을 통한 성장이다.
3.1. 통신 사업 (SoftBank Corp.)
소프트뱅크 그룹의 통신 사업은 주로 일본 내 이동통신 및 초고속 인터넷 서비스 제공을 담당하는 자회사 소프트뱅크 주식회사(SoftBank Corp.)를 통해 이루어진다. 소프트뱅크 주식회사는 NTT 도코모, KDDI와 함께 일본 3대 이동통신사 중 하나로, 5G 네트워크 구축 및 서비스 확장에 주력하고 있다. 2023년 기준, 소프트뱅크 주식회사는 약 4,000만 명 이상의 이동통신 가입자를 보유하고 있으며, 브로드밴드 인터넷 서비스인 'SoftBank Hikari'를 통해 유선 인터넷 시장에서도 상당한 점유율을 유지하고 있다. 또한, 사물 인터넷(IoT) 솔루션, 클라우드 서비스, 기업용 통신 솔루션 등 B2B(기업 간 거래) 사업으로도 영역을 확장하며 안정적인 수익 기반을 제공하고 있다. 통신 사업은 소프트뱅크 그룹의 안정적인 현금 흐름을 창출하는 핵심 동력으로, 그룹의 다른 투자 활동을 위한 자금 조달에 중요한 역할을 한다.
3.2. 비전 펀드를 통한 기술 투자
소프트뱅크 비전 펀드는 소프트뱅크 그룹의 글로벌 기술 투자 전략의 핵심이다. 2017년 1호 펀드(SVF1)가 출범한 이래, 총 1,000억 달러 이상을 조성하여 인공지능(AI), 로봇 공학, 자율주행, 핀테크, 바이오 기술 등 미래 혁신 기술 분야의 유망 기업에 대규모 투자를 단행했다. 비전 펀드의 투자 기준은 '정보 혁명'을 가속화할 잠재력을 가진 기업에 집중하는 것이다. 특히, 시장을 선도하거나 파괴적인 혁신을 가져올 수 있는 기술과 강력한 경영진을 보유한 기업을 선호한다. 비전 펀드는 단순한 재무적 투자를 넘어, 피투자 기업의 성장을 위한 전략적 조언, 글로벌 시장 확장 지원, 인재 유치 등 다양한 방식으로 가치를 더하는 것을 목표로 한다. 2023년 말 기준, 비전 펀드는 전 세계 400개 이상의 기업에 투자했으며, 이 중 상당수는 유니콘 기업으로 성장했다. 2019년에는 2호 펀드(SVF2)를 조성하여 초기 단계의 스타트업 투자에도 적극적으로 나서고 있다.
3.3. 기타 사업 부문
소프트뱅크 그룹은 통신 및 비전 펀드 외에도 다양한 신사업 부문을 통해 미래 성장 동력을 모색하고 있다. 대표적인 분야는 다음과 같다:
로봇 공학: 2017년 구글로부터 보스턴 다이내믹스(Boston Dynamics)를 인수하며 로봇 공학 분야에 본격적으로 진출했으나, 2020년 현대자동차그룹에 매각했다. 하지만 소프트뱅크 로보틱스(SoftBank Robotics)를 통해 서비스 로봇 '페퍼(Pepper)' 등을 개발하며 로봇 기술 개발 및 상용화에 지속적으로 투자하고 있다.
에너지: 소프트뱅크는 후쿠시마 원전 사고 이후 재생 에너지의 중요성을 인식하고 소프트뱅크 SB 에너지를 설립하여 태양광 발전소 건설 및 운영 등 재생 에너지 사업을 추진하고 있다. 이는 지속 가능한 사회 구현에 기여하려는 소프트뱅크의 장기적인 비전과도 연결된다.
반도체 설계: 2016년에는 영국의 반도체 설계 기업 ARM 홀딩스(ARM Holdings)를 320억 달러에 인수하여 반도체 산업의 핵심 기술력을 확보했다. ARM은 스마트폰 프로세서의 95% 이상에 사용되는 아키텍처를 설계하는 등 모바일 및 IoT 기기 분야에서 독보적인 위치를 차지하고 있다. 소프트뱅크는 ARM의 기술이 미래 AI 시대의 핵심 인프라가 될 것으로 보고 있으며, 2023년 ARM을 나스닥에 상장하며 성공적인 투자 회수 사례를 만들었다.
4. 주요 투자 및 포트폴리오
소프트뱅크 그룹의 투자 전략은 미래 기술 혁신을 주도할 잠재력을 가진 기업을 발굴하고, 대규모 자본을 투입하여 이들의 성장을 가속화하는 데 초점을 맞춘다. 특히 비전 펀드를 통해 다양한 산업 분야의 유니콘 기업에 투자하며 광범위한 포트폴리오를 구축했다.
4.1. 주요 유니콘 기업 투자 사례
소프트뱅크 비전 펀드는 설립 이후 전 세계 수많은 유니콘 기업에 투자하며 이들의 성장에 결정적인 역할을 했다. 대표적인 투자 사례는 다음과 같다:
우버(Uber): 세계 최대 차량 공유 서비스 기업인 우버에 2018년 약 77억 달러를 투자하며 최대 주주 중 하나가 되었다. 우버는 소프트뱅크의 투자 이후 글로벌 시장 확장을 가속화했으며, 2019년 성공적으로 상장했다. 소프트뱅크는 우버의 성장을 통해 상당한 투자 수익을 실현했다.
위워크(WeWork): 공유 오피스 스타트업 위워크에 약 100억 달러 이상을 투자했으나, 2019년 기업공개(IPO) 실패와 경영 부실로 인해 큰 손실을 입었다. 위워크 투자는 비전 펀드의 가장 큰 실패 사례 중 하나로 꼽히며, 소프트뱅크의 투자 전략에 대한 비판을 불러일으키기도 했다. 위워크는 2023년 파산 보호 신청 후 구조조정을 거쳐 재도약을 모색하고 있다.
디디추싱(Didi Chuxing): 중국 최대 차량 호출 서비스 기업인 디디추싱에 수십억 달러를 투자하며 중국 시장에서의 영향력을 확대했다. 디디추싱은 중국 내 경쟁에서 우위를 점하며 빠르게 성장했으나, 이후 중국 정부의 규제로 인해 어려움을 겪기도 했다.
쿠팡(Coupang): 한국의 대표적인 전자상거래 기업 쿠팡에 2015년과 2018년에 걸쳐 약 30억 달러를 투자했다. 쿠팡은 소프트뱅크의 대규모 투자에 힘입어 '로켓배송' 등 혁신적인 물류 시스템을 구축하며 한국 전자상거래 시장의 선두 주자로 자리매김했다. 2021년 뉴욕 증권거래소 상장을 통해 소프트뱅크는 상당한 투자 수익을 거두었다.
4.2. 국내외 스타트업 투자 현황 (SoftBank Ventures Asia)
소프트뱅크 그룹은 비전 펀드를 통한 대규모 투자 외에도, 소프트뱅크 벤처스 아시아(SoftBank Ventures Asia)를 통해 아시아 지역을 중심으로 초기 단계 스타트업 투자 활동을 활발히 펼치고 있다. 소프트뱅크 벤처스 아시아는 2000년에 설립된 소프트뱅크 그룹의 벤처캐피탈(VC) 자회사로, 한국, 중국, 동남아시아 등 아시아 전역의 유망 기술 스타트업에 투자하며 이들의 성장을 지원한다. 주로 인공지능, 모빌리티, 헬스케어, 핀테크 등 미래 성장 가능성이 높은 분야에 집중하며, 초기 단계 기업에 대한 시드(Seed) 및 시리즈 A(Series A) 투자를 통해 미래 유니콘 기업을 발굴하는 데 주력한다. 한국 스타트업 중에서는 직방, 당근마켓, 쏘카 등 다수의 기업에 투자하여 국내 스타트업 생태계 발전에 기여했다. 이러한 투자는 소프트뱅크 그룹이 장기적인 관점에서 미래 기술 혁신을 위한 파이프라인을 구축하고, 새로운 성장 동력을 지속적으로 확보하려는 전략의 일환이다.
5. 현재 동향 및 주요 이슈
소프트뱅크 그룹은 최근 몇 년간 글로벌 경제 상황과 투자 포트폴리오의 성과에 따라 다양한 변화와 도전에 직면해 있다. 특히 거시 경제 환경의 변동성과 투자 회수 전략이 주요 이슈로 부상하고 있다.
5.1. 최근 재무 성과 및 투자 회수 전략
소프트뱅크 그룹은 2022년부터 2023년까지 글로벌 기술 시장의 침체와 금리 인상 등의 영향으로 비전 펀드에서 상당한 투자 손실을 기록했다. 특히 2022회계연도(2022년 4월~2023년 3월)에는 비전 펀드에서 약 4조 엔(약 300억 달러)에 달하는 손실을 기록하며 그룹 전체가 적자를 면치 못했다. 이러한 상황에서 소프트뱅크는 투자 포트폴리오의 리스크를 관리하고 현금 유동성을 확보하기 위한 투자 회수(엑시트) 전략에 집중했다. 대표적으로 중국 알리바바 그룹의 지분을 대거 매각하여 수십조 원의 자금을 확보했으며, 영국 반도체 설계 기업 ARM의 성공적인 나스닥 상장(2023년 9월)을 통해 약 50억 달러 이상의 자금을 조달했다. ARM의 상장은 소프트뱅크 비전 펀드의 투자 회수 전략에 긍정적인 신호탄이 되었으며, 그룹의 재무 건전성 회복에 크게 기여했다. 2023년 3분기(7~9월)에는 비전 펀드가 흑자 전환에 성공하는 등 점차 회복세를 보이고 있다.
5.2. 논란 및 비판
소프트뱅크 그룹의 공격적인 투자 전략은 때때로 논란과 비판에 직면하기도 했다. 가장 큰 논란은 위워크(WeWork) 투자 실패 사례이다. 위워크에 대한 과도한 투자와 기업 가치 평가 오류는 비전 펀드에 막대한 손실을 안겼으며, 손정의 회장의 투자 판단에 대한 의구심을 증폭시켰다. 또한, 일부에서는 소프트뱅크 비전 펀드가 너무 많은 자금을 너무 빠르게 투자하여 기업 가치를 과대평가하고 시장의 거품을 조장한다는 비판도 제기되었다. 비전 펀드의 투자 결정 과정에서 손정의 회장의 개인적인 직관과 영향력이 지나치게 크다는 지적도 있었다. 기업 지배 구조 측면에서는 손정의 회장에게 집중된 권한과 이사회 구성의 독립성 부족에 대한 우려가 꾸준히 제기되어 왔다. 이러한 논란들은 소프트뱅크 그룹이 투자 기업으로서 지속 가능한 성장을 위해 해결해야 할 과제로 남아 있다.
6. 미래 전망: 소프트뱅크의 다음 행보는?
소프트뱅크 그룹은 과거의 성공과 실패를 거울삼아 미래를 위한 새로운 전략을 모색하고 있다. 특히 인공지능(AI)과 첨단 기술 분야에 대한 투자를 강화하고, 새로운 성장 동력을 발굴하는 데 집중할 것으로 예상된다.
6.1. AI 및 첨단 기술 분야 투자 강화
손정의 회장은 인공지능(AI)을 '정보 혁명의 핵심'이자 '인류 역사상 가장 큰 혁명'으로 간주하며, AI 분야에 대한 투자를 소프트뱅크 그룹의 최우선 과제로 삼고 있다. 2024년 1월, 손정의 회장은 AI 반도체 개발에 1,000억 달러를 투자하는 '이잔(Izanagi)' 프로젝트를 추진 중이라는 보도가 나오기도 했다. 이는 소프트뱅크가 단순한 AI 서비스 기업 투자를 넘어, AI 인프라의 핵심인 반도체 설계 및 제조 분야로 직접 진출하려는 의지를 보여준다. ARM의 기술력을 바탕으로 AI 칩 개발에 참여하거나, AI 기술을 활용하여 기존 투자 포트폴리오 기업들의 가치를 높이는 전략을 병행할 것으로 예상된다. 또한, 생성형 AI, 양자 컴퓨팅, 바이오 기술 등 파괴적인 잠재력을 가진 첨단 기술 분야에 대한 투자를 지속적으로 확대하여 미래 기술 패권 경쟁에서 우위를 확보하려 할 것이다.
6.2. 새로운 성장 동력 발굴
소프트뱅크 그룹은 기존 통신 사업의 안정적인 수익과 비전 펀드의 투자 역량을 바탕으로 새로운 성장 동력을 끊임없이 발굴하려 한다. 이는 단순히 유망 스타트업에 투자하는 것을 넘어, 소프트뱅크 그룹이 직접 새로운 사업 영역을 개척하는 것을 의미할 수 있다. 예를 들어, AI 기술을 활용한 새로운 서비스 플랫폼 개발, 로봇 공학 기술의 상용화 확대, 그리고 에너지 효율성 증대 및 지속 가능한 에너지 솔루션 개발 등이 그 대상이 될 수 있다. 특히, 손정의 회장은 '군 전략(群戦略)'을 강조하며, 투자한 기업들 간의 시너지를 창출하여 소프트뱅크 생태계를 구축하고 이를 통해 새로운 가치를 창출하는 데 주력할 것이다. 또한, 글로벌 팬데믹 이후 가속화된 디지털 전환과 비대면 경제의 확산에 발맞춰 헬스케어, 에듀테크, 클린테크 등 사회적 가치와 경제적 가치를 동시에 창출할 수 있는 분야에도 주목할 것으로 보인다.
참고 문헌
[1] SoftBank Group Corp. Official Website. "About Us." Accessed January 27, 2026.
[2] SoftBank Group Corp. "Financial Results for Q2 FY2023." November 9, 2023.
[3] SoftBank Group Corp. Official Website. "History." Accessed January 27, 2026.
[4] The Japan Times. "SoftBank's Masayoshi Son: A man of vision and risk." October 29, 2019.
[5] Financial Times. "SoftBank's journey from software distributor to tech giant." November 12, 2019.
[6] Reuters. "SoftBank to buy Vodafone Japan for $15 billion." March 17, 2006.
[7] The Wall Street Journal. "SoftBank Launches $100 Billion Tech Fund." October 14, 2016.
[8] Forbes. "How SoftBank's Vision Fund Changed The Tech World." January 15, 2020.
[9] SoftBank Corp. Official Website. "About Us." Accessed January 27, 2026.
[10] Statista. "Number of mobile subscribers of SoftBank in Japan from fiscal year 2019 to 2022." October 2023.
[11] SoftBank Vision Fund Official Website. "Our Portfolio." Accessed January 27, 2026.
[12] TechCrunch. "SoftBank Vision Fund 2 closes with $30 billion in capital." July 29, 2021.
[13] Hyundai Motor Group. "Hyundai Motor Group Completes Acquisition of Boston Dynamics." June 21, 2021.
[14] SoftBank Group Corp. "SoftBank Group to Accelerate Renewable Energy Business." July 29, 2011.
[15] BBC News. "SoftBank buys UK chip designer ARM for £24bn." July 18, 2016.
[16] The New York Times. "Arm, the Chip Designer, Makes Its Public Debut." September 14, 2023.
[17] CNBC. "SoftBank to invest $7.7 billion in Uber, becoming its largest shareholder." January 29, 2018.
[18] The Wall Street Journal. "WeWork Files for Bankruptcy." November 6, 2023.
[19] Bloomberg. "SoftBank’s WeWork Bet: A $10 Billion Lesson in Hubris." October 23, 2019.
[20] Reuters. "SoftBank invests in China's Didi Chuxing, boosting ride-hailing giant." April 28, 2017.
[21] The Korea Herald. "SoftBank invests $2 billion in Coupang." November 21, 2018.
[22] The Wall Street Journal. "Coupang Raises $4.6 Billion in Biggest U.S. IPO of 2021." March 10, 2021.
[23] SoftBank Ventures Asia Official Website. "Portfolio." Accessed January 27, 2026.
[24] Maeil Business Newspaper. "SoftBank Ventures Asia, a key player in Korean startup investment." May 18, 2022.
[25] SoftBank Group Corp. "Financial Results for FY2022." May 11, 2023.
[26] CNBC. "SoftBank trims Alibaba stake, raises $34 billion in cash." August 10, 2022.
[27] Reuters. "SoftBank's Vision Fund returns to profit after four quarters of losses." November 9, 2023.
[28] The Economist. "The enigma of Masayoshi Son and SoftBank." October 24, 2019.
[29] Financial Times. "SoftBank and the problem with Masayoshi Son’s ‘gut feeling’." November 12, 2019.
[30] Bloomberg. "SoftBank’s Son Seeks Up to $100 Billion for AI Chip Venture." February 17, 2024.
[31] SoftBank Group Corp. "Masayoshi Son's Keynote Speech at SoftBank World 2023." October 4, 2023.
[32] SoftBank Group Corp. "Masayoshi Son's Vision for the Future." Accessed January 27, 2026.
[33] Nikkei Asia. "SoftBank's Son sees AI as key to next growth phase." October 5, 2023.
, 소니, 도요타 등 32개 민간 기업 출자 1,676억엔을 합쳐 총 2,676억엔(약 17억 달러, 약 2조 4,650억 원)의 대규모 자금 조달에도 성공했다. 일본 정부는 2026~2027 회계연도에 걸쳐 추가로 1조엔(약 64억 달러, 약 9조 2,800억 원) 규모의 정부 지원을 계획하고 있으며, 라피더스의 정부 지원 총액은 2조 9,000억엔까지 확대될 전망이다.
AI 3,873억엔: 파운데이션 모델부터 피지컬AI까지
AI 분야에는 3,873억엔(약 25억 달러, 약 3조 6,250억 원)이 배정되었다. 이 예산은 크게 세 축으로 나뉜다. 첫째, 일본 자체 대규모 파운데이션 모델
파운데이션 모델
목차
1. 파운데이션 모델이란 무엇인가요?
1.1. 정의 및 주요 특징
1.2. LLM 및 생성형 AI와의 관계
2. 파운데이션 모델의 역사와 발전
2.1. 초기 연구 및 기반 기술
2.2. 대규모 사전 학습 모델의 등장
3. 파운데이션 모델의 핵심 기술 및 원리
3.1. 모델 아키텍처 및 훈련 방식
3.2. 데이터 수집 및 처리
3.3. 확장성 및 적응성
4. 파운데이션 모델의 주요 활용 사례
4.1. 자연어 처리 (NLP)
4.2. 컴퓨터 비전 및 시각적 이해
4.3. 코드 생성 및 개발 지원
4.4. 기타 응용 분야
5. 파운데이션 모델의 현재 동향 및 과제
5.1. 최신 발전 동향
5.2. 윤리적 고려사항 및 사회적 영향
5.3. 기술적 한계 및 해결 과제
6. 파운데이션 모델의 미래 전망
6.1. 기술 발전 방향
6.2. 범용 인공지능(AGI)으로의 발전 가능성
6.3. 사회 및 산업에 미칠 영향
1. 파운데이션 모델이란 무엇인가요?
파운데이션 모델은 현대 인공지능 분야에서 가장 혁신적이고 중요한 개념 중 하나로 부상하고 있다. 이는 단순한 기술적 진보를 넘어, 인공지능 시스템을 개발하고 활용하는 방식에 근본적인 변화를 가져오고 있다.
1.1. 정의 및 주요 특징
파운데이션 모델(Foundation Model, FM)은 방대한 데이터셋으로 사전 학습되어 다양한 하위 작업에 전이 학습될 수 있는 대규모 딥러닝 신경망 모델이다. 이 용어는 2021년 스탠퍼드 인간 중심 인공지능 연구소(Stanford Institute for Human-Centered Artificial Intelligence, HAI)에서 처음 사용되었으며, AI 개발의 새로운 패러다임을 설명하기 위해 고안되었다. 기존의 머신러닝 모델이 특정 작업을 위해 처음부터 훈련되는 '맞춤형 도구'였다면, 파운데이션 모델은 다양한 용도로 재사용 가능한 '범용 인프라' 역할을 수행한다.
파운데이션 모델의 주요 특징은 다음과 같다.
범용성 (General-purpose): 파운데이션 모델은 특정 작업에 특화되지 않고, 언어 이해, 이미지 인식, 코드 생성 등 광범위한 작업을 수행할 수 있도록 설계된다. 이는 하나의 모델이 다양한 도메인과 애플리케이션에 적용될 수 있음을 의미한다.
적응성 (Adaptability): 사전 학습된 파운데이션 모델은 특정 하위 작업에 맞춰 최소한의 추가 훈련(미세 조정, Fine-tuning)이나 프롬프트 엔지니어링을 통해 효율적으로 적응할 수 있다. 이러한 적응 방식에는 프롬프팅, 인컨텍스트 학습(in-context learning), 미세 조정(fine-tuning), LoRA(Low-Rank Adaptation) 등이 있다.
확장성 (Scalability): 파운데이션 모델은 수십억 개에서 수조 개에 이르는 방대한 매개변수(parameter)를 가지며, 모델의 크기와 훈련 데이터의 양이 증가할수록 성능이 예측 가능하게 향상되는 경향을 보인다. 이러한 대규모 확장은 복잡한 패턴과 관계를 학습하는 데 필수적이지만, 동시에 막대한 컴퓨팅 자원(주로 GPU)을 필요로 한다.
전이 학습 (Transfer Learning): 파운데이션 모델은 한 작업에서 학습한 지식을 다른 관련 작업에 적용하는 전이 학습(transfer learning) 개념을 기반으로 한다. 이는 새로운 애플리케이션을 개발할 때 모델을 처음부터 훈련할 필요 없이, 이미 학습된 지식을 활용하여 개발 시간과 비용을 크게 절감할 수 있게 한다.
새로운 기능 (Emergent Capabilities): 대규모로 훈련된 파운데이션 모델은 명시적으로 훈련되지 않은 작업도 수행할 수 있는 '새로운 기능(emergent capabilities)'을 보여주기도 한다. 이는 모델이 단순히 학습된 패턴을 반복하는 것을 넘어, 복잡한 추론이나 문제 해결 능력을 발휘할 수 있음을 시사한다.
1.2. LLM 및 생성형 AI와의 관계
파운데이션 모델, 대규모 언어 모델(LLM), 생성형 AI는 밀접하게 관련되어 있지만 서로 다른 개념이다. 이들 간의 관계를 이해하는 가장 좋은 방법은 '엔진'과 '기능'으로 비유하는 것이다.
대규모 언어 모델(LLM): LLM은 파운데이션 모델의 주요 유형 중 하나이다. LLM은 이름에서 알 수 있듯이 방대한 양의 텍스트와 코드를 대상으로 특별히 훈련된 모델이다. OpenAI의 GPT 시리즈(예: GPT-3, GPT-4)와 Google의 BERT가 대표적인 LLM이자 파운데이션 모델의 초기 사례이다. 모든 LLM은 파운데이션 모델이지만, 모든 파운데이션 모델이 LLM인 것은 아니다. 파운데이션 모델이라는 더 넓은 범주에는 이미지, 오디오, 비디오 또는 이들의 조합(멀티모달)과 같은 다른 데이터 유형으로 훈련된 모델도 포함되기 때문이다.
생성형 AI (Generative AI): 생성형 AI는 파운데이션 모델이 수행할 수 있는 주요 '기능' 중 하나로, 텍스트, 이미지, 코드와 같은 새로운 콘텐츠를 생성하는 능력을 의미한다. 챗GPT와 같은 생성형 AI 애플리케이션은 대규모 언어 모델(LLM)이라는 파운데이션 모델을 기반으로 작동한다. 대부분의 파운데이션 모델은 생성 작업에 널리 사용되지만, 복잡한 분류나 분석과 같은 비생성 목적으로도 활용될 수 있다. 즉, 파운데이션 모델은 새로운 콘텐츠를 생성하는 '생성형' 기능뿐만 아니라 기존 데이터를 이해하고 분석하는 '판별형' 기능도 수행할 수 있는 강력한 기반 기술이다.
2. 파운데이션 모델의 역사와 발전
파운데이션 모델의 개념이 등장하기까지는 수십 년에 걸친 인공지능 연구와 기술 발전이 있었다. 특히 딥러닝과 특정 아키텍처의 발전은 파운데이션 모델의 출현에 결정적인 역할을 했다.
2.1. 초기 연구 및 기반 기술
파운데이션 모델은 딥러닝 신경망, 전이 학습, 자기 지도 학습과 같은 기존 머신러닝 기술을 기반으로 구축되었다. 특히 인공지능 분야의 핵심 전환점은 '트랜스포머(Transformer)' 아키텍처의 등장이었다.
딥러닝의 발전: 2010년대 중반 이후 딥러닝(Deep Learning) 기술이 비약적으로 발전하면서, 다층 신경망을 통해 복잡한 패턴을 학습하는 능력이 크게 향상되었다. 이는 파운데이션 모델과 같은 대규모 모델의 기반을 마련하는 데 기여했다.
트랜스포머 아키텍처의 등장: 2017년 Google이 발표한 트랜스포머 아키텍처는 파운데이션 모델의 부상에 결정적인 역할을 했다. 트랜스포머는 '어텐션(Attention)' 메커니즘을 기반으로 하여, 입력 데이터의 각 부분이 다른 부분과 어떻게 관련되는지 학습한다. 이는 기존 순환 신경망(RNN)이나 합성곱 신경망(CNN)보다 훨씬 효율적으로 장거리 의존성(long-range dependencies)을 포착하고, 특히 병렬 처리가 가능하여 대규모 데이터셋에 대한 훈련 시간을 획기적으로 단축시켰다. 트랜스포머의 도입으로 언어 모델은 재사용 가능하게 되었고, 정확도 또한 지속적으로 향상되었다.
2.2. 대규모 사전 학습 모델의 등장
트랜스포머 아키텍처를 기반으로 대규모 데이터셋에 사전 학습된 모델들이 등장하면서 인공지능 분야는 혁신적인 변화를 맞이했다.
BERT의 출현: 2018년 Google이 공개한 BERT(Bidirectional Encoder Representations from Transformers)는 최초의 파운데이션 모델 중 하나로 평가받는다. BERT는 양방향 모델로서, 문맥 전체를 분석하여 단어의 의미를 파악하는 방식으로 훈련되었다. 이는 자연어 처리(NLP) 분야에서 전례 없는 성능 향상을 가져왔다.
GPT 시리즈의 등장: OpenAI가 개발한 GPT(Generative Pre-trained Transformer) 시리즈는 파운데이션 모델의 대표적인 성공 사례이다. 특히 GPT-3.5를 기반으로 한 챗GPT(ChatGPT)의 2022년 출시는 파운데이션 모델과 생성형 AI가 대중에게 널리 알려지는 계기가 되었다. GPT-4는 1,700조 개에 달하는 매개변수와 5조 개 이상의 단어로 훈련된 거대한 모델로, 인간과 유사한 텍스트를 생성하고 다양한 언어 작업을 수행하는 데 탁월한 능력을 보여주었다.
혁신적 영향력: 이러한 대규모 사전 학습 모델들은 인공지능 연구의 패러다임을 '특정 작업에 특화된 모델'에서 '적응 가능한 범용 모델'로 전환시켰다. 웹에서 수집된 대규모 데이터셋과 자기 지도 학습 방식을 활용하여 훈련된 이 모델들은 인공지능의 잠재력을 극대화하는 새로운 가능성을 제시했다.
3. 파운데이션 모델의 핵심 기술 및 원리
파운데이션 모델이 광범위한 작업에서 뛰어난 성능을 발휘하는 것은 그 내부의 정교한 기술적 원리와 구성 요소 덕분이다. 모델 아키텍처, 훈련 방식, 데이터 처리, 그리고 확장성과 적응성은 파운데이션 모델의 핵심을 이룬다.
3.1. 모델 아키텍처 및 훈련 방식
파운데이션 모델의 기술적 기반은 주로 트랜스포머 아키텍처와 자기 지도 학습 방식에 있다.
모델 아키텍처: 많은 파운데이션 모델, 특히 자연어 처리(NLP) 분야의 모델들은 트랜스포머 아키텍처를 채택한다. 트랜스포머는 인코더와 디코더로 구성되며, 인코더는 입력 시퀀스를 임베딩(embedding)이라는 수치적 표현으로 변환하여 토큰의 의미론적, 위치적 정보를 포착한다. 디코더는 이러한 임베딩을 기반으로 출력을 생성한다. 오늘날 대부분의 대규모 언어 모델(LLM)은 주로 디코더 구성 요소를 활용한다.
자기 지도 학습 (Self-supervised learning): 파운데이션 모델은 방대한 양의 레이블 없는(unlabeled) 데이터에 대해 자기 지도 학습(self-supervised learning) 방식을 사용하여 훈련된다. 이 방식에서는 모델 자체가 레이블 없는 데이터에서 학습 작업을 생성하고 레이블을 만든다. 예를 들어, 텍스트 데이터의 경우 문장에서 누락된 단어를 예측하거나 다음 단어를 예측하는 방식으로 학습이 이루어진다. 이를 통해 모델은 데이터 내의 복잡한 패턴, 관계, 그리고 기본적인 구조를 스스로 학습하게 된다. 지도 학습(supervised learning)처럼 사람이 직접 레이블을 지정하는 데 드는 시간과 비용을 크게 절감할 수 있다는 장점이 있다.
대규모 훈련 과정: 파운데이션 모델의 훈련은 엄청난 컴퓨팅 자원(GPU 또는 TPU)을 필요로 하며, 모델의 크기와 데이터셋의 복잡성에 따라 며칠에서 몇 주까지 소요될 수 있다. 이러한 대규모 훈련을 효율적으로 수행하기 위해 데이터 병렬 처리, 텐서 병렬 처리, 시퀀스 병렬 처리, FSDP(Fully Sharded Data Parallel)와 같은 분산 훈련 기술이 활용된다.
3.2. 데이터 수집 및 처리
파운데이션 모델의 성능은 훈련에 사용되는 데이터셋의 규모와 품질에 크게 좌우된다.
방대한 데이터셋의 중요성: 파운데이션 모델은 '방대한(vast)' 또는 '대규모(massive)' 데이터셋으로 훈련된다. '더 많은 데이터가 더 나은 성능으로 이어진다'는 원칙에 따라, 모델은 다양한 패턴, 스타일, 정보를 학습하여 새로운 데이터에 효과적으로 일반화할 수 있게 된다.
데이터 수집: 훈련 데이터는 책, 기사, 웹사이트 등 다양한 출처에서 수집된다. OpenAI의 파운데이션 모델은 공개적으로 사용 가능한 인터넷 정보, 제3자와의 파트너십을 통해 접근하는 정보, 그리고 사용자, 인간 트레이너, 연구원이 제공하거나 생성하는 정보를 활용한다. Apple의 경우, 웹 크롤러인 AppleBot이 수집한 공개 데이터와 라이선스 데이터를 조합하여 모델을 훈련한다.
정제 및 전처리: 수집된 원시 데이터는 모델 훈련에 사용되기 전에 철저한 처리 과정을 거친다. 이 과정에는 콘텐츠 이해를 위한 분류, 혐오 발언이나 중복 항목과 같은 불필요한 자료 제거를 위한 필터링, 그리고 최종적으로 깨끗하고 조직화된 데이터셋을 형성하는 정제 작업이 포함된다. 특히, 사회 보장 번호나 신용 카드 번호와 같은 개인 식별 정보(PII)는 필터링되며, 비속어 및 저품질 콘텐츠도 훈련 말뭉치에 포함되지 않도록 걸러진다. 데이터 추출, 중복 제거, 모델 기반 분류기를 통한 고품질 문서 식별 등도 중요한 전처리 단계이다.
3.3. 확장성 및 적응성
파운데이션 모델의 핵심 강점은 그 확장성과 다양한 작업에 대한 적응 능력에 있다.
모델 크기 확장 (Scaling): 파운데이션 모델의 정확성과 기능은 모델의 크기와 훈련 데이터의 양에 비례하여 예측 가능하게 확장되는 경향이 있다. '확장 법칙(scaling laws)'은 데이터, 모델 크기, 컴퓨팅 사용량과 같은 자원과 모델의 기능 간의 관계를 설명하는 경험적 추세이다. 수십억 개에서 수조 개에 달하는 매개변수를 가진 모델은 데이터 내의 복잡하고 미묘한 패턴을 포착할 수 있게 된다. 이러한 확장은 대규모 데이터 분석을 위한 파운데이션 모델의 역량을 향상시키는 데 기여한다.
다양한 하위 작업에 적응 (Adaptation): 파운데이션 모델은 본질적으로 다목적이며, 특정 사용 사례에 맞게 '적응(adaptation)'이 필요하다. 이러한 적응은 모델을 처음부터 다시 훈련하는 것보다 훨씬 적은 비용과 시간으로 이루어진다. 적응 방법으로는 프롬프트 엔지니어링, 인컨텍스트 학습(in-context learning), 미세 조정(fine-tuning), LoRA(Low-Rank Adaptation) 등이 있다. 미세 조정을 통해 모델은 특정 작업이나 도메인에 맞게 사용자 정의될 수 있으며, 이는 처음부터 모델을 훈련할 필요성을 줄여준다. 또한, 훈련 데이터가 거의 없거나 전혀 없는 상황에서도 모델을 활용할 수 있는 제로샷(zero-shot) 및 퓨샷(few-shot) 학습과 같은 기술도 적응성을 높이는 방법이다.
4. 파운데이션 모델의 주요 활용 사례
파운데이션 모델은 그 범용성과 적응성 덕분에 다양한 산업 분야와 응용 프로그램에서 혁신적인 변화를 이끌고 있다.
4.1. 자연어 처리 (NLP)
파운데이션 모델은 자연어 처리(NLP) 분야에서 가장 두드러진 활약을 보이며, 언어 관련 작업의 방식을 근본적으로 변화시켰다.
텍스트 생성: 시, 스크립트, 기사, 마케팅 문구 등 다양한 형식의 창의적인 텍스트를 생성할 수 있다. 챗봇 및 자동화된 콘텐츠 생성에 활용된다.
번역 및 요약: 여러 언어 간의 원활한 번역을 지원하며, 긴 문서를 간결하게 요약하여 핵심 정보를 추출하는 데 탁월하다.
질문 답변 및 감성 분석: 사용자 질문에 대한 정확한 답변을 제공하고, 텍스트의 감성적 톤을 이해하는 감성 분석에도 활용된다.
챗봇 및 가상 비서: 인간과 유사한 대화 능력을 바탕으로 고객 지원 챗봇, 가상 비서 등 인간-컴퓨터 상호작용을 개선한다.
4.2. 컴퓨터 비전 및 시각적 이해
파운데이션 모델은 컴퓨터 비전 분야에서도 이미지 생성, 객체 인식 등 시각 데이터 처리 능력을 혁신하고 있다.
이미지 생성: DALL-E, Stable Diffusion, Imagen과 같은 모델들은 텍스트 설명으로부터 사실적인 이미지를 생성하는 능력을 보여준다.
객체 인식 및 분류: 보안 카메라의 객체 감지, 자율 주행 차량의 보행자 및 차량 식별, 의료 영상 분석 등에서 활용된다. Grounding DINO는 객체 감지에, SAM(Segment Anything Model)은 이미지 분할에 사용된다. CLIP(Contrastive Language–Image Pre-training)은 이미지 분류 및 이미지 비교에 활용된다.
비디오 분석: 비디오에서 장면 변화를 식별하거나, 비디오 편집 및 사실적인 특수 효과 생성에도 응용될 수 있다.
멀티모달 이해: CLIP과 같은 모델은 이미지와 텍스트 간의 관계를 이해하고 정렬하여 이미지-텍스트 검색 및 개방형 객체 감지와 같은 다재다능한 애플리케이션을 가능하게 한다.
4.3. 코드 생성 및 개발 지원
소프트웨어 개발 분야에서 파운데이션 모델은 개발 생산성을 향상시키는 강력한 도구로 자리 잡고 있다.
자동 코드 생성: 자연어 입력을 기반으로 다양한 프로그래밍 언어로 컴퓨터 코드를 자동으로 생성한다. GitHub Copilot(Codex 모델 기반), Anthropic의 Claude Code, Google의 Codey, IBM의 Granite Code 모델 등이 대표적인 예시이다.
디버깅 및 리팩토링: 생성된 코드의 오류를 평가하고 디버깅하며, 기존 코드의 리팩토링을 지원하여 코드 품질을 향상시킨다.
개발 보조 및 에이전트 지원: 개발자가 복잡한 프로그래밍 작업을 수행할 때 다단계 에이전트(agentic) 지원을 제공하여 개발 과정을 보조한다. Apple의 Foundation Models 프레임워크는 Swift 데이터 구조를 생성하는 데 활용될 수 있다.
자연어-SQL 변환: 자연어 쿼리를 SQL 코드로 변환하여 데이터 분석 및 관리 작업을 간소화한다.
미래 전망: GitHub CEO 토마스 돔케(Thomas Dohmke)는 향후 5년 내에 소프트웨어 코드의 80%가 AI에 의해 작성될 것이라고 예측했다.
4.4. 기타 응용 분야
파운데이션 모델의 활용 범위는 언어와 비전을 넘어 다양한 분야로 확장되고 있다.
음성 인식 및 합성: 음성 데이터를 텍스트로 변환하거나, 텍스트를 자연스러운 음성으로 합성하는 데 활용된다.
인간-컴퓨터 상호작용: 생성형 AI 모델은 인간의 입력을 통해 학습하고 예측을 개선하며, 인간의 의사 결정을 지원하는 데 활용될 수 있다. 임상 진단, 의사 결정 지원 시스템, 분석 등이 잠재적 용도이다.
과학 연구: 천문학, 방사선학, 유전체학, 화학, 시계열 예측, 수학 등 다양한 과학 분야에서 방대한 데이터셋을 분석하여 전통적인 방법으로는 놓칠 수 있는 패턴과 관계를 식별함으로써 과학적 발견을 가속화할 수 있다.
로봇 제어: RT-2와 같은 모델은 로봇 제어 분야에도 적용되어 로봇이 복잡한 작업을 수행하도록 돕는다.
5. 파운데이션 모델의 현재 동향 및 과제
파운데이션 모델은 빠르게 발전하고 있지만, 동시에 기술적, 윤리적, 사회적 측면에서 다양한 도전과제를 안고 있다.
5.1. 최신 발전 동향
파운데이션 모델 연구 및 개발은 현재 다음과 같은 주요 방향으로 진화하고 있다.
멀티모달 모델: 텍스트, 이미지, 오디오, 비디오 등 다양한 양식(modality)의 데이터를 동시에 처리하고 이해하는 멀티모달(multimodal) 모델의 개발이 활발하다. DALL-E(이미지), MusicGen(음악), LLark(음악), RT-2(로봇 공학) 등이 멀티모달 파운데이션 모델의 예시이다. 이는 AI가 더욱 풍부하고 다감각적인 경험을 제공할 수 있도록 한다.
효율적인 추론 기술 및 소형화 모델: 대규모 모델의 막대한 자원 소모 문제를 해결하기 위해, 더 작고, 빠르며, 저렴한 모델을 개발하여 더 넓은 범위에서 AI를 활용할 수 있도록 하는 연구가 진행 중이다.
추론 강화 (Reasoning Enhancement): 모델이 더 스마트하게 사고하고 복잡한 문제를 해결할 수 있도록 추론 능력을 강화하는 방향으로 발전하고 있다.
도구 사용 (Tool Use): AI가 웹 검색, 데이터베이스, 사용자 정의 도구 등 외부 도구와 시스템을 활용하는 방법을 학습하는 능력이 중요해지고 있다.
컨텍스트 길이 확장 (Context Length Expansion): AI가 더 긴 대화나 문서에서 더 많은 정보를 기억하고 활용할 수 있도록 컨텍스트 길이(context length)를 확장하는 연구가 진행 중이다.
자율 에이전트 (Autonomous Agents): AI가 독립적으로 또는 협력적으로 행동하며 외부 도구 및 시스템과 상호작용하는 자율 에이전트(autonomous agents) 개발이 주목받고 있다.
실시간 데이터 통합: 모델의 지식 단절(knowledge cut-off) 문제를 극복하고 최신 정보를 반영하기 위해 검색 기능을 통합하여 실시간 정보에 접근할 수 있도록 하는 노력이 이루어지고 있다.
5.2. 윤리적 고려사항 및 사회적 영향
파운데이션 모델의 강력한 능력은 사회에 긍정적인 영향을 미칠 수 있지만, 동시에 여러 윤리적, 사회적 문제를 야기할 수 있다.
편향 (Bias): 모델이 훈련된 데이터셋에 존재하는 편향이 모델의 출력에 반영되어 차별적이거나 불공정한 결과를 초래할 수 있다.
오정보 생성 및 환각 (Misinformation/Hallucination): 파운데이션 모델은 때때로 그럴듯하지만 사실과 다른 정보(환각, hallucination)를 생성할 수 있으며, 이는 오정보 확산으로 이어질 수 있다 [cite: 4, 5, 5.3].
보안 취약점: 대규모 모델의 복잡성은 새로운 보안 취약점을 발생시키고, 악의적인 목적으로 오용될 가능성을 내포한다.
저작권 문제: 방대한 인터넷 데이터로 훈련되는 과정에서 저작권이 있는 콘텐츠가 사용될 수 있으며, 이로 인해 생성된 콘텐츠의 저작권 침해 논란이 발생할 수 있다.
일자리 변화: 파운데이션 모델을 통한 자동화는 특정 직업군의 수요를 감소시키거나 변화시킬 수 있으며, 새로운 직업의 창출로 이어질 수도 있다.
규제 및 거버넌스: 이러한 문제들로 인해 각국 정부는 파운데이션 모델에 대한 규제 및 거버넌스 프레임워크를 마련하기 시작했다. 예를 들어, 미국은 AI의 안전하고 신뢰할 수 있는 개발 및 사용에 관한 행정 명령에서 파운데이션 모델을 정의하고 있으며, 유럽 연합의 EU AI Act와 영국의 경쟁시장청(CMA) 보고서에서도 파운데이션 모델에 대한 정의와 규제 논의가 이루어지고 있다.
개인 정보 보호: OpenAI와 Apple은 모델 훈련 시 사용자 개인 정보를 의도적으로 수집하지 않으며, 공개적으로 사용 가능한 인터넷 정보에서 개인 식별 정보(PII)를 필터링한다고 밝히고 있다.
5.3. 기술적 한계 및 해결 과제
파운데이션 모델은 놀라운 발전을 이루었지만, 여전히 여러 기술적 한계와 해결해야 할 과제를 안고 있다.
환각 (Hallucination) 문제: 모델이 사실과 다른 정보를 생성하는 환각 현상은 여전히 주요한 기술적 한계이다. 이를 줄이기 위해 모델을 기업의 자체 데이터에 '접지(grounding)'시키는 방법 등이 연구되고 있다.
막대한 자원 소모: 파운데이션 모델을 구축하는 데는 데이터 획득, 큐레이션, 처리 및 컴퓨팅 파워(GPU)에 수억 달러가 소요될 수 있을 정도로 막대한 자원이 필요하다. 훈련 과정만으로도 몇 주가 걸릴 수 있다. 이러한 자원 소모는 모델의 접근성과 지속 가능성을 저해하는 요인이 된다.
제어의 어려움: 대규모 모델의 복잡성으로 인해 모델이 의도한 대로 작동하고 인간의 가치에 부합하도록 제어하는 것이 어렵다.
데이터 병목 현상: 고품질의 방대한 훈련 데이터를 지속적으로 확보하고 처리하는 것은 여전히 중요한 과제이다. 데이터 수집, 전처리, 저장 효율성은 모델의 성능에 직접적인 영향을 미친다.
설명 가능성 (Explainability): 모델이 특정 결정을 내리거나 출력을 생성하는 이유를 인간이 이해하기 어려운 '블랙박스' 문제는 여전히 남아있다. AI의 신뢰성과 책임성을 높이기 위해서는 설명 가능한 AI(XAI) 기술의 발전이 필수적이다.
6. 파운데이션 모델의 미래 전망
파운데이션 모델은 인공지능의 미래를 형성하고 인류 사회에 광범위한 영향을 미칠 잠재력을 가지고 있다. 기술 발전 방향과 범용 인공지능(AGI)으로의 발전 가능성, 그리고 사회 및 산업에 미칠 영향을 예측해 본다.
6.1. 기술 발전 방향
파운데이션 모델은 지속적인 연구 개발을 통해 더욱 강력하고 효율적인 방향으로 발전할 것으로 예상된다.
더욱 강력하고 범용적인 모델: 현재의 파운데이션 모델보다 훨씬 더 광범위한 기능을 갖추고 다양한 양식(modality)에 걸쳐 깊이 있는 이해를 제공하는 모델들이 등장할 것이다.
새로운 아키텍처 및 학습 방법: 현재 주류인 트랜스포머 아키텍처를 넘어서는 새로운 모델 아키텍처와 더 효율적인 학습 방법이 개발될 가능성이 있다. 예를 들어, 지능형 파운데이션 모델(Intelligence Foundation Model, IFM)은 언어, 비전 등 특정 도메인의 패턴 학습을 넘어 다양한 지능형 행동으로부터 직접 학습하여 지능의 근본적인 메커니즘을 습득하는 것을 목표로 하는 새로운 관점을 제시한다.
도메인별 특화 모델: 법률, 헬스케어와 같은 특정 도메인에 특화된 파운데이션 모델이 강력한 위치를 차지할 것으로 예상된다. 이는 해당 분야의 전문 지식과 결합하여 더욱 정확하고 신뢰할 수 있는 솔루션을 제공할 것이다.
AI 인프라의 통합: 파운데이션 모델은 CRM(고객 관계 관리) 및 ERP(전사적 자원 관리) 시스템 내부에 보이지 않는 인프라로 통합되어, 기업 운영의 효율성을 조용히 혁신할 것으로 전망된다.
6.2. 범용 인공지능(AGI)으로의 발전 가능성
파운데이션 모델은 범용 인공지능(Artificial General Intelligence, AGI) 실현을 향한 중요한 발걸음으로 여겨진다. AGI는 인간이나 다른 동물이 수행할 수 있는 모든 지적 작업을 이해하거나 학습할 수 있는 가상의 지능형 에이전트를 의미한다.
AGI로의 기여: 파운데이션 모델은 특정 작업에만 집중하는 협소 인공지능(Artificial Narrow Intelligence, ANI)을 넘어, 여러 작업을 수행하고 적응할 수 있는 능력을 보여주며 AGI로의 전환 가능성을 제시한다. 그들의 범용성과 전이 학습 능력은 AGI의 핵심 요소인 광범위한 지식과 추론 능력을 구축하는 데 기여할 수 있다.
현재의 한계: 하지만 AGI의 실현은 아직 멀리 떨어져 있는 목표이다. 현재의 파운데이션 모델은 여전히 특정 도메인이나 양식 내에서의 학습에 특화되어 있으며, 인간 수준의 일반화, 추론, 적응 학습 능력을 완전히 갖추지는 못했다.
새로운 접근 방식: 지능형 파운데이션 모델(IFM)과 같은 새로운 연구는 언어, 비전 등 특정 도메인의 패턴 학습을 넘어, 다양한 지능형 행동으로부터 직접 학습하여 지능의 근본적인 메커니즘을 습득하는 것을 목표로 한다. 이는 생물학적 신경 시스템의 동역학을 모방하는 새로운 네트워크 아키텍처와 학습 목표를 통해 AGI에 접근하려는 시도이다.
6.3. 사회 및 산업에 미칠 영향
파운데이션 모델은 사회 전반과 다양한 산업 분야에 광범위한 영향을 미칠 것으로 예상된다.
산업 혁신 가속화: 헬스케어, 법률, 교육, 전자상거래, 자율 주행, 농업 등 거의 모든 산업 분야에서 파운데이션 모델을 활용한 혁신이 가속화될 것이다. 이는 제품 개발 시간 단축, 운영 효율성 증대, 새로운 서비스 창출로 이어진다.
생산성 향상 및 비용 절감: 파운데이션 모델은 반복적이고 창의적인 작업을 자동화하여 생산성을 크게 향상시키고, 기업이 새로운 AI 애플리케이션을 더 빠르고 저렴하게 개발할 수 있도록 돕는다.
새로운 직업 창출 및 직무 변화: 자동화로 인해 일부 직업이 사라지거나 변화하는 동시에, AI 모델을 개발, 관리, 활용하는 새로운 유형의 직업이 창출될 것이다. AI와의 협업 능력이 미래 인력의 중요한 역량이 될 것이다.
초개인화 경험 제공: 파운데이션 모델은 고객에게 초개인화된 제품, 서비스, 콘텐츠를 제공함으로써 고객 만족도를 높이고 기업의 수익 증대로 이어질 수 있다.
사회 구조 변화 및 윤리적 책임 강화: AI 시스템이 사회의 일상 업무와 의사 결정에 더욱 깊이 통합되면서 사회 구조 전반에 걸친 변화가 예상된다. 이에 따라 AI의 책임감 있는 개발 및 사용, 윤리적 고려사항 준수, 그리고 법적 규제 준수의 중요성이 더욱 강조될 것이다.
참고 문헌
Foundation model - Wikipedia. https://en.wikipedia.org/wiki/Foundation_model
What are Foundation Models? - Generative AI - AWS. https://aws.amazon.com/what-is/foundation-models/
Use Cases for Computer Vision Foundation Models - Roboflow Blog (2023-08-29). https://blog.roboflow.com/computer-vision-foundation-models/
What are foundation models? | Google Cloud. https://cloud.google.com/use-cases/foundation-models
What are the key characteristics of foundational models? - Deepchecks. https://deepchecks.com/glossary/foundation-models-characteristics/
What are foundation models for AI? - Red Hat (2025-12-02). https://www.redhat.com/en/topics/ai/what-are-foundation-models
What are Foundation Models? (Plus Types and Use Cases) - Couchbase (2024-04-29). https://www.couchbase.com/blog/what-are-foundation-models/
What Are Foundation Models? - IBM. https://www.ibm.com/topics/foundation-models
Foundation Models: Powering the AI Revolution - Viso Suite (2024-09-20). https://viso.ai/deep-learning/foundation-models/
The power of foundation models - Toloka AI (2023-10-26). https://toloka.ai/blog/the-power-of-foundation-models/
[기고] 무엇이 파운데이션 모델을 특별하게 하는가 - AI타임스 (2024-10-09). https://www.aitimes.com/news/articleView.html?idxno=159359
파운데이션 모델이란?- 생성형 AI의 파운데이션 모델 설명 - AWS. https://aws.amazon.com/ko/what-is/foundation-models/
파운데이션 모델이란 무엇인가요? - Google Cloud. https://cloud.google.com/use-cases/foundation-models?hl=ko
Generative AI & Foundation Models: A Look into the Future - Intel Capital. https://www.intelcapital.com/generative-ai-foundation-models-a-look-into-the-future/
파운데이션 모델이란 무엇인가요? - IBM. https://www.ibm.com/kr-ko/topics/foundation-models
Foundation Models: The Benefits, Risks, and Applications - V7 Go (2023-08-31). https://www.v7labs.com/blog/foundation-models
The Foundation Models Reshaping Computer Vision | by The Tenyks Blogger | Medium (2023-10-26). https://medium.com/@thetenyksblogger/the-foundation-models-reshaping-computer-vision-d064ddb44322
How foundation models streamline AI development? | by Agihx - Medium (2024-06-03). https://medium.com/@agihx/how-foundation-models-streamline-ai-development-5f7202359483
How Have Foundation Models Redefined Computer Vision Using AI? - Encord (2024-04-30). https://encord.com/blog/foundation-models-computer-vision/
From Pixels To Perception: The Impact Of Foundation Models For Vision - Forrester (2024-09-06). https://www.forrester.com/blogs/from-pixels-to-perception-the-impact-of-foundation-models-for-vision/
파운데이션 모델 - 위키백과, 우리 모두의 백과사전. https://ko.wikipedia.org/wiki/%ED%8C%8C%EC%9A%B4%EB%8D%B0%EC%9D%B4%EC%85%98_%EB%AA%A8%EB%8D%B8
Foundational Model vs. LLM: Understanding the Differences | by Novita AI - Medium (2024-05-13). https://medium.com/@novita.ai/foundational-model-vs-llm-understanding-the-differences-534d70b5d55b
Foundation Models: Scaling Large Language Models | by Luhui Hu - Towards AI (2023-03-31). https://towardsai.net/p/foundation-models-scaling-large-language-models
Foundation Model vs LLM: Key Differences Explained - Openxcell (2025-01-20). https://www.openxcell.com/blog/foundation-model-vs-llm/
3 Ways to Adapt a Foundation Model to Fit Your Specific Needs - Kili Technology. https://www.kili-technology.com/blog/3-ways-to-adapt-a-foundation-model-to-fit-your-specific-needs
Foundation Models: The Building Blocks of Next-Gen AI (2023-05-24). https://www.kloudportal.com/insights/foundation-models-the-building-blocks-of-next-gen-ai/
How Are Foundation Models Fuelling the Future of AI? - SG Analytics (2022-06). https://www.sganalytics.com/blog/how-are-foundation-models-fuelling-the-future-of-ai/
What Are Generative AI, Large Language Models, and Foundation Models? | Center for Security and Emerging Technology - CSET Georgetown (2023-05-12). https://cset.georgetown.edu/article/what-are-generative-ai-large-language-models-and-foundation-models/
Scaling Foundation Models: Challenges in Memory, Compute, and Efficiency | Shieldbase. https://shieldbase.io/blog/scaling-foundation-models-challenges-in-memory-compute-and-efficiency
Foundation Models for Source Code | Niklas Heidloff (2023-02-01). https://heidloff.net/article/foundation-models-for-source-code/
GLM-4.5: Reasoning, Coding, and Agentic Abililties - Z.ai Chat (2025-07-28). https://z.ai/blog/glm-4-5-reasoning-coding-and-agentic-abililties
AI Foundation Models : What's Next for 2025 and Beyond - YouTube (2025-02-05). https://www.youtube.com/watch?v=UFeUOZJSwFY
How to Ensure Sufficient Data for AI Foundation Models - Huawei BLOG (2024-01-08). https://blog.huawei.com/2024/01/08/how-to-ensure-sufficient-data-for-ai-foundation-models/
The New Age of AI: Harnessing Foundation Models with Self-Supervised Learning, Fine-Tuning, and More | by buse köse | Medium (2024-11-14). https://medium.com/@busekose/the-new-age-of-ai-harnessing-foundation-models-with-self-supervised-learning-fine-tuning-and-more-a53d30829878
How ChatGPT and our foundation models are developed - OpenAI Help Center. https://help.openai.com/en/articles/8672159-how-chatgpt-and-our-foundation-models-are-developed
Scalability and Efficiency of Foundation Models for Big Data Analytics - ResearchGate (2025-01-25). https://www.researchgate.net/publication/380720888_Scalability_and_Efficiency_of_Foundation_Models_for_Big_Data_Analytics
Foundation Models | Apple Developer Documentation. https://developer.apple.com/documentation/foundationmodels/
Self-Supervised Learning and Foundation models | by Anushka Chathuranga | Medium (2024-02-15). https://medium.com/@anushka-chathuranga/self-supervised-learning-and-foundation-models-31a72d1f7743
Introducing Apple's On-Device and Server Foundation Models (2024-06-10). https://machinelearning.apple.com/research/introducing-apple-foundation-models
Exploring the Foundation Models framework - Create with Swift (2025-08-07). https://createwithswift.com/exploring-the-foundation-models-framework/
Stanford AI Experts Predict What Will Happen in 2026 (2025-12-15). https://hai.stanford.edu/news/stanford-ai-experts-predict-what-will-happen-2026
AI at Scale: How Foundation Models Are Reshaping Enterprise Tech - Premier IT Data Engineering Consulting Partner - KloudPortal (2025-08-05). https://www.kloudportal.com/insights/ai-at-scale-how-foundation-models-are-reshaping-enterprise-tech/
Numbers Station: Integrating Foundation Models into the Modern Data Stack: Challenges and Solutions - ZenML LLMOps Database. https://zenml.io/blog/numbers-station-integrating-foundation-models-into-the-modern-data-stack-challenges-and-solutions
[2511.10119] Intelligence Foundation Model: A New Perspective to Approach Artificial General Intelligence - arXiv (2025-11-13). https://arxiv.org/abs/2511.10119
개발이다. 관민 합동으로 설립될 AI 기업이 5년간 약 1조엔 규모의 공적 지원을 받아 자국어 기반 거대 언어모델을 구축할 계획이다. 둘째, 데이터 인프라 확충으로 AI 학습에 필요한 데이터센터와 컴퓨팅 자원을 확보한다. 셋째, ‘피지컬AI(Physical AI
피지컬 AI
1. 피지컬 AI란 무엇인가
피지컬 AI(Physical AI)는 인공지능이 디지털 영역을 넘어 물리적 시스템과 결합해 실제 세계에서 스스로 인식, 판단, 행동할 수 있는 기술입니다.
기존 AI는 텍스트나 이미지 같은 디지털 데이터 분석에 머물렀다면, 피지컬 AI는 센서와 로봇 같은 “몸”을 갖고 현실 환경을 이해하고 직접 행동합니다.
2. 피지컬 AI의 핵심 구성 요소
피지컬 AI는 크게 세 가지 요소로 구성됩니다:
(1) 센서 기반의 인지, (2) 데이터 기반의 판단, (3) 물리적 세계로의 행동.
센서는 카메라, LiDAR, 음향 센서 등으로 환경 정보를 수집하고, 판단 단계에서는 AI가 어떤 행동을 할지 결정합니다. 행동 단계에서는 액추에이터로 실제 물리적인 작업을 수행합니다.
3. 피지컬 AI의 작동 원리
피지컬 AI는 현실 세계를 실시간으로 분석하고 그에 맞는 행동을 수행하는 루프를 지속적으로 수행합니다. 이 과정은 ‘인지 → 판단 → 행동 → 학습’이라는 순환 구조로 진행되며, 실제 환경에서의 상호작용 경험을 통해 스스로 개선됩니다.
4. 합성 데이터가 피지컬 AI에 중요한 이유
실제 환경 데이터를 충분히 수집하는 것은 비용과 안전 이슈 때문에 매우 어렵습니다. 따라서 합성 데이터는 물리 기반 시뮬레이션을 통해 다양하고 위험이 없는 상황을 생성해 학습에 사용됩니다. 이는 현실에서 발생하기 어려운 상황도 모델이 경험하게 해 주며, 초기 학습 효율을 크게 높입니다.
5. 강화 학습이 피지컬 AI에서 하는 역할
피지컬 AI는 환경과 상호작용하면서 보상 기반으로 학습하는 강화 학습을 활용합니다. 강화 학습은 로봇이 스스로 시행착오를 통해 최적 행동을 찾도록 돕고, 이를 통해 복잡한 움직임 제어나 동적 상황 대응 능력을 기릅니다. 이 학습 방식은 시뮬레이션 환경에서 특히 효과적입니다.
6. 피지컬 AI를 시작하려면 어떻게 해야 하나
피지컬 AI를 적용하거나 개발하려면 다음과 같은 단계가 필요합니다:
센서 및 로봇 플랫폼 선택
시뮬레이션 기반 환경 구축
합성 및 실제 데이터를 활용한 모델 학습
강화 학습 및 반복적 개선
초기에는 로봇 시뮬레이터와 오픈소스 도구들을 활용해 작은 시나리오부터 테스트해 보는 것이 좋습니다.
NVIDIA Glossary: What is Physical AI? — https://www.nvidia.com/en-us/glossary/generative-physical-ai/ NVIDIA
Deloitte: AI goes physical — https://www.deloitte.com/us/en/insights/topics/technology-management/tech-trends/2026/physical-ai-humanoid-robots.html Deloitte
Superb AI Blog: 피지컬 AI 기술 구조 — https://blog-ko.superb-ai.com/physical-ai-deep-dive/ 슈퍼브 블로그
AWS Blog: Physical AI in practice — https://aws.amazon.com/blogs/machine-learning/physical-ai-in-practice-technical-foundations-that-fuel-human-machine-interactions/ Amazon Web Services, Inc.
HCLTech Trends: Physical AI and real-world intelligence — https://www.hcltech.com/ja-jp/trends-and-insights/physical-ai-and-the-new-age-of-real-world-intelligence/ HCLTech
Additional overview on Physical AI definition — https://www.kim2kie.com/res/html/0_formula/00%20AI/Physical%20AI.html Kim2kie
)’로 불리는 영역으로, 소프트웨어가 로봇과 산업 기계를 직접 제어하는 기술에 투자한다. 이는 세계 최고 수준의 제조업·로봇 산업을 보유한 일본이 AI를 물리적 세계와 결합하려는 전략적 선택이다.
| 항목 | 예산(엔) | 달러 환산 | 원화 환산(1,450원) |
|---|---|---|---|
| AI·반도체 총액 | 1조 2,300억엔 | 79억 달러 | 약 11조 4,550억 원 |
| 라피더스 | 1,500억엔 | 9.7억 달러 | 약 1조 4,065억 원 |
| AI 개발 | 3,873억엔 | 25억 달러 | 약 3조 6,250억 원 |
| 탈탄소·차세대 원자로 | 1,220억엔 | 7.9억 달러 | 약 1조 1,455억 원 |
| 희토류 광물
광물 1. 서론: 우리 삶을 구성하는 기본 단위, 광물 우리가 살아가는 현대 문명은 광물(mineral)이라는 기반 위에 세워져 있다. 손에 든 스마트폰의 리튬 배터리부터 도시를 이루는 콘크리트 속 시멘트, 그리고 밤거리를 밝히는 불꽃놀이의 화려한 색상에 이르기까지, 광물은 우리 삶의 거의 모든 측면에 깊숙이 관여하고 있다. 미국 지질조사국(USGS)에 따르면, 미국인 한 명이 표준적인 생활 수준을 유지하기 위해 연간 약 18.4톤(40,630파운드) 이상의 광물이 필요하다. 이처럼 광물은 인류의 번영과 기술 발전에 필수적인 자원이지만, 그 본질에 대해서는 종종 오해를 받곤 한다. 가장 흔한 오해는 광물과 암석(rock)을 혼동하는 것이다. 이 둘의 관계를 명확히 이해하는 것이 광물학의 첫걸음이다. 간단히 말해, 광물은 암석을 구성하는 '기본 재료' 또는 '벽돌'이다. 암석은 하나 또는 그 이상의 광물이 모여 이루어진 자연적인 집합체인 반면, 광물은 고유한 화학 조성과 규칙적인 원자 배열 구조를 가진 단일 물질이다. 이 관계를 설명하는 데 유용한 비유는 '초콜릿 칩 쿠키'이다. 만약 쿠키 전체가 하나의 '암석'이라면, 쿠키를 구성하는 밀가루, 설탕, 버터, 초콜릿 칩 등 각각의 재료가 바로 '광물'에 해당한다. 각 재료는 고유한 성질을 가지고 있으며, 이들이 모여 쿠키라는 새로운 실체를 만들어낸다. 하지만 이 비유는 한 단계 더 나아갈 수 있다. 재료들이 저절로 쿠키가 되지 않듯, 광물도 저절로 암석이 되지 않는다. 재료를 섞고, 모양을 만들고, 오븐에 굽는 '과정'이 있어야 비로소 쿠키가 완성된다. 마찬가지로, 마그마가 식거나(화성암), 퇴적물이 쌓이고 굳거나(퇴적암), 기존 암석이 높은 열과 압력을 받는(변성암) 것과 같은 특정한 '지질학적 과정'을 거쳐야만 광물들이 모여 특정한 암석을 형성한다. 이처럼 광물은 지구를 구성하는 가장 기본적인 고체 물질이자, 지구의 역동적인 역사를 기록하는 중요한 단서이다. 본 글에서는 광물의 과학적 정의부터 체계적인 분류법, 감별에 사용되는 물리적 특성, 그리고 인류의 지속 가능한 미래에 기여하는 역할까지 광물학의 핵심적인 내용을 심도 있게 탐구하고자 한다. 2. 광물의 과학적 정의: 무엇이 광물을 만드는가? 어떤 물질을 '광물'이라고 부르기 위해서는 국제광물학회(International Mineralogical Association, IMA)가 공인한 엄격한 과학적 기준을 충족해야 한다. 이 기준들은 광물을 다른 자연 물질이나 인공 물질과 명확히 구분하는 역할을 한다. 광물로 정의되기 위한 5가지 핵심 조건은 다음과 같다. 자연적 산출 (Naturally Occurring): 광물은 반드시 인위적인 개입 없이 자연적인 지질학적 과정을 통해 생성되어야 한다. 예를 들어, 실험실에서 고온·고압으로 만든 합성 다이아몬드나 공장 용광로의 폐기물(slag)에서 발견되는 아름다운 결정은 화학적, 물리적으로 자연산 광물과 동일하더라도 광물로 인정되지 않는다. 이 조건은 광물이 지구의 자연사를 담고 있는 기록물이라는 점을 강조한다. 고체 (Solid): 표준 온도 및 압력(STP) 조건에서 고체 상태로 존재해야 한다. 따라서 액체 상태인 물이나 수은은 광물이 아니다. 하지만 물이 얼어서 만들어진 고체인 '얼음(ice)'은 다른 모든 조건을 만족하기 때문에 엄연한 광물로 분류된다. 실제로 빙하는 방해석으로 이루어진 석회암처럼, 얼음이라는 단일 광물로 구성된 '단광물 암석(mono-mineralic rock)'으로 간주된다. 무기물 (Inorganic): 생명체의 유기적 활동과 직접적인 관련이 없는 무기적 과정을 통해 형성되어야 한다. 예를 들어, 조개가 탄산칼슘으로 만든 껍데기나 진주, 산호는 생명 활동의 산물이므로 광물이 아니다. 하지만 여기에는 미묘한 예외가 존재한다. 과학적 정의는 현실의 복잡성을 반영하기 위해 진화하는데, 일부 광물학자들은 정의에 "지질학적 과정의 결과로 형성된"이라는 문구를 포함하여, 유기물에서 기원했더라도 오랜 지질학적 과정을 거쳐 안정된 화합물이 된 일부 유기염(organic salts) 등은 광물로 인정할 수 있는 여지를 둔다. 이는 과학적 정의가 고정불변의 법칙이 아니라, 자연을 더 잘 분류하기 위해 지속적으로 논의되고 발전하는 합의의 결과물임을 보여준다. 일정한 화학 조성 (Definite Chemical Composition): 특정한 화학식으로 표현할 수 있는 고유한 화학 조성을 가져야 한다. 예를 들어, 석영(Quartz)의 화학식은 항상 SiO2이고, 암염(Halite)은 NaCl이다. 물론 일부 광물에서는 특정 원소가 비슷한 크기와 전하를 가진 다른 원소로 치환될 수 있어 화학 조성이 일정한 범위 내에서 변하기도 한다. 대표적인 예가 감람석(Olivine)으로, 화학식은 (Mg,Fe)2SiO4로 표기된다. 이는 마그네슘(Mg)과 철(Fe)이 결정 구조 내에서 서로를 대체할 수 있음을 의미한다. 규칙적인 내부 구조 (Ordered Internal Structure): 광물을 이루는 원자나 이온들이 3차원 공간에서 규칙적이고 반복적인 패턴으로 배열되어 있어야 한다. 이러한 상태를 '결정질(crystalline)'이라고 부른다. 이 규칙적인 내부 구조 때문에 광물은 고유의 대칭성을 지닌 기하학적 형태, 즉 결정형(crystal form)을 나타내게 된다. 반면, 화산 활동으로 마그마가 매우 빠르게 식어 원자들이 규칙적으로 배열될 시간 없이 굳어버린 화산유리(volcanic glass)나 흑요석(obsidian)은 원자 배열이 불규칙한 '비결정질(amorphous)' 상태이므로 광물이 아닌 '준광물(mineraloid)'로 분류된다. 이처럼 광물의 정의는 자연에서 발견되는 물질의 근본적인 특성을 규정하는 정교한 과학적 틀이다. 3. 광물의 이름: 그 속에 담긴 역사와 과학 모든 광물에는 고유한 이름이 있으며, 그 이름 속에는 발견 당시의 역사, 과학적 지식, 그리고 문화가 담겨 있다. 광물 명명법의 변천사는 과학이 발전해온 과정을 그대로 반영하는 흥미로운 거울과 같다. 고대부터 현대에 이르기까지 광물 이름이 지어지는 방식은 크게 네 가지 범주로 나눌 수 있으며, 이는 인류가 자연을 인식하는 방식의 변화를 보여준다. 초기 단계는 물리적 특성에 기반한 명명이다. 고대인들은 분석 장비 없이 오직 감각에 의존했기 때문에, 광물의 색, 형태, 반응 등 눈에 띄는 특징으로 이름을 붙였다. 남정석 (Kyanite): 선명한 푸른색 때문에 그리스어로 '파란색'을 의미하는 '키아노스(kyanos)'에서 그 이름이 유래했다. 능망가니즈석 (Rhodochrosite): 아름다운 장미색을 띠어 '장미'를 뜻하는 그리스어 '로돈(rhodon)'과 '색'을 뜻하는 '크로스(chros)'를 합쳐 명명되었다. 황철석 (Pyrite): 쇠로 내리치면 불꽃이 튀는 성질 때문에 '불'을 의미하는 그리스어 '피르(pyr)'에서 유래했다. '어리석은 자의 금(fool's gold)'이라는 별명으로도 유명하다. 과학적 탐험이 활발해지면서 산출 지역을 기반으로 한 명명이 등장했다. 새로운 광물이 처음 발견된 지역의 이름을 따는 것은 그 광물의 출처를 명확히 하는 방법이었다. 일메나이트 (Ilmenite): 러시아 우랄 산맥의 일멘(Ilmen) 산맥에서 처음 발견되어 명명되었다. 엘바이트 (Elbaite): 이탈리아의 엘바(Elba) 섬에서 발견된 전기석의 일종이다. 18세기 이후 광물학이 독립된 학문으로 자리 잡으면서, 저명한 인물을 기념하는 명명 방식이 나타났다. 이는 과학자 공동체가 형성되고, 선구적인 연구자들의 공헌을 기리는 문화가 생겨났음을 의미한다. 프레나이트 (Prehnite): 1774년 남아프리카 희망봉에서 이 광물을 발견한 네덜란드 군인 헨드릭 본 프렌(Hendrik Von Prehn) 대령의 이름을 딴 최초의 사례로 알려져 있다. 코디어라이트 (Cordierite): 현미경을 이용한 광물 연구의 선구자인 프랑스 광물학자 루이 코르디에(Louis Cordier)를 기리기 위해 1813년에 명명되었다. 마지막으로, 화학 분석 기술이 비약적으로 발전한 현대에는 화학 성분에 기반한 명명이 보편화되었다. 이는 광물의 본질이 그 화학적 구성에 있음을 명확히 하는 가장 과학적인 방법이다. 캐번사이트 (Cavansite): 광물을 구성하는 주요 원소인 Calcium(칼슘), Vanadium(바나듐), Silicate(규산염)의 앞 글자를 따서 조합한 이름이다. 오늘날 새로운 광물의 이름은 발견자가 제안하되, 국제광물학회(IMA) 산하의 신광물명명분류위원회(Commission on New Minerals, Nomenclature and Classification, CNMNC)의 엄격한 심사를 거쳐 공식적으로 승인된다. 또한, 대부분의 광물 이름은 '돌'을 의미하는 고대 그리스어 '리토스(lithos)'에서 파생된 접미사 '-ite'로 끝나는 관례를 따른다. 이처럼 광물의 이름은 단순한 명칭을 넘어, 관찰에서 분석으로, 그리고 국제적 표준화로 나아간 과학 발전의 역사를 고스란히 담고 있다. 4. 광물의 체계적 분류: 거대한 광물 세계의 지도 현재까지 알려진 광물의 종류는 5,700여 종에 달하며, 지금도 계속해서 새로운 광물이 발견되고 있다. 이 방대한 광물 세계를 체계적으로 이해하기 위해 광물학자들은 두 가지 핵심적인 분류 기준을 사용한다. 바로 '화학적 조성'과 '결정 구조'이다. 이 두 분류 체계는 각각 광물의 '성분'과 '설계도'에 해당하며, 상호 보완적으로 광물의 정체성을 규정한다. 4.1. 화학적 조성에 따른 분류: 데이나 분류 체계 광물을 분류하는 가장 보편적이고 근본적인 방법은 화학 성분에 기초하는 것이다. 19세기 중반 미국의 저명한 광물학자 제임스 드와이트 데이나(James Dwight Dana)가 창안한 '데이나 분류 체계(Dana Classification System)'는 광물의 화학식에서 음이온(anion) 또는 음이온 복합체의 종류에 따라 광물을 그룹화한다. 음이온은 광물의 기본적인 물리적, 화학적 특성을 결정하는 데 가장 큰 영향을 미치기 때문에 이 분류법은 매우 효과적이다. 주요 8개의 광물 그룹은 다음과 같다. 원소 광물 (Native Elements): 금(Au), 은(Ag), 구리(Cu), 다이아몬드(C), 흑연(C)처럼 다른 원소와 결합하지 않은 단일 원소로만 이루어진 광물이다. 황화 광물 (Sulfides): 황 이온(S2−)이 주요 음이온인 광물 그룹이다. 대부분 금속 광택을 띠며, 황철석(Pyrite, FeS2), 방연석(Galena, PbS) 등 중요한 금속 광석이 여기에 속한다. 산화 광물 (Oxides): 산소 이온(O2−)이 금속 원소와 결합한 광물이다. 적철석(Hematite, Fe2O3), 자철석(Magnetite, Fe3O4)과 같은 철광석과 보석으로 유명한 강옥(Corundum, Al2O3 - 루비, 사파이어)이 포함된다. 할로겐 광물 (Halides): 염소(Cl−), 플루오린(F−) 등 할로겐족 원소가 음이온으로 작용하는 광물이다. 물에 잘 녹고 부드러운 특징이 있으며, 소금의 주성분인 암염(Halite, NaCl)이 대표적이다. 탄산염 광물 (Carbonates): 탄산염 이온((CO3)2−)을 포함하는 광물이다. 대부분 묽은 염산에 반응하여 거품을 내며 녹는 특징이 있다. 방해석(Calcite, CaCO3)과 백운석(Dolomite, CaMg(CO3)2)이 여기에 속한다. 황산염 광물 (Sulfates): 황산염 이온((SO4)2−)을 포함하며, 주로 증발암 환경에서 형성된다. 석고(Gypsum, CaSO4⋅2H2O)와 중정석(Barite, BaSO4)이 대표적이다. 인산염 광물 (Phosphates): 인산염 이온((PO4)3−)을 포함하는 광물 그룹이다. 생물의 뼈나 이의 성분이기도 한 인회석(Apatite, Ca5(PO4)3(F,Cl,OH))이 가장 흔하다. 규산염 광물 (Silicates): 규소(Si)와 산소(O)가 결합한 규산염 사면체((SiO4)4−)를 기본 구조로 하는, 가장 거대하고 중요한 광물 그룹이다. 지각 질량의 90% 이상을 차지하며, 석영, 장석, 운모, 각섬석, 휘석, 감람석 등 대부분의 조암광물(암석을 이루는 주된 광물)이 여기에 속한다. 규산염 광물은 이 사면체가 결합하는 방식(독립, 단일 사슬, 이중 사슬, 판상, 망상 등)에 따라 더욱 세분화된다. 4.2. 결정 구조에 따른 분류: 7가지 결정계 화학적 조성이 광물의 '재료'라면, 결정 구조는 그 재료로 지은 '건축 양식'에 비유할 수 있다. 광물 내부의 원자들이 배열되는 방식은 고도의 대칭성을 가지며, 이 대칭성의 종류에 따라 모든 광물은 7개의 결정계(Crystal Systems) 중 하나에 속하게 된다. 각 결정계는 가상의 결정축(crystallographic axes)들의 상대적인 길이(a, b, c)와 축 사이의 각도(α, β, γ)에 의해 수학적으로 정의된다. 이 두 분류 체계는 서로 밀접하게 연결되어 있다. 광물의 화학적 조성과 원자 간 결합 방식이 원자들이 3차원 공간에서 어떻게 배열될지를 결정하고, 그 결과 특정 결정 구조가 형성되기 때문이다. 가장 극적인 예는 다이아몬드(Diamond)와 흑연(Graphite)이다. 두 광물은 모두 순수한 탄소(C)로 이루어져 화학적으로는 동일하지만, 원자 배열 방식이 완전히 다르다. 다이아몬드는 탄소 원자들이 모든 방향으로 강하게 결합한 3차원 그물 구조(등축정계)를 가져 매우 단단하고, 흑연은 탄소 원자들이 얇은 판 모양으로 약하게 결합한 층상 구조(육방정계)를 가져 쉽게 쪼개지고 무르다. 이처럼 화학 성분이 같아도 결정 구조가 다르면 전혀 다른 광물이 되며, 이는 화학이 구조를 결정하고, 구조가 물리적 특성을 결정한다는 광물학의 핵심 원리를 보여준다. 7가지 결정계는 대칭성이 높은 순서부터 낮은 순서로 다음과 같이 나뉜다. 5. 광물의 물리적 특성: 보석을 감별하는 과학적 눈 광물의 종류를 알아내는 과정은 마치 탐정이 단서를 모아 범인을 추적하는 것과 같다. 광물학자나 보석 감정사들은 광물이 가진 고유한 물리적 특성들을 단서로 활용하여 그 정체를 밝혀낸다. 이러한 물리적 특성들은 결코 임의적인 것이 아니며, 광물 내부의 미시적인 화학 조성과 원자 구조가 거시적으로 발현된 결과물이다. 따라서 이 특성들을 이해하는 것은 광물의 보이지 않는 내부 구조를 읽어내는 것과 같다. 굳기 (Hardness): 굳기는 광물이 긁힘에 대해 얼마나 저항하는지를 나타내는 척도이다. 이는 광물 내부의 원자 간 결합 강도를 직접적으로 반영한다. 결합이 강할수록 광물은 더 단단하다. 1822년 독일의 광물학자 프리드리히 모스(Friedrich Mohs)는 10가지 표준 광물을 이용하여 상대적인 굳기를 비교하는 '모스 굳기계(Mohs hardness scale)'를 고안했다. 이 척도는 1(가장 무른 활석)부터 10(가장 단단한 다이아몬드)까지의 숫자로 표시된다. 예를 들어, 어떤 미지의 광물이 정장석(굳기 6)은 긁지만 석영(굳기 7)에는 긁힌다면, 그 광물의 굳기는 6과 7 사이임을 알 수 있다. 색 (Color): 색은 가장 먼저 눈에 띄는 특징이지만, 광물 감별에 있어서는 신뢰도가 가장 낮은 정보일 수 있다. 순수한 광물은 고유의 색을 갖지만, 결정 구조 내에 미량의 불순물 원소가 포함되거나 구조적 결함이 생기면 색이 완전히 달라질 수 있기 때문이다. 대표적인 예가 석영( SiO2)이다. 순수한 석영은 무색투명하지만, 미량의 철(Fe)이 포함되면 보라색 자수정(amethyst)이나 노란색 황수정(citrine)이 되고, 티타늄(Ti)이 포함되면 분홍색 장미석영(rose quartz)이 된다. 조흔색 (Streak): 광물을 초벌구이 자기판(조흔판)에 긁었을 때 나타나는 가루의 색을 말한다. 광물 덩어리의 색은 불순물에 따라 변할 수 있지만, 조흔색은 그 광물의 고유한 색을 보여주기 때문에 훨씬 더 신뢰할 수 있는 감별 기준이다. 예를 들어, 금처럼 보이는 황철석은 놋쇠색을 띠지만 조흔색은 검은색이어서 진짜 금(노란색 조흔)과 쉽게 구별된다. 광택 (Luster): 광물 표면이 빛을 반사하는 방식을 나타내는 성질이다. 크게 금속처럼 반짝이는 **금속 광택(metallic luster)**과 그렇지 않은 **비금속 광택(non-metallic luster)**으로 나뉜다. 비금속 광택은 그 모습에 따라 더욱 세분화되는데, 유리처럼 보이는 유리 광택(vitreous), 다이아몬드처럼 강렬하게 빛나는 금강 광택(adamantine), 기름을 바른 듯한 지방 광택(greasy), 진주 같은 진주 광택(pearly), 비단결 같은 견사 광택(silky) 등이 있다. 쪼개짐(Cleavage)과 깨짐(Fracture): 이 두 특성은 광물에 힘을 가했을 때 부서지는 방식을 설명하며, 내부 원자 구조의 결합 상태를 직접적으로 보여준다. 쪼개짐: 광물 내부에서 원자 간의 결합력이 약한 특정 방향(면)을 따라 평탄하게 쪼개지는 현상이다. 쪼개지는 면의 수와 그 면들이 이루는 각도는 광물마다 고유하여 매우 중요한 감별 기준이 된다. 예를 들어, 운모(Mica)는 종이처럼 얇게 한 방향으로 완벽하게 쪼개지고, 방해석(Calcite)은 기울어진 육면체 모양으로 세 방향으로 쪼개지며, 방연석(Galena)은 정육면체 모양으로 세 방향(서로 90°)으로 쪼개진다. 깨짐: 쪼개짐 면이 발달하지 않은 광물이 불규칙하게 깨지는 현상을 말한다. 모든 방향으로 원자 결합력이 비슷할 때 나타난다. 깨진 면이 조개껍데기 내부처럼 동심원상의 곡면을 보이면 패각상(conchoidal) 깨짐이라고 하며, 석영이나 흑요석에서 잘 관찰된다. 이러한 물리적 특성들을 종합적으로 관찰하고 분석함으로써, 우리는 각 광물이 가진 고유한 '지문'을 읽어내고 그 정체를 파악할 수 있다. 6. 광물과 인간: 수집부터 첨단 과학까지 광물학은 단순히 지구의 물질을 연구하는 순수 과학에 그치지 않고, 인류의 경제, 산업, 환경 문제 해결에 직접적으로 기여하는 응용 학문으로서 그 중요성이 날로 커지고 있다. 아름다운 결정을 수집하는 취미 활동부터 국가의 산업 기반을 이루는 자원 확보, 그리고 첨단 신소재 개발과 환경 정화에 이르기까지 광물은 인간 사회와 다방면으로 상호작용하고 있다. 6.1. 한국의 광물 자원과 연구 동향 한반도는 지질학적으로 복잡한 역사를 거치면서 다양한 광물 자원을 품게 되었다. 특히 남한 지역에서는 금, 은, 납, 아연, 텅스텐, 흑연, 카올린 등 여러 유용한 금속 및 비금속 광물이 산출된다. 이들 광상(ore deposits)의 대부분은 공룡 시대로 알려진 중생대에 한반도 지하 깊은 곳에서 마그마가 식어 굳어진 화강암과 밀접한 관련이 있다. 뜨거운 마그마가 주변 암석을 뚫고 들어오는 과정에서 방출된 고온의 열수 용액이 암석의 틈을 따라 흐르면서 유용한 광물을 침전시켜 형성된 것이다. 이러한 국가의 지질 및 광물 자원을 체계적으로 연구하고 관리하는 핵심 기관이 바로 **한국지질자원연구원(Korea Institute of Geoscience and Mineral Resources, KIGAM)**이다. 1918년 '지질조사소'로 출발한 KIGAM은 100년이 넘는 시간 동안 국토의 지질을 조사하고, 자원을 탐사·개발하며, 지진이나 산사태와 같은 지질재해에 대응하는 국가적 임무를 수행해왔다. KIGAM의 연구 활동은 전통적인 자원 탐사를 넘어, 현대 사회의 요구에 부응하는 미래 지향적 분야로 끊임없이 확장되고 있다. 예를 들어, 채굴한 광물을 효율적으로 처리하고 유용한 물질을 추출하는 '자원활용' 기술, 폐기된 전자제품 등에서 희귀 금속을 회수하는 '자원재활용' 기술, 광산 개발로 인한 환경오염을 복원하는 '환경지질' 연구, 그리고 기후 변화에 대응하기 위한 '탄소 지중 저장(CCS)' 기술 개발 등이 활발히 이루어지고 있다. 특히 최근에는 반도체, 배터리 등 첨단 산업에 필수적인 핵심 광물의 안정적 확보가 국가적 과제로 떠오르면서, 베트남, 인도네시아 등 아세안(ASEAN) 국가들과 핵심 광물 공동 탐사 및 연구 협력을 강화하고 있다. 이는 광물 연구가 단순한 학문을 넘어 국가의 경제 안보와 직결되는 전략적 분야임을 보여준다. 6.2. 응용 광물학: 환경과 신소재를 위한 과학 응용 광물학(Applied Mineralogy)은 광물에 대한 근본적인 지식을 재료과학, 환경과학, 화학공학 등 다양한 산업 분야의 문제를 해결하는 데 적용하는 학문이다. 자연이 수십억 년에 걸쳐 만들어낸 광물의 독특한 구조와 특성은 인류에게 새로운 기술적 영감을 제공하는 보고(寶庫)와 같다. 환경 정화 기술 분야에서 광물은 뛰어난 해결사 역할을 한다. 제올라이트(Zeolite)나 특정 점토 광물들은 스펀지처럼 미세한 구멍이 많은 구조를 가지고 있어, 오염된 물이나 토양 속의 중금속이나 유해 물질을 흡착하여 제거하는 데 효과적으로 사용된다. 최근에는 더욱 적극적인 방식으로 광물을 활용하는 '고급산화공정(Advanced Oxidation Processes, AOPs)' 연구가 주목받고 있다. 이 기술은 적철석(hematite)이나 황철석(pyrite)과 같은 흔한 광물을 촉매로 사용하여 강력한 산화제를 만들어내고, 이를 통해 물속의 난분해성 유기 오염물질을 무해한 물질로 분해한다. 이는 저렴하고 친환경적인 방식으로 수질을 정화할 수 있는 혁신적인 방법으로 평가받고 있다. 신소재 개발 분야에서도 광물은 중요한 영감의 원천이다. 과학자들은 자연 광물의 결정 구조와 물리적 특성을 모방하거나 응용하여 새로운 기능성 재료를 만들어낸다. 예를 들어, 지질학 실험실에서 광물을 합성하던 열수 합성법(hydrothermal synthesis) 기술은 오늘날 위성 항법 장치나 통신 장비에 필수적인 고품질 합성 석영 결정을 생산하는 데 사용된다. 또한, 코디어라이트(cordierite)라는 광물의 낮은 열팽창 특성을 모방한 합성 세라믹은 자동차의 배기가스 정화 장치(촉매 변환기)의 핵심 부품으로 쓰인다. 더 나아가 다이아몬드를 얇은 막 형태로 증착시키는 기술이나, 특정 광물 구조에서 착안한 새로운 반도체 소재 개발 등은 미래 첨단 산업의 지형을 바꿀 잠재력을 지니고 있다. 이처럼 광물학은 지구의 과거를 탐사하는 학문을 넘어, 인류의 지속 가능한 미래를 설계하는 핵심 과학으로 진화하고 있다. 7. 결론: 지속 가능한 미래를 위한 광물 연구의 전망 인류는 지금 거대한 전환의 시기를 맞이하고 있다. 기후 변화에 대응하기 위한 전 지구적 노력은 화석 연료 중심의 에너지 시스템을 청정에너지로 바꾸는 '녹색 전환(Green Transition)'을 가속화하고 있다. 그러나 이 거대한 변화는 예상치 못한 역설을 낳고 있다. 바로 특정 광물 자원에 대한 전례 없는 의존이다. 광물학은 이 새로운 시대의 도전을 해결하고 인류의 지속 가능한 미래를 여는 데 핵심적인 역할을 수행해야 한다. 7.1. 녹색 전환의 역설: 핵심 광물의 부상 청정에너지 기술은 그 자체로 광물 집약적이다. 전기차 한 대에는 내연기관차보다 6배 많은 광물이 필요하며, 해상풍력 발전소는 같은 용량의 가스 발전소보다 13배 많은 광물을 요구한다. 전기차 배터리의 성능을 좌우하는 리튬, 코발트, 니켈, 흑연, 풍력 터빈과 전기차 모터의 영구자석에 필수적인 희토류 원소(Rare Earth Elements), 그리고 이 모든 것을 연결하는 전력망에 막대한 양이 소요되는 구리와 알루미늄 등이 바로 그 주인공이다. 이처럼 청정에너지 전환에 필수적이지만 공급망이 특정 국가에 집중되어 있어 수급 불안의 위험이 큰 광물들을 '핵심 광물(Critical Minerals)'이라고 부른다. 결국 인류는 석유나 석탄과 같은 한 종류의 지질 자원에서 벗어나기 위해, 리튬, 코발트, 희토류 등 훨씬 더 다양하고 복잡한 또 다른 지질 자원 그룹에 깊이 의존하게 되는 '녹색 광물 역설(Green Mineral Paradox)'에 직면한 것이다. 이는 기후 위기 해결이 단순히 지구 자원에 대한 의존을 끝내는 것이 아니라, 자원과의 관계를 근본적으로 재정립해야 하는 과제임을 시사한다. 7.2. 추출에서 관리로: 지속 가능한 자원 순환 이러한 역설을 해결하기 위해 미래의 광물 산업과 연구는 단순한 '추출(extraction)'을 넘어 자원의 전 생애주기를 책임지는 '자원 관리(resource stewardship)'라는 새로운 패러다임으로 전환해야 한다. 이는 더 이상 땅속에서 광물을 캐내는 것에만 집중하는 것이 아니라, 사용, 재활용, 폐기에 이르는 모든 과정을 지속 가능하게 설계하는 것을 의미한다. 이러한 전환을 가능하게 하는 몇 가지 핵심 동력은 다음과 같다. 기술 혁신: 인공지능(AI)과 머신러닝을 활용하여 탐사 성공률을 높이고, 자율주행 채굴 장비로 안전성과 효율성을 극대화하며, 미생물을 이용해 광물을 제련하는 '바이오마이닝(biomining)'과 같은 친환경 기술을 통해 채굴 과정의 환경 발자국을 최소화하는 노력이 이루어지고 있다. 순환 경제 구축: 가장 중요한 변화는 '한 번 사용하고 버리는' 선형 경제에서 '자원을 계속해서 재사용하는' 순환 경제로의 전환이다. 폐배터리나 폐전자제품 등에서 핵심 광물을 회수하는 '도시 광산(urban mining)'은 새로운 광산 개발 수요를 획기적으로 줄일 수 있는 잠재력을 가지고 있다. 국제에너지기구(IEA)는 재활용을 통해 2040년까지 리튬, 코발트, 니켈, 구리 수요의 약 10%를 충당할 수 있으며, 이를 통해 신규 채굴 필요량을 최대 40%까지 줄일 수 있다고 분석했다. 정책과 국제 협력: 각국 정부는 미국의 인플레이션 감축법(IRA)이나 유럽연합(EU)의 핵심원자재법(CRMA)처럼 자국 내 공급망을 강화하고 재활용을 장려하는 강력한 정책을 추진하고 있다. 광물 자원은 특정 지역에 편중되어 있으므로, 안정적이고 지속 가능한 공급망을 구축하기 위해서는 국가 간의 투명하고 공정한 협력이 필수적이다. 결론적으로, 광물은 지구의 역사를 담은 돌멩이를 넘어 인류의 미래를 결정할 전략적 자산이 되었다. 광물학은 지구 깊은 곳에 숨겨진 자원을 찾아내는 전통적인 역할을 넘어, 그 자원을 어떻게 더 효율적으로 사용하고, 어떻게 완벽하게 재활용하며, 어떻게 자연에 대한 영향을 최소화할 것인지에 대한 해답을 제시해야 한다. 광물과의 새로운 관계를 정립하는 이 거대한 도전에 인류의 지속 가능한 미래가 달려 있다. 확보 |
50억엔 | 0.3억 달러 | 약 465억 원 |
| METI 전체 예산 | 3조 700억엔 | 198억 달러 | 약 28조 7,100억 원 |
‘위기관리 투자’라는 이름의 산업 정책
타카이치 내각은 이번 예산 편성의 철학을 ‘위기관리 투자(Crisis Management Investment)’로 정의한다. 위기가 발생하기 전에 핵심 기술의 국내 공급 역량을 선제적으로 구축한다는 논리다. 이는 단순한 산업 보조금을 넘어, 기존의 임시 추경 방식에서 정규 예산으로 편성 방식을 전환했다는 점에서 의미가 크다. 지속 가능한 R&D 투자 기반을 마련하겠다는 의지의 표현이다. 일본 정부는 2026 회계연도 GDP 성장률 전망치를 기존 1.1%에서 1.3%로 상향 조정했으며, 설비투자 증가율은 2.8%로 예상한다. 총 경기부양 패키지 규모는 21조 3,000억엔(약 1,367억 달러, 약 198조 2,150억 원)에 달한다.
글로벌 반도체 전쟁, 일본의 승부수
일본의 이번 예산 확대는 미국의 CHIPS법(527억 달러), 유럽연합의 유럽칩스법(430억 유로), 한국의 K-칩스법과 맞물리는 글로벌 반도체 보조금 경쟁의 일환이다. 특히 라피더스가 TSMC, 삼성전자와 경쟁하며 2nm 양산에 성공할 수 있을지가 핵심 변수다. 라피더스는 2030 회계연도 흑자 전환, 2031 회계연도 기업공개(IPO)를 목표로 하고 있다. 한국 반도체 업계 입장에서는 일본의 공격적 투자가 첨단 파운드리
파운드리
파운드리는 현대 첨단 기술의 근간을 이루는 반도체 산업에서 없어서는 안 될 핵심적인 역할을 수행하는 분야이다. 반도체 설계 전문 기업의 아이디어를 실제 칩으로 구현해내는 파운드리는 기술 혁신과 산업 생태계 발전에 지대한 영향을 미치고 있다. 이 글에서는 파운드리의 기본 개념부터 역사, 핵심 기술, 응용 분야, 현재 시장 동향 및 미래 전망에 이르기까지 심층적으로 다룬다.
목차
1. 파운드리란 무엇인가?
2. 파운드리의 역사와 발전 과정
3. 파운드리 핵심 기술 및 공정 원리
4. 주요 응용 분야 및 활용 사례
5. 현재 파운드리 시장 동향
6. 파운드리 산업의 미래 전망
1. 파운드리란 무엇인가?
파운드리(Foundry)는 반도체 산업에서 외부 업체가 설계한 반도체 제품을 위탁받아 생산, 공급하는 '반도체 위탁 생산' 전문 기업 또는 공장을 의미한다. 본래 금속을 녹여 주물을 만드는 주조 공장에서 유래한 용어로, 반도체 산업에서는 설계 도면을 받아 칩을 제조하는 역할을 담당한다.
파운드리의 기본 개념
파운드리는 반도체 설계 전문 회사인 팹리스(Fabless)로부터 설계 도면을 받아 반도체 칩을 생산하는 역할을 담당한다. 이는 막대한 비용이 드는 반도체 제조 설비 투자 부담을 줄이고 설계에 집중할 수 있게 하는 분업화된 생산 시스템이다. 반도체 제조는 나노미터(nm) 단위의 초미세 공정이 필요하며, 먼지와 온도 등으로부터 제품을 보호하기 위한 고도의 청정 환경과 막대한 자본 투자가 필수적이다. 따라서 팹리스 기업들은 이러한 제조 설비 없이 혁신적인 반도체 설계에만 집중하고, 파운드리가 그 설계를 바탕으로 실제 칩을 생산하는 것이다.
팹리스(Fabless) 및 IDM과의 관계
반도체 산업은 크게 세 가지 형태로 나뉜다. 첫째, 팹리스(Fabless)는 반도체 설계만을 전문으로 하며, 자체 생산 시설(fab)을 보유하지 않는다. 둘째, 파운드리는 팹리스로부터 설계를 위탁받아 반도체를 생산하는 전문 제조 기업이다. 셋째, 종합반도체업체(IDM, Integrated Device Manufacturer)는 반도체 설계부터 생산, 판매까지 모든 과정을 자체적으로 수행한다. 과거에는 IDM 중심의 산업 구조였으나, 반도체 종류가 다양해지고 제조 비용이 기하급수적으로 증가하면서 팹리스와 파운드리로의 분업이 빠르게 진행되었다. 이러한 분업화는 각 기업이 핵심 역량에 집중하여 효율성을 극대화하고, 전체 반도체 산업의 혁신을 가속화하는 데 기여했다.
2. 파운드리의 역사와 발전 과정
파운드리 모델은 반도체 산업의 성장과 함께 필연적으로 등장하며 발전해왔다. 반도체 기술의 복잡성 증가와 제조 비용 상승이 분업화의 주요 동력이 되었다.
초기 반도체 산업과 파운드리 모델의 등장
1980년대 마이크로프로세서 수요가 폭발적으로 증가하면서, 자체 생산 시설이 없는 반도체 설계 업체들을 위해 위탁 생산의 필요성이 인지되기 시작했다. 초기에는 종합반도체사(IDM)의 과잉 설비를 활용하는 방식으로 위탁 생산이 이루어졌으나, 이는 안정적인 생산 수요를 감당하기 어려웠다. 이러한 배경 속에서 설계와 제조를 분리하여 생산만을 전문으로 하는 파운드리 업체의 등장이 요구되었다. 이는 반도체 산업의 막대한 설비 투자 비용과 기술 개발 비용을 고려할 때, 효율적인 자원 배분과 혁신을 위한 필수적인 변화였다.
주요 기업의 성장과 산업 분업화
1981년 서던 캘리포니아 대학교 정보과학부에서 MOSIS(metal-oxide-semiconductor implementation service)와 같은 멀티프로젝트 웨이퍼 주문 시스템이 시작되면서, 여러 설계 업체의 소량 주문을 한 웨이퍼에 통합 생산하는 방식이 가능해졌다. 이러한 시스템은 팹리스 회사들이 반도체 생산에 대한 부담 없이 설계에 집중할 수 있는 기반을 제공했다. 이 시기를 배경으로 대만의 TSMC(Taiwan Semiconductor Manufacturing Company)와 같은 전문 파운드리 기업이 성장하며 팹리스 산업의 발전을 촉진했다. 이후 삼성전자, 인텔과 같은 기존 IDM 업체들도 파운드리 사업 부문을 강화하거나 분리하는 움직임을 보이며 산업 분업화가 가속화되었다. 이처럼 파운드리의 등장은 반도체 산업의 생태계를 재편하고, 기술 혁신의 속도를 높이는 중요한 전환점이 되었다.
3. 파운드리 핵심 기술 및 공정 원리
파운드리는 고성능 반도체 칩을 생산하기 위한 첨단 기술과 복잡하고 정밀한 공정을 수행한다.
반도체 제조 공정 개요
파운드리는 웨이퍼 생산부터 시작하여 반도체 장치의 전체 조립 및 테스트에 이르는 다양한 제조 서비스를 제공한다. 반도체 제조 공정은 크게 웨이퍼 제조, 전공정(Front-end-of-Line, FEOL), 후공정(Back-end-of-Line, BEOL) 및 패키징으로 나뉜다. 전공정은 실리콘 웨이퍼 위에 반도체 소자를 형성하는 과정으로, 산화, 포토(노광), 식각, 증착, 이온 주입, 금속 배선 등의 복잡한 물리·화학 공정으로 이루어진다. 이 과정에서 마스크에 담긴 회로 패턴을 빛을 이용해 웨이퍼에 그리는 포토 공정이 핵심적인 역할을 한다. 후공정에서는 전공정에서 완성된 반도체 소자를 테스트하고 패키징하는 과정을 거쳐 최종 제품을 만든다. 이러한 공정들은 고도의 정밀성과 청정 환경을 요구하며, 최신 반도체 소자의 경우 제조에 최대 15주가 소요될 수 있다.
미세 공정 기술 (예: FinFET, GAA)
파운드리 경쟁력의 핵심은 7나노(nm), 5나노, 3나노와 같은 초미세 공정 기술이다. 나노미터는 반도체 회로 선폭의 최소 단위를 의미하며, 이 숫자가 작을수록 더 많은 트랜지스터를 집적하여 칩의 성능을 향상시키고 전력 효율성을 개선하며 소형화를 가능하게 한다.
초기 평면 구조의 트랜지스터는 미세화가 진행될수록 누설 전류 문제에 직면했다. 이를 극복하기 위해 등장한 기술이 핀펫(FinFET, Fin Field-Effect Transistor)이다. 핀펫은 트랜지스터의 게이트가 채널을 3면에서 감싸는 지느러미(Fin) 형태의 구조를 가져, 전류 제어 능력을 향상시키고 누설 전류를 줄이는 데 효과적이다.
현재 3나노 이하의 초미세 공정에서는 게이트-올-어라운드(GAA, Gate-All-Around) 기술이 주목받고 있다. GAA는 게이트가 채널을 4면에서 완전히 감싸는 구조로, 핀펫보다 더 정교하게 전류를 제어하고 전력 효율을 극대화할 수 있다. 삼성 파운드리는 기존 FinFET 기술의 한계를 넘어 GAA 기술을 3나노 공정에 세계 최초로 적용하며 기술 리더십을 확보하려 노력하고 있다. 이러한 미세 공정 기술의 발전은 칩의 성능 향상, 전력 효율성 개선, 소형화를 가능하게 하여 고성능 반도체 수요를 충족시키는 핵심 동력이 되고 있다.
4. 주요 응용 분야 및 활용 사례
파운드리는 현대 사회의 다양한 첨단 기술 분야에 필수적인 역할을 수행하며, 그 중요성이 더욱 증대되고 있다.
다양한 산업 분야에서의 역할
파운드리에서 생산되는 반도체는 인공지능(AI), 사물인터넷(IoT), 빅데이터, 5G 통신, 자율주행, 첨단 무기체계, 우주·항공 장비 등 광범위한 분야에 필수적으로 사용된다. 특히 AI 반도체 수요가 급증하면서 파운드리의 중요성은 더욱 커지고 있다. AI 반도체는 대규모 데이터 처리와 복잡한 연산을 효율적으로 수행해야 하므로, 초미세 공정 기술을 통해 생산되는 고성능 칩이 필수적이다. 또한 자율주행차의 경우, 센서 인식, 실시간 AI 연산, 물리적 제어가 동시에 요구되어 차량용 반도체가 핵심적인 역할을 하며, 이는 로봇, 산업 자동화 시스템 등 피지컬 AI(Physical AI) 시장으로 확장될 수 있는 기반을 제공한다.
주요 고객 및 제품군
글로벌 파운드리 시장의 선두 주자인 TSMC는 애플, 퀄컴, AMD, 엔비디아, 브로드컴 등 글로벌 팹리스 기업들의 반도체를 위탁 생산하며 시장의 절대 강자로 자리매김했다. 특히 애플은 TSMC 전체 매출의 상당 부분을 차지하는 주요 고객이며, 최근에는 엔비디아가 AI 칩 수요 증가에 힘입어 TSMC의 최대 고객이 될 것이라는 전망도 나오고 있다. 삼성 파운드리 또한 AI 및 고성능 컴퓨팅(HPC)용 칩 수주를 확대하고 있으며, 2028년까지 HPC 매출 비중을 32%로 늘릴 계획이다. 자동차 분야에서는 ADAS(첨단 운전자 보조 시스템) 애플리케이션에 필요한 고성능 칩 제조에 기여하고 있다. 일례로 삼성전자는 첨단 5나노 파운드리 공정으로 암바렐라의 자율주행 차량용 반도체 'CV3-AD685'를 생산하며, AI 성능을 전작 대비 20배 이상 향상시켰다. 이러한 고성능 차량용 반도체는 자율주행 차량의 두뇌 역할을 수행한다.
5. 현재 파운드리 시장 동향
글로벌 파운드리 시장은 소수의 대형 기업들이 주도하며 치열한 경쟁을 벌이고 있다.
글로벌 시장 점유율 및 주요 기업
2025년 2분기 기준, 순수 파운드리 시장에서 TSMC가 70.2%에서 71%에 달하는 압도적인 점유율로 1위를 차지하고 있다. 2위는 삼성전자로 7.3%에서 8%의 점유율을 기록했으며, TSMC와의 격차는 62.9%포인트까지 벌어졌다. 그 뒤를 UMC(4.4%~5%), 글로벌파운드리(3.9%~4%), SMIC(5.1%~5%) 등이 잇고 있다. 2025년 2분기 글로벌 10대 파운드리 기업의 합산 매출은 전 분기 대비 14.6% 증가한 417억 달러를 기록하며 사상 최고치를 경신했다. 이는 주요 스마트폰 고객사의 양산 주기 진입과 인공지능(AI) 칩, 노트북/PC, 서버 등 수요 증가에 기인한 것으로 분석된다.
국가별 경쟁 구도 및 전략
미국, 유럽, 한국, 중국 등 주요국은 반도체 제조 시설을 자국 내로 유치하기 위해 막대한 보조금을 제공하며 생산 능력 확보 경쟁에 나서고 있다. 이는 반도체가 기술 주도권과 안보를 좌우하는 핵심 산업으로 부상했기 때문이다. 예를 들어, 미국은 'CHIPS for America Act'와 같은 법안을 통해 자국 내 반도체 생산 시설 건설에 막대한 연방 예산을 지원하고 있다. 대만 TSMC는 미국 애리조나 캠퍼스에 기존 6개에서 최대 12개 공장 건설을 추진하고 있으며, 삼성전자 또한 미국 텍사스주 테일러시에 대규모 투자를 진행 중이다. 이러한 움직임은 미·중 기술 패권 경쟁 심화와 글로벌 공급망 재편 가속화의 일환으로 해석된다.
AI 반도체 수요 증가와 시장 변화
생성형 AI 시대의 도래로 AI 반도체 수요가 급증하면서, 글로벌 파운드리 시장에 큰 변화를 가져오고 있다. AI 반도체 수요 확대와 중국 정부의 보조금 정책이 맞물려 2025년 2분기 순수 파운드리 시장 매출액은 전년 동기 대비 33% 증가했다. 특히 AI 칩 성능에 중요한 첨단 패키징 용량의 제약이 AI 반도체 부족 현상에 영향을 미치고 있다. 이러한 AI 반도체 수요 증가는 8인치 파운드리의 가격 인상 가능성까지 점쳐지게 한다. TSMC와 삼성전자가 8인치 웨이퍼 생산능력을 축소하는 가운데, AI 확산으로 전력 반도체(Power IC) 수요가 늘어나면서 8인치 팹 가동률이 견조하게 유지되고 있으며, 일부 파운드리 업체들은 5~20% 수준의 가격 인상을 검토 중이다.
6. 파운드리 산업의 미래 전망
파운드리 산업은 기술 혁신과 지정학적 변화 속에서 지속적인 발전을 이룰 것으로 예상된다.
초미세 공정 기술 발전 방향
현재 3나노를 넘어 GAA(Gate-All-Around) 기반의 2나노 공정 경쟁 시대로 진입하고 있다. TSMC와 인텔 등 주요 기업들은 2020년대 중반까지 2나노 생산 공정 계획을 가속화하고 있다. TSMC는 2나노 공정의 팹리스 고객사로 엔비디아, AMD, 애플, 퀄컴 등을 확보한 것으로 알려졌으며, AI용 칩과 모바일 제품용 프로세서가 생산될 예정이다. 성능 향상과 전력 효율 개선을 위한 차세대 트랜지스터 구조 개발 및 극자외선(EUV) 노광 기술 고도화가 핵심 과제로 떠오르고 있다. EUV는 5나노 이하 초미세 패터닝을 위한 필수 장비로, 반도체 미세화의 한계를 극복하는 데 결정적인 역할을 한다. 삼성전자 또한 2나노 공정의 수율 확보와 고객사 유치에 집중하며 TSMC와의 격차를 줄이기 위해 노력하고 있다.
지정학적 리스크와 공급망 다변화
미·중 패권 경쟁 심화와 지정학적 불확실성 증대로 인해 각국은 반도체 제조 시설의 자국 내 유치를 위한 정책을 전개하고 있다. 이는 탈중국 공급망 구축과 TSMC, 삼성전자 등 주요 파운드리 기업의 미국 공장 확대 등 공급망 다변화로 이어지고 있다. 미국은 대만산 수출품 관세를 인하하는 대신 TSMC의 미국 내 반도체 투자 확대를 유도하고 있으며, 이는 삼성전자에게 경쟁 환경 변화를 의미한다. 이러한 공급망 재편은 단기적으로 비용 증가와 효율성 저하를 야기할 수 있으나, 장기적으로는 특정 지역에 대한 의존도를 낮추고 안정적인 반도체 공급을 확보하는 데 기여할 것으로 전망된다.
신기술 및 신규 시장의 영향
AI, 사물인터넷(IoT), 빅데이터, 5G 등 첨단 기술의 발전은 고성능 반도체 수요를 지속적으로 증가시킬 것이며, 이는 파운드리 산업의 성장을 견인할 것이다. 특히 AI 반도체 수요 증가는 파운드리 시장 전체 매출을 끌어올리고 있으며, 첨단 공정의 높은 가동률을 유지하는 주요 동력이 되고 있다. 또한, AI 서버용 전력 반도체 주문 증가와 중국의 반도체 국산화 추진 전략이 맞물려 8인치 파운드리 시장의 가동률이 상승하고 가격 인상 가능성까지 제기되고 있다. 이처럼 신기술의 발전은 파운드리 산업에 새로운 기회와 도전을 동시에 제공하며, 지속적인 기술 혁신과 시장 변화에 대한 유연한 대응이 중요해질 것이다.
참고 문헌
TSMC 2분기 파운드리 점유율 70% 돌파…삼성전자와 격차 확대 - 연합뉴스 (2025-09-01)
<시사금융용어> 파운드리 - 연합인포맥스 (2015-03-17)
TSMC, 2025년 2분기 파운드리 시장 점유율 71%에 달해 (2025-10-13)
파운드리 - 나무위키 (2025-12-12)
파운드리 - 위키백과, 우리 모두의 백과사전
파운드리란? - 뜻 & 정의 - KB의 생각
파운드리 - 시사경제용어사전
반도체 제조의 핵심: 8대 주요 공정 요약 - Chem DB (2023-09-04)
TSMC, 2분기 파운드리 시장 점유율 71%로 1위…2위는 삼성전자 - 매일경제 (2025-10-10)
2026년 TSMC 고객사 순위, 어떻게 바뀔까? - 브런치 (2025-09-24)
트렌드포스 "AI 수요에 8인치 파운드리 가격 5∼20%↑ 가능성" - 연합뉴스 (2026-01-13)
2분기 순수 파운드리 시장 매출 33% 증가…TSMC 점유율 71% - IT비즈뉴스 (2025-10-10)
[반도체 이야기] #10 반도체의 제조 공정 – 웨이퍼로부터 칩까지 (2023-09-07)
반도체 공정 - 나무위키 (2025-12-26)
트렌드포스 "AI 수요에 8인치 파운드리 가격 5∼20% 인상 가능성" - 청년일보 (2026-01-13)
TSMC 최대 고객 바뀌나…엔비디아, 애플 제칠 전망 - 디지털투데이 (DigitalToday) (2025-01-06)
삼성전자 2분기 파운드리 점유율 7.3%, TSMC와 격차 62.9%p로 벌어져 - 비즈니스포스트 (2025-09-01)
반도체 8대 공정, 10분만에 이해하기 - 브런치 (2021-05-16)
TSMC, 상위 10개 고객사 매출 비중 68%…1등은 '큰 손' 애플 - 블로터 (2023-05-29)
TSMC, 애리조나 공장 12개로 확대…삼성전자, 수익성 역전 기회 - PRESS9 (2026-01-07)
미중 반도체 패권 경쟁과 글로벌 공급망 재편
TSMC, 2분기 파운드리 시장 점유율 71%…AI 수요 독점 효과 - 데일리머니 (2025-10-10)
TSMC, 2nm 양산 발표...삼성·인텔 고객사 확보 비상 - 디일렉(THE ELEC) (2025-12-31)
TSMC, 美 공장 5곳 추가 증설에…삼성전자도 예의주시 - 한국경제 (2026-01-12)
TSMC·삼성 감산에 가격 인상 8인치 웨이퍼로 옮겨붙어 - 조세일보 (2026-01-15)
삼성 파운드리 5년내 AI·車 반도체 비중 50% - 한국경제 (2023-11-20)
"TSMC 2위 고객사, 엔비디아 제치고 브로드컴 가능성" - 머니투데이 (2025-09-23)
AI 수요에 몸값 오른다..."8인치 파운드리 가격 5∼20%↑ 가능성" - SBS Biz (2026-01-13)
삼성전자·TSMC 감산에 8인치 파운드리 위축…가격은 ↑ - PRESS9 (2026-01-13)
반도체 제조 - 위키백과, 우리 모두의 백과사전
삼성전자 2분기 파운드리 매출 9.2% 증가..점유율은 하락 - 포쓰저널 (2025-09-01)
“삼성전자·TSMC, 파운드리 8인치 웨이퍼 생산량 축소… 가격 인상에 中 업체 수혜” - Daum (2026-01-13)
TSMC, 美 공장 12개까지 늘린다…대만산 관세 20%→15% 인하 맞교환 [김경민의 적시타] (2026-01-13)
"미·대만 관세협상 마무리 수순…TSMC 미국에 공장 5곳 추가" - 뉴시스 (2026-01-13)
미중 기술 패권 경쟁 심화, 글로벌 공급망 재편 가속화 전망 - 데일리연합 (2025-12-29)
삼성 파운드리 "HPC·자동차에 역량 집중…칩렛 대세될 것" - 디지털투데이 (DigitalToday) (2023-11-08)
中, 민간 희토류까지 통제 시사 … 日, 공급망 다변화에 사활 - 매일경제 (2026-01-07)
파운드리 2.0 시장에서 TSMC 1위 수성, 삼성은 6위… 재편되는 반도체 생태계 - 카운터포인트 (2025-09-26)
'수요 폭증' TSMC, 시총 6위 등극…공급 병목에 삼성전자 '기회' - 뉴스1 (2026-01-05)
미국 반도체 투자 전쟁 가속… TSMC 증설에 삼성전자도 예의주시 - 천지일보 (2026-01-13)
미-중 반도체 기술패권경쟁과 Chip4 동맹 그리고 한국의 대응 전략
AI 시대, 반도체 패권 경쟁 '삼성·SK·TSMC·인텔 운명의 갈림길' - 조세일보 (2026-01-15)
AI 반도체에 투자가 쏟아지는 이유 - ① 미래 먹거리 좌우하는 AI 반도체 - 해외경제정보드림 (2024-03-08)
`중국, 금속 전략자산화…한국 제조업 핵심광물 리스크 확대` - 매일신문 (2026-01-13)
TSMC 주가, 4월 이후 최대폭 급등…"AI칩 수요 강세" - 지디넷코리아 (2026-01-06)
전세계 '파운드리 2.0' 시장, 2025년 3분기 매출 전년 대비 17% 급증… TSMC·ASE 주도 속 850억 달러 기록 - 카운터포인트 (2025-12-23)
차량용 반도체 키운 삼성 파운드리…피지컬 AI 시장서 기회 찾을까 - 지디넷코리아 (2026-01-05)
[IB토마토] 삼성전자 반도체 초격차 속도…자율주행차 반도체 수주 (2023-02-21)
시장에서 새로운 경쟁 구도를 형성할 가능성에 주목할 필요가 있다. 일본이 과거의 반도체 강국 지위를 되찾기 위해 국가 재정을 총동원하고 있으며, 이는 아시아 반도체 지형의 재편으로 이어질 수 있다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
