언론 보도에 따르면 메타는 2025년 6월 30일(미국 현지 기준) 전후로 AI 관련 조직을 MSL 아래로 재정렬했고, Scale AI의 창업자 알렉산더 왕(Alexandr Wang)을 핵심 리더십으로 영입해 연구·제품·인프라를 한 축에서 운영하는 체계를 강화했다.
MSL을 둘러싼 핵심 논점은 “초지성”이라는 추상적 목표를 실제 시스템 개발의 언어로 번역하는 방식이다. 즉, 모델 학습(훈련)·평가·배포·제품 통합·안전관리 같은 공학적 프로세스가 얼마나 촘촘하게 연결되느냐가 조직의 성격을 규정한다.
등장 배경과 역사: MSL이 만들어진 이유
MSL의 형성 배경은 크게 세 가지로 요약된다. 첫째, 대규모 언어모델(LLM)과 멀티모달 모델이 산업 전반의 ‘기본 인프라’로 자리 잡으면서, 연구 조직(장기 연구)과 제품 조직(단기 성과)을 분리한 채 운영하기가 점점 어려워졌다는 점이다.
둘째, 경쟁 구도의 변화이다. 프런티어 AI 개발은 모델 성능뿐 아니라 학습 데이터 파이프라인, 컴퓨팅 자원, 배포 인프라, 인재 밀집도, 안전 체계가 결합된 ‘총력전’ 양상을 띤다.
셋째, 메타 내부적으로도 초대형 모델 로드맵과 제품화 속도를 둘러싼 압력이 커졌고, 이에 따라 의사결정의 속도와 집중도를 높이는 형태의 재편이 촉진되었다.
보도에 따르면 메타는 2025년 6월 말 AI 조직을 MSL로 재정렬했으며, 알렉산더 왕을 ‘Chief AI Officer’ 역할로 세우고, Nat Friedman이 제품 및 응용 연구 쪽을 함께 이끄는 구도를 마련했다.
이 과정에서 메타는 Scale AI에 대규모 투자를 단행하고 핵심 인력을 흡수하는 방식으로 데이터·운영 역량과 인재 확보를 동시에 노린 것으로 해석된다.
조직 구조: TBD Lab·FAIR·제품 조직·인프라의 역할 분담
언론 보도에서 반복적으로 언급되는 MSL의 구조는 “프런티어 모델(기초 모델) 개발”과 “장기 연구”, “제품 적용”, “인프라”를 분리해 각각의 속도와 책임을 명확히 하는 방식이다.
2025년 하반기 보도에 따르면 메타는 MSL 내부를 네 갈래로 나누는 구상을 추진했다는 관측이 제시되었다.
- TBD Lab: 초대형 모델 학습과 스케일링에 집중하는 소규모 핵심 팀으로 거론된다. ‘최대 모델의 훈련과 성능 한계 돌파’가 중심 임무로 설정되는 형태다.
- FAIR(Fundamental AI Research): 장기 연구(기초 연구)에 가까운 역할로 알려져 왔다. 프런티어 제품 압력과 별개로, 핵심 알고리즘·학습 방법·평가 방식의 기반을 제공하는 성격이 강조된다.
- 제품 및 응용 연구: Meta AI와 각 앱(페이스북·인스타그램·왓츠앱 등)에 AI 기능을 통합하고, 광고·콘텐츠 제작 도구·디바이스(예: 스마트 글래스) 경험을 강화하는 팀의 역할로 묘사된다.
- 인프라(MSL Infra 등): 훈련용 데이터센터, 추론(서비스) 인프라, 내부 개발 플랫폼, 보안·모니터링 체계를 포함해 ‘AI를 실제로 운영 가능하게 만드는 레이어’에 해당한다.
이런 분화는 “연구 조직의 순수성”과 “제품 조직의 속도”가 충돌할 때 나타나는 구조적 문제를, 분업과 인터페이스(평가지표·릴리스 게이트·안전 체크리스트)로 관리하려는 시도로 해석된다.
‘추측’을 ‘엔지니어링’으로: 연구 목표를 제품과 시스템으로 바꾸는 파이프라인
‘초지성’은 정의 자체가 논쟁적이며, 측정 방법도 합의되어 있지 않다. 따라서 MSL 같은 조직이 실제로 하게 되는 일은 “철학적 목표”를 “측정 가능한 엔지니어링 목표”로 분해하는 작업이다.
일반적으로는 (1) 모델 능력 목표 설정, (2) 데이터·학습 설계, (3) 평가·레드팀, (4) 배포·모니터링, (5) 제품 통합이라는 단계로 구체화된다.
능력 목표의 구체화: ‘무엇이 더 똑똑함인가’의 운영적 정의
프런티어 모델 개발에서 “더 똑똑함”은 보통 벤치마크 점수만이 아니라, 장문 문맥 처리, 도구 사용(tool use), 코딩·추론 능력, 멀티모달 이해, 그리고 특정 도메인(예: 사이버보안)에서의 성능으로 세분된다.
오픈 가중치(open-weight) 모델 계열의 대표적 연구로 언급되는 Llama 3 계열 논문은 대형 파라미터 모델과 긴 컨텍스트 윈도우, 다국어·코딩·추론 능력 등을 ‘기초 모델’의 중요한 스펙으로 제시해 왔다.
평가와 릴리스 게이트: “성능”과 “위험”의 동시 관리
초대형 모델의 배포는 ‘성능이 좋아서 공개한다’는 단순한 논리로 끝나지 않는다. 모델이 악용될 가능성(예: 사이버 공격 지원, 위험 물질 관련 지식의 오남용)을 평가하고, 제품 노출 범위나 접근 제어를 조정하는 ‘게이트’가 필요해진다.
특히 대규모 사용자 기반을 가진 플랫폼에서는, 같은 모델이라도 “연구용 공개”, “개발자용 제한 제공”, “소비자 앱 기능”처럼 배포 형태가 달라진다.
제품 통합의 의미: 모델이 ‘기술 데모’에서 ‘플랫폼 기능’이 되는 순간
메타의 경우 AI는 검색이나 챗봇을 넘어, 광고 제작 도구, 이미지·영상 생성, 크리에이터 지원, 메시징 경험, 웨어러블 디바이스 인터페이스 등으로 확장된다.
이때 MSL의 핵심 과제는 “같은 기초 모델”을 여러 제품 시나리오에 맞게 안전하고 일관되게 운영하는 엔지니어링 역량(추론 비용 최적화, 지연시간, 품질 안정성, 정책 준수)을 확보하는 것이다.
프런티어 경쟁을 위한 스케일업: 인재·컴퓨트·자본지출·파트너십
프런티어 AI 경쟁은 결국 컴퓨트(Compute)와 인재, 그리고 이를 뒷받침하는 자본의 결합으로 귀결된다. 이 관점에서 MSL은 “연구 조직”이라기보다 “대규모 산업 프로젝트 조직”에 가까운 운영 논리를 갖는다.
대규모 투자와 인프라 확장
2026년 1월 말 보도에 따르면 메타는 ‘개인화된 초지성(personal superintelligence)’ 추진을 명시하며 2026년 자본지출(capex) 전망치를 대폭 상향했고, 데이터센터 및 제3자 클라우드 제공자 활용 비용 등 인프라 중심의 지출 증가를 설명했다.
또한 메타는 내부 용량 제약을 언급하며 외부 클라우드 파트너와의 계약을 병행하는 전략을 취하는 것으로 보도되었다.
Scale AI 투자와 데이터 운영 역량
초대형 모델의 성능은 데이터 품질과 라벨링·정제·평가 체계에 크게 좌우된다. 메타가 Scale AI에 대규모 투자를 단행하고, 창업자를 핵심 리더로 영입한 결정은 데이터 운영 역량을 ‘조직 설계의 중심’으로 끌어올린 사건으로 해석된다.
이는 단순한 모델 연구를 넘어, 데이터 공급망과 평가 시스템을 포함한 엔드투엔드(End-to-End) 개발 체계를 구축하려는 시도에 가깝다.
인재 전쟁과 조직의 ‘밀도’
프런티어 AI에서는 개별 연구자의 생산성을 좌우하는 요인이 단순한 인력 수가 아니라, “컴퓨트 접근성, 실험 자동화, 평가 도구, 배포 파이프라인” 같은 환경적 요소로 이동한다.
이런 맥락에서 MSL은 ‘소수 정예’ 팀과 대규모 인프라를 결합해 “연구자 1인당 가용 자원”을 극대화하려는 운영 철학을 띠는 것으로 묘사되곤 한다.
안전 고려와 거버넌스: 공개(오픈) 전략, 위험평가, 사회적 논쟁
초지성 수준의 AI를 목표로 하는 조직이 직면하는 가장 현실적인 문제는 “안전(safety)과 보안(security)”이다. 위험은 두 갈래로 나뉜다. 하나는 모델 오남용(악용) 위험이고, 다른 하나는 제품 환경에서의 사회적 위해(예: 미성년자 보호, 유해 대화, 조작·사기 등)이다.
프런티어 위험평가 프레임워크
메타는 2025년 2월 ‘Frontier AI Framework’를 공개하며, 특히 사이버보안 위협과 화학·생물학 무기 관련 위험을 ‘가장 중대한 위험 영역’으로 설정하고, 위협 모델링, 위험 임계치 설정, 완화 조치 적용 등을 언급했다.
이 프레임워크는 “무조건 공개” 혹은 “무조건 비공개”가 아니라, 위험 평가와 공개(배포) 결정을 연결하는 정책적 장치로 기능한다.
오픈 모델의 딜레마: 혁신 촉진 vs 악용 가능성
메타는 Llama 계열을 중심으로 오픈(또는 오픈 가중치에 가까운) 전략을 강조해 왔고, 공개 정책은 생태계 확장과 표준 경쟁에서 강점이 될 수 있다.
반면 최근 연구·보도에서는 오픈 소스/오픈 모델이 안전장치가 제거된 형태로 재배포되거나 범죄적 악용에 노출될 수 있다는 문제가 반복적으로 제기된다.
이 딜레마는 “어떤 수준까지 공개할 것인가(가중치·데이터·학습 레시피·추론 API)”와 “어떤 사용 정책과 기술적 가드를 부과할 것인가”라는 실무적 질문으로 이어진다.
제품 안전 논쟁: 미성년자 보호와 대화형 AI의 경계
대화형 AI가 대중 서비스로 들어오면, 모델 자체의 위험뿐 아니라 사용 맥락이 만들어내는 위험이 확대된다.
예컨대 미성년자 대상 부적절한 상호작용 가능성에 대한 문제 제기가 이어졌고, 메타가 청소년 안전을 위한 추가적인 보호 조치를 도입·강화했다는 보도도 있었다.
이런 이슈는 MSL이 단순히 모델 성능만이 아니라, 정책·모니터링·연령대별 제약·레드팀 결과 반영 같은 운영 체계를 함께 갖추어야 함을 의미한다.
출처
- Reuters. “Meta deepens AI push with ‘Superintelligence’ lab, source says” (2025-07-01). https://www.reuters.com/business/meta-deepens-ai-push-with-superintelligence-lab-source-says-2025-06-30/
- Reuters. “Meta plans fourth restructuring of AI efforts in six months, The Information reports” (2025-08-15). https://www.reuters.com/business/meta-plans-fourth-restructuring-ai-efforts-six-months-information-reports-2025-08-15/
- Reuters. “Meta boosts annual capex sharply on superintelligence push, shares surge” (2026-01-29). https://www.reuters.com/business/meta-expects-annual-capital-expenditures-rise-superintelligence-push-2026-01-28/
- AP News. “Meta invests $14.3B in AI firm Scale and recruits its CEO for ‘superintelligence’ team” (2025-06-13). https://apnews.com/article/4b55aabf7ea018e38ffdccb66e37cf26
- Meta Newsroom(about.fb.com). “Our Approach to Frontier AI” (2025-02-03). https://about.fb.com/news/2025/02/meta-approach-frontier-ai/
- Meta Newsroom(about.fb.com). “Open Source AI Can Help America Lead in AI and Strengthen Global Security” (2024-11-04). https://about.fb.com/news/2024/11/open-source-ai-america-global-security/
- arXiv. “The Llama 3 Herd of Models” (2024). https://arxiv.org/abs/2407.21783
- NVIDIA Build Model Card. “llama-3.1-70b-instruct Model by Meta” (2024-07-23). https://build.nvidia.com/meta/llama-3_1-70b-instruct/modelcard
- Reuters. “Meta to add new AI safeguards after Reuters report raises teen safety concerns” (2025-08-29). https://www.reuters.com/legal/litigation/meta-add-new-ai-safeguards-after-reuters-report-raises-teen-safety-concerns-2025-08-29/
- Reuters. “Open-source AI models vulnerable to criminal misuse, researchers warn” (2026-01-29). https://www.reuters.com/technology/open-source-ai-models-vulnerable-criminal-misuse-researchers-warn-2026-01-29/
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
기사 제보
제보하실 내용이 있으시면 techmore.main@gmail.com으로 연락주세요.


