AI 영상 생성 분야의 선두주자인 런웨이(Runway)가 첫 번째 종합 월드 모델(General World Model, GWM-1)을 12일(현지시각) 발표했다. 이 발표는 AI 업계가 단순한 콘텐츠 생성에서 벗어나, 현실 세계를 이해하고 시뮬레이션할 수 있는 월드 모델 기술로 진화하고 있음을 보여준다.
월드 모델은 AI가 현실 세계의 물리적 동작과 상호작용을 예측하고 시뮬레이션할 수 있는 모델이다. GWM-1은 현실 세계를 내부적으로 모델링하여, 실시간으로 미래 이벤트를 시뮬레이션하는 자율 회귀형 모델이다. 사용자는 시뮬레이션 중에 공간 이동, 로봇 팔 제어, 캐릭터 상호작용 등과 같이 실시간 개입이 가능하다.
GWM-1은 GWM-Worlds, GWM-Avatars, GWM-Robotics의 세 가지 버전으로 구성되어 있다. GWM-Worlds는 기하학, 조명, 물리 법칙을 이해하는 탐험 가능한 환경을 생성한다. GWM-Avatars는 자연스러운 표정, 립싱크, 제스처를 갖춘 대화형 캐릭터를 생성하며, GWM-Robotics는 날씨 변화, 장애물 등 다양한 조건을 반영한 로봇 훈련용 합성 데이터를 생성한다. 향후 런웨이는 이를 하나의 통합된 세계 모델로 발전시키는 것을 목표로 하고 있다. 언어 모델만으로든 해결할 수 없는 문제들, 예를 들면 로봇 공학이나 질병 연구를 위해 시뮬레이션 기반의 학습이 필요하다고 강조한다.
런웨이의 GWM-1은 구글
구글
목차
구글(Google) 개요
1. 개념 정의
1.1. 기업 정체성 및 사명
1.2. '구글'이라는 이름의 유래
2. 역사 및 발전 과정
2.1. 창립 및 초기 성장
2.2. 주요 서비스 확장 및 기업공개(IPO)
2.3. 알파벳(Alphabet Inc.) 설립
3. 핵심 기술 및 원리
3.1. 검색 엔진 알고리즘 (PageRank)
3.2. 광고 플랫폼 기술
3.3. 클라우드 인프라 및 데이터 처리
3.4. 인공지능(AI) 및 머신러닝
4. 주요 사업 분야 및 서비스
4.1. 검색 및 광고
4.2. 모바일 플랫폼 및 하드웨어
4.3. 클라우드 컴퓨팅 (Google Cloud Platform)
4.4. 콘텐츠 및 생산성 도구
5. 현재 동향
5.1. 생성형 AI 기술 경쟁 심화
5.2. 클라우드 시장 성장 및 AI 인프라 투자 확대
5.3. 글로벌 시장 전략 및 현지화 노력
6. 비판 및 논란
6.1. 반독점 및 시장 지배력 남용
6.2. 개인 정보 보호 문제
6.3. 기업 문화 및 윤리적 문제
7. 미래 전망
7.1. AI 중심의 혁신 가속화
7.2. 새로운 성장 동력 발굴
7.3. 규제 환경 변화 및 사회적 책임
구글(Google) 개요
구글은 전 세계 정보의 접근성을 높이고 유용하게 활용할 수 있도록 돕는 것을 사명으로 하는 미국의 다국적 기술 기업이다. 검색 엔진을 시작으로 모바일 운영체제, 클라우드 컴퓨팅, 인공지능 등 다양한 분야로 사업 영역을 확장하며 글로벌 IT 산업을 선도하고 있다. 구글은 디지털 시대의 정보 접근 방식을 혁신하고, 일상생활과 비즈니스 환경에 지대한 영향을 미치며 현대 사회의 필수적인 인프라로 자리매김했다.
1. 개념 정의
구글은 검색 엔진을 기반으로 광고, 클라우드, 모바일 운영체제 등 광범위한 서비스를 제공하는 글로벌 기술 기업이다. "전 세계의 모든 정보를 체계화하여 모든 사용자가 유익하게 사용할 수 있도록 한다"는 사명을 가지고 있다. 이러한 사명은 구글이 단순한 검색 서비스를 넘어 정보의 조직화와 접근성 향상에 얼마나 집중하는지를 보여준다.
1.1. 기업 정체성 및 사명
구글은 인터넷을 통해 정보를 공유하는 산업에서 가장 큰 기업 중 하나로, 전 세계 검색 시장의 90% 이상을 점유하고 있다. 이는 구글이 정보 탐색의 표준으로 인식되고 있음을 의미한다. 구글의 사명인 "전 세계의 정보를 조직화하여 보편적으로 접근 가능하고 유용하게 만드는 것(to organize the world's information and make it universally accessible and useful)"은 구글의 모든 제품과 서비스 개발의 근간이 된다. 이 사명은 단순히 정보를 나열하는 것을 넘어, 사용자가 필요로 하는 정보를 효과적으로 찾아 활용할 수 있도록 돕는다는 철학을 담고 있다.
1.2. '구글'이라는 이름의 유래
'구글'이라는 이름은 10의 100제곱을 의미하는 수학 용어 '구골(Googol)'에서 유래했다. 이는 창업자들이 방대한 웹 정보를 체계화하고 무한한 정보의 바다를 탐색하려는 목표를 반영한다. 이 이름은 당시 인터넷에 폭발적으로 증가하던 정보를 효율적으로 정리하겠다는 그들의 야심 찬 비전을 상징적으로 보여준다.
2. 역사 및 발전 과정
구글은 스탠퍼드 대학교의 연구 프로젝트에서 시작하여 현재의 글로벌 기술 기업으로 성장했다. 그 과정에서 혁신적인 기술 개발과 과감한 사업 확장을 통해 디지털 시대를 이끄는 핵심 주체로 부상했다.
2.1. 창립 및 초기 성장
1996년 래리 페이지(Larry Page)와 세르게이 브린(Sergey Brin)은 스탠퍼드 대학교에서 '백럽(BackRub)'이라는 검색 엔진 프로젝트를 시작했다. 이 프로젝트는 기존 검색 엔진들이 키워드 일치에만 의존하던 것과 달리, 웹페이지 간의 링크 구조를 분석하여 페이지의 중요도를 평가하는 'PageRank' 알고리즘을 개발했다. 1998년 9월 4일, 이들은 'Google Inc.'를 공식 창립했으며, PageRank를 기반으로 검색 정확도를 획기적으로 향상시켜 빠르게 사용자들의 신뢰를 얻었다. 초기에는 실리콘밸리의 한 차고에서 시작된 작은 스타트업이었으나, 그들의 혁신적인 접근 방식은 곧 인터넷 검색 시장의 판도를 바꾸기 시작했다.
2.2. 주요 서비스 확장 및 기업공개(IPO)
구글은 검색 엔진의 성공에 안주하지 않고 다양한 서비스로 사업 영역을 확장했다. 2000년에는 구글 애드워즈(Google AdWords, 현 Google Ads)를 출시하며 검색 기반의 타겟 광고 사업을 시작했고, 이는 구글의 주요 수익원이 되었다. 이후 2004년 Gmail을 선보여 이메일 서비스 시장에 혁신을 가져왔으며, 2005년에는 Google Maps를 출시하여 지리 정보 서비스의 새로운 기준을 제시했다. 2006년에는 세계 최대 동영상 플랫폼인 YouTube를 인수하여 콘텐츠 시장에서의 영향력을 확대했다. 2008년에는 모바일 운영체제 안드로이드(Android)를 도입하여 스마트폰 시장의 지배적인 플랫폼으로 성장시켰다. 이러한 서비스 확장은 2004년 8월 19일 나스닥(NASDAQ)에 상장된 구글의 기업 가치를 더욱 높이는 계기가 되었다.
2.3. 알파벳(Alphabet Inc.) 설립
2015년 8월, 구글은 지주회사인 알파벳(Alphabet Inc.)을 설립하며 기업 구조를 대대적으로 재편했다. 이는 구글의 핵심 인터넷 사업(검색, 광고, YouTube, Android 등)을 'Google'이라는 자회사로 유지하고, 자율주행차(Waymo), 생명과학(Verily, Calico), 인공지능 연구(DeepMind) 등 미래 성장 동력이 될 다양한 신사업을 독립적인 자회사로 분리 운영하기 위함이었다. 이러한 구조 개편은 각 사업 부문의 독립성과 투명성을 높이고, 혁신적인 프로젝트에 대한 투자를 가속화하기 위한 전략적 결정이었다. 래리 페이지와 세르게이 브린은 알파벳의 최고 경영진으로 이동하며 전체 그룹의 비전과 전략을 총괄하게 되었다.
3. 핵심 기술 및 원리
구글의 성공은 단순히 많은 서비스를 제공하는 것을 넘어, 그 기반에 깔린 혁신적인 기술 스택과 독자적인 알고리즘에 있다. 이들은 정보의 조직화, 효율적인 광고 시스템, 대규모 데이터 처리, 그리고 최첨단 인공지능 기술을 통해 구글의 경쟁 우위를 확립했다.
3.1. 검색 엔진 알고리즘 (PageRank)
구글 검색 엔진의 핵심은 'PageRank' 알고리즘이다. 이 알고리즘은 웹페이지의 중요도를 해당 페이지로 연결되는 백링크(다른 웹사이트로부터의 링크)의 수와 질을 분석하여 결정한다. 마치 학술 논문에서 인용이 많이 될수록 중요한 논문으로 평가받는 것과 유사하다. PageRank는 단순히 키워드 일치도를 넘어, 웹페이지의 권위와 신뢰도를 측정함으로써 사용자에게 더 관련성 높고 정확한 검색 결과를 제공하는 데 기여했다. 이는 초기 인터넷 검색의 질을 한 단계 끌어올린 혁신적인 기술로 평가받는다.
3.2. 광고 플랫폼 기술
구글 애드워즈(Google Ads)와 애드센스(AdSense)는 구글의 주요 수익원이며, 정교한 타겟 맞춤형 광고를 제공하는 기술이다. Google Ads는 광고주가 특정 검색어, 사용자 인구 통계, 관심사 등에 맞춰 광고를 노출할 수 있도록 돕는다. 반면 AdSense는 웹사이트 운영자가 자신의 페이지에 구글 광고를 게재하고 수익을 얻을 수 있도록 하는 플랫폼이다. 이 시스템은 사용자 데이터를 분석하고 검색어의 맥락을 이해하여 가장 관련성 높은 광고를 노출함으로써, 광고 효율성을 극대화하고 사용자 경험을 저해하지 않으면서도 높은 수익을 창출하는 비즈니스 모델을 구축했다.
3.3. 클라우드 인프라 및 데이터 처리
Google Cloud Platform(GCP)은 구글의 대규모 데이터 처리 및 저장 노하우를 기업 고객에게 제공하는 서비스이다. GCP는 전 세계에 분산된 데이터센터와 네트워크 인프라를 기반으로 컴퓨팅, 스토리지, 데이터베이스, 머신러닝 등 다양한 클라우드 서비스를 제공한다. 특히, '빅쿼리(BigQuery)'와 같은 데이터 웨어하우스는 페타바이트(petabyte) 규모의 데이터를 빠르고 효율적으로 분석할 수 있도록 지원하며, 기업들이 방대한 데이터를 통해 비즈니스 인사이트를 얻을 수 있게 돕는다. 이러한 클라우드 인프라는 구글 자체 서비스의 운영뿐만 아니라, 전 세계 기업들의 디지털 전환을 가속화하는 핵심 동력으로 작용하고 있다.
3.4. 인공지능(AI) 및 머신러닝
구글은 검색 결과의 개선, 추천 시스템, 자율주행, 음성 인식 등 다양한 서비스에 AI와 머신러닝 기술을 광범위하게 적용하고 있다. 특히, 딥러닝(Deep Learning) 기술을 활용하여 이미지 인식, 자연어 처리(Natural Language Processing, NLP) 분야에서 세계적인 수준의 기술력을 보유하고 있다. 최근에는 생성형 AI 모델인 '제미나이(Gemini)'를 통해 텍스트, 이미지, 오디오, 비디오 등 다양한 형태의 정보를 이해하고 생성하는 멀티모달(multimodal) AI 기술 혁신을 가속화하고 있다. 이러한 AI 기술은 구글 서비스의 개인화와 지능화를 담당하며 사용자 경험을 지속적으로 향상시키고 있다.
4. 주요 사업 분야 및 서비스
구글은 검색 엔진이라는 출발점을 넘어, 현재는 전 세계인의 일상과 비즈니스에 깊숙이 관여하는 광범위한 제품과 서비스를 제공하는 기술 대기업으로 성장했다.
4.1. 검색 및 광고
구글 검색은 전 세계에서 가장 많이 사용되는 검색 엔진으로, 2024년 10월 기준으로 전 세계 검색 시장의 약 91%를 점유하고 있다. 이는 구글이 정보 탐색의 사실상 표준임을 의미한다. 검색 광고(Google Ads)와 유튜브 광고 등 광고 플랫폼은 구글 매출의 대부분을 차지하는 핵심 사업이다. 2023년 알파벳의 총 매출 약 3,056억 달러 중 광고 매출이 약 2,378억 달러로, 전체 매출의 77% 이상을 차지했다. 이러한 광고 수익은 구글이 다양한 무료 서비스를 제공할 수 있는 기반이 된다.
4.2. 모바일 플랫폼 및 하드웨어
안드로이드(Android) 운영체제는 전 세계 스마트폰 시장을 지배하며, 2023년 기준 글로벌 모바일 운영체제 시장의 70% 이상을 차지한다. 안드로이드는 다양한 제조사에서 채택되어 전 세계 수십억 명의 사용자에게 구글 서비스를 제공하는 통로 역할을 한다. 또한, 구글은 자체 하드웨어 제품군도 확장하고 있다. 픽셀(Pixel) 스마트폰은 구글의 AI 기술과 안드로이드 운영체제를 최적화하여 보여주는 플래그십 기기이며, 네스트(Nest) 기기(스마트 스피커, 스마트 온도 조절기 등)는 스마트 홈 생태계를 구축하고 있다. 이 외에도 크롬캐스트(Chromecast), 핏빗(Fitbit) 등 다양한 기기를 통해 사용자 경험을 확장하고 있다.
4.3. 클라우드 컴퓨팅 (Google Cloud Platform)
Google Cloud Platform(GCP)은 기업 고객에게 컴퓨팅, 스토리지, 네트워킹, 데이터 분석, AI/머신러닝 등 광범위한 클라우드 서비스를 제공한다. 아마존 웹 서비스(AWS)와 마이크로소프트 애저(Azure)에 이어 글로벌 클라우드 시장에서 세 번째로 큰 점유율을 가지고 있으며, 2023년 4분기 기준 약 11%의 시장 점유율을 기록했다. GCP는 높은 성장률을 보이며 알파벳의 주요 성장 동력이 되고 있으며, 특히 AI 서비스 확산과 맞물려 데이터센터 증설 및 AI 인프라 확충에 대규모 투자를 진행하고 있다.
4.4. 콘텐츠 및 생산성 도구
유튜브(YouTube)는 세계 최대의 동영상 플랫폼으로, 매월 20억 명 이상의 활성 사용자가 방문하며 수십억 시간의 동영상을 시청한다. 유튜브는 엔터테인먼트를 넘어 교육, 뉴스, 커뮤니티 등 다양한 역할을 수행하며 디지털 콘텐츠 소비의 중심이 되었다. 또한, Gmail, Google Docs, Google Drive, Google Calendar 등으로 구성된 Google Workspace는 개인 및 기업의 생산성을 지원하는 주요 서비스이다. 이들은 클라우드 기반으로 언제 어디서든 문서 작성, 협업, 파일 저장 및 공유를 가능하게 하여 업무 효율성을 크게 향상시켰다.
5. 현재 동향
구글은 급변하는 기술 환경 속에서 특히 인공지능 기술의 발전을 중심으로 다양한 산업 분야에서 혁신을 주도하고 있다. 이는 구글의 미래 성장 동력을 확보하고 시장 리더십을 유지하기 위한 핵심 전략이다.
5.1. 생성형 AI 기술 경쟁 심화
구글은 챗GPT(ChatGPT)의 등장 이후 생성형 AI 기술 개발에 전사적인 역량을 집중하고 있다. 특히, 멀티모달 기능을 갖춘 '제미나이(Gemini)' 모델을 통해 텍스트, 이미지, 오디오, 비디오 등 다양한 형태의 정보를 통합적으로 이해하고 생성하는 능력을 선보였다. 구글은 제미나이를 검색, 클라우드, 안드로이드 등 모든 핵심 서비스에 통합하며 사용자 경험을 혁신하고 있다. 예를 들어, 구글 검색에 AI 오버뷰(AI Overviews) 기능을 도입하여 복잡한 질문에 대한 요약 정보를 제공하고, AI 모드를 통해 보다 대화형 검색 경험을 제공하는 등 AI 업계의 판도를 변화시키는 주요 동향을 이끌고 있다.
5.2. 클라우드 시장 성장 및 AI 인프라 투자 확대
Google Cloud는 높은 성장률을 보이며 알파벳의 주요 성장 동력이 되고 있다. 2023년 3분기에는 처음으로 분기 영업이익을 기록하며 수익성을 입증했다. AI 서비스 확산과 맞물려, 구글은 데이터센터 증설 및 AI 인프라 확충에 대규모 투자를 진행하고 있다. 이는 기업 고객들에게 고성능 AI 모델 학습 및 배포를 위한 강력한 컴퓨팅 자원을 제공하고, 자체 AI 서비스의 안정적인 운영을 보장하기 위함이다. 이러한 투자는 클라우드 시장에서의 경쟁력을 강화하고 미래 AI 시대의 핵심 인프라 제공자로서의 입지를 굳히는 전략이다.
5.3. 글로벌 시장 전략 및 현지화 노력
구글은 전 세계 각국 시장에서의 영향력을 확대하기 위해 현지화된 서비스를 제공하고 있으며, 특히 AI 기반 멀티모달 검색 기능 강화 등 사용자 경험 혁신에 주력하고 있다. 예를 들어, 특정 지역의 문화와 언어적 특성을 반영한 검색 결과를 제공하거나, 현지 콘텐츠 크리에이터를 지원하여 유튜브 생태계를 확장하는 식이다. 또한, 개발도상국 시장에서는 저렴한 스마트폰에서도 구글 서비스를 원활하게 이용할 수 있도록 경량화된 앱을 제공하는 등 다양한 현지화 전략을 펼치고 있다. 이는 글로벌 사용자 기반을 더욱 공고히 하고, 새로운 시장에서의 성장을 모색하기 위한 노력이다.
6. 비판 및 논란
구글은 혁신적인 기술과 서비스로 전 세계에 지대한 영향을 미치고 있지만, 그 막대한 시장 지배력과 데이터 활용 방식 등으로 인해 반독점, 개인 정보 보호, 기업 윤리 등 다양한 측면에서 비판과 논란에 직면해 있다.
6.1. 반독점 및 시장 지배력 남용
구글은 검색 및 온라인 광고 시장에서의 독점적 지위 남용 혐의로 전 세계 여러 국가에서 규제 당국의 조사를 받고 소송 및 과징금 부과를 경험했다. 2023년 9월, 미국 법무부(DOJ)는 구글이 검색 시장에서 불법적인 독점 행위를 했다며 반독점 소송을 제기했으며, 이는 20년 만에 미국 정부가 제기한 가장 큰 규모의 반독점 소송 중 하나이다. 유럽연합(EU) 역시 구글이 안드로이드 운영체제를 이용해 검색 시장 경쟁을 제한하고, 광고 기술 시장에서 독점적 지위를 남용했다며 수십억 유로의 과징금을 부과한 바 있다. 이러한 사례들은 구글의 시장 지배력이 혁신을 저해하고 공정한 경쟁을 방해할 수 있다는 우려를 반영한다.
6.2. 개인 정보 보호 문제
구글은 이용자 동의 없는 행태 정보 수집, 추적 기능 해제 후에도 데이터 수집 등 개인 정보 보호 위반으로 여러 차례 과징금 부과 및 배상 평결을 받았다. 2023년 12월, 프랑스 데이터 보호 기관(CNIL)은 구글이 사용자 동의 없이 광고 목적으로 개인 데이터를 수집했다며 1억 5천만 유로의 과징금을 부과했다. 또한, 구글은 공개적으로 사용 가능한 웹 데이터를 AI 모델 학습에 활용하겠다는 정책을 변경하며 개인 정보 보호 및 저작권 침해 가능성에 대한 논란을 야기했다. 이러한 논란은 구글이 방대한 사용자 데이터를 어떻게 수집하고 활용하는지에 대한 투명성과 윤리적 기준에 대한 사회적 요구가 커지고 있음을 보여준다.
6.3. 기업 문화 및 윤리적 문제
구글은 군사용 AI 기술 개발 참여(프로젝트 메이븐), 중국 정부 검열 협조(프로젝트 드래곤플라이), AI 기술 편향성 지적 직원에 대한 부당 해고 논란 등 기업 윤리 및 내부 소통 문제로 비판을 받았다. 특히, AI 윤리 연구원들의 해고는 구글의 AI 개발 방향과 윤리적 가치에 대한 심각한 의문을 제기했다. 이러한 사건들은 구글과 같은 거대 기술 기업이 기술 개발의 윤리적 책임과 사회적 영향력을 어떻게 관리해야 하는지에 대한 중요한 질문을 던진다.
7. 미래 전망
구글은 인공지능 기술을 중심으로 지속적인 혁신과 새로운 성장 동력 발굴을 통해 미래를 준비하고 있다. 급변하는 기술 환경과 사회적 요구 속에서 구글의 미래 전략은 AI 기술의 발전 방향과 밀접하게 연관되어 있다.
7.1. AI 중심의 혁신 가속화
AI는 구글의 모든 서비스에 통합되며, 검색 기능의 진화(AI Overviews, AI 모드), 새로운 AI 기반 서비스 개발 등 AI 중심의 혁신이 가속화될 것으로 전망된다. 구글은 검색 엔진을 단순한 정보 나열을 넘어, 사용자의 복잡한 질문에 대한 심층적인 답변과 개인화된 경험을 제공하는 'AI 비서' 형태로 발전시키려 하고 있다. 또한, 양자 컴퓨팅, 헬스케어(Verily, Calico), 로보틱스 등 신기술 분야에도 적극적으로 투자하며 장기적인 성장 동력을 확보하려 노력하고 있다. 이러한 AI 중심의 접근은 구글이 미래 기술 패러다임을 선도하려는 의지를 보여준다.
7.2. 새로운 성장 동력 발굴
클라우드 컴퓨팅과 AI 기술을 기반으로 기업용 솔루션 시장에서의 입지를 강화하고 있다. Google Cloud는 AI 기반 솔루션을 기업에 제공하며 엔터프라이즈 시장에서의 점유율을 확대하고 있으며, 이는 구글의 새로운 주요 수익원으로 자리매김하고 있다. 또한, 자율주행 기술 자회사인 웨이모(Waymo)는 미국 일부 도시에서 로보택시 서비스를 상용화하며 미래 모빌리티 시장에서의 잠재력을 보여주고 있다. 이러한 신사업들은 구글이 검색 및 광고 의존도를 줄이고 다각화된 수익 구조를 구축하는 데 기여할 것이다.
7.3. 규제 환경 변화 및 사회적 책임
각국 정부의 반독점 및 개인 정보 보호 규제 강화에 대응하고, AI의 윤리적 사용과 지속 가능한 기술 발전에 대한 사회적 책임을 다하는 것이 구글의 중요한 과제가 될 것이다. 구글은 규제 당국과의 협력을 통해 투명성을 높이고, AI 윤리 원칙을 수립하여 기술 개발 과정에 반영하는 노력을 지속해야 할 것이다. 또한, 디지털 격차 해소, 환경 보호 등 사회적 가치 실현에도 기여함으로써 기업 시민으로서의 역할을 다하는 것이 미래 구글의 지속 가능한 성장에 필수적인 요소로 작용할 것이다.
참고 문헌
StatCounter. (2024). Search Engine Market Share Worldwide. Available at: https://gs.statcounter.com/search-engine-market-share
Alphabet Inc. (2024). Q4 2023 Earnings Release. Available at: https://abc.xyz/investor/earnings/
Statista. (2023). Mobile operating systems' market share worldwide from January 2012 to July 2023. Available at: https://www.statista.com/statistics/266136/global-market-share-held-by-mobile-operating-systems/
Synergy Research Group. (2024). Cloud Market Share Q4 2023. Available at: https://www.srgresearch.com/articles/microsoft-and-google-gain-market-share-in-q4-cloud-market-growth-slows-to-19-for-full-year-2023
YouTube. (2023). YouTube for Press - Statistics. Available at: https://www.youtube.com/about/press/data/
Google. (2023). Introducing Gemini: Our largest and most capable AI model. Available at: https://blog.google/technology/ai/google-gemini-ai/
Google. (2024). What to know about AI Overviews and new AI experiences in Search. Available at: https://blog.google/products/search/ai-overviews-google-search-generative-ai/
Alphabet Inc. (2023). Q3 2023 Earnings Release. Available at: https://abc.xyz/investor/earnings/
U.S. Department of Justice. (2023). Justice Department Files Antitrust Lawsuit Against Google for Monopolizing Digital Advertising Technologies. Available at: https://www.justice.gov/opa/pr/justice-department-files-antitrust-lawsuit-against-google-monopolizing-digital-advertising
European Commission. (2018). Antitrust: Commission fines Google €4.34 billion for illegal practices regarding Android mobile devices. Available at: https://ec.europa.eu/commission/presscorner/detail/en/IP_18_4581
European Commission. (2021). Antitrust: Commission fines Google €2.42 billion for abusing dominance as search engine. Available at: https://ec.europa.eu/commission/presscorner/detail/en/IP_17_1784
CNIL. (2023). Cookies: the CNIL fines GOOGLE LLC and GOOGLE IRELAND LIMITED 150 million euros. Available at: https://www.cnil.fr/en/cookies-cnil-fines-google-llc-and-google-ireland-limited-150-million-euros
The Verge. (2021). Google fired another AI ethics researcher. Available at: https://www.theverge.com/2021/2/19/22292323/google-fired-another-ai-ethics-researcher-margaret-mitchell
Waymo. (2024). Where Waymo is available. Available at: https://waymo.com/where-we-are/
```
딥마인드, 얀 르쿤
얀 르쿤
얀 르쿤(Yann LeCun)은 인공지능(AI) 분야, 특히 딥러닝(Deep Learning)의 발전에 지대한 공헌을 한 프랑스계 미국인 컴퓨터 과학자이다. 그는 제프리 힌튼(Geoffrey Hinton), 요슈아 벤지오(Yoshua Bengio)와 함께 "딥러닝의 대부(Godfathers of Deep Learning)"로 불리며, 2018년 컴퓨팅 분야의 노벨상이라 불리는 튜링상(Turing Award)을 공동 수상했다. 르쿤의 연구는 현대 인공지능 시스템의 근간을 이루는 컨볼루션 신경망(Convolutional Neural Networks, CNNs) 개발에 결정적인 역할을 했으며, 컴퓨터 비전, 음성 인식, 자연어 처리 등 다양한 AI 응용 분야의 발전을 이끌었다.
목차
1. 얀 르쿤, 딥러닝의 지평을 열다
2. 생애와 학문적 여정: 혁신의 씨앗을 뿌리다
3. 주요 연구 분야 및 핵심 기여: 컨볼루션 신경망(CNN)의 탄생
4. 딥러닝 기술의 확산과 영향: 인공지능의 실용화를 이끌다
5. 메타 AI에서의 역할과 최근 활동: '월드 모델'을 향한 여정
6. 인공지능의 미래에 대한 비전: 인간 수준 지능을 꿈꾸다
7. 주요 수상 및 영예: 딥러닝 대부의 발자취
참고 문헌
1. 얀 르쿤, 딥러닝의 지평을 열다
얀 르쿤은 인공지능, 머신러닝, 컴퓨터 비전 분야에서 혁신적인 연구를 수행하며 딥러닝 시대를 개척한 선구자이다. 그의 가장 중요한 공헌은 컨볼루션 신경망(CNNs)의 개발에 있다. CNN은 이미지, 비디오, 오디오와 같은 격자형(grid-like) 데이터를 처리하는 데 특화된 딥러닝 아키텍처로, 인간의 시각 시스템에서 영감을 받아 설계되었다. CNN은 이미지 내의 시각적 패턴을 효율적으로 학습하고 인식하는 능력을 통해 현대 컴퓨터 비전의 기반을 마련했으며, 오늘날 스마트폰의 얼굴 인식, 자율 주행 차량의 객체 감지, 의료 영상 분석 등 수많은 인공지능 응용 분야에서 핵심 기술로 활용되고 있다. 르쿤은 이러한 혁신적인 기술을 통해 인공지능이 단순한 이론적 개념을 넘어 실질적인 문제 해결 도구로 발전하는 데 결정적인 역할을 했다. 그의 연구는 딥러닝이 인공지능 연구의 주류로 부상하고 전 세계 산업과 사회에 광범위하게 적용되는 데 중요한 토대가 되었다.
2. 생애와 학문적 여정: 혁신의 씨앗을 뿌리다
얀 르쿤은 1960년 7월 8일 프랑스 파리 교외의 소아시-수-몽모랑시(Soisy-sous-Montmorency)에서 태어났다. 어린 시절부터 그는 공학자였던 아버지의 영향으로 전자 및 기계 분야에 대한 기술적 흥미를 키웠으며, 영화 '2001 스페이스 오디세이'에 등장하는 인공지능 HAL을 보며 기계 지능에 대한 깊은 관심을 갖게 되었다. 이러한 초기 경험은 그가 인공지능 연구에 몰두하는 계기가 되었다.
그의 학문적 여정은 프랑스에서 시작되었다. 르쿤은 1983년 ESIEE 파리에서 공학 학위(Diplôme d'Ingénieur)를 취득했으며, 1987년 피에르 에 마리 퀴리 대학교(Université Pierre et Marie Curie, 현 소르본 대학교)에서 컴퓨터 과학 박사 학위를 받았다. 박사 과정 중 그는 신경망 학습의 핵심 알고리즘인 역전파(back-propagation) 알고리즘의 초기 형태를 제안하며 주목받았다. 박사 학위 취득 후 1987년에는 제프리 힌튼 교수 밑에서 토론토 대학교의 박사후 연구원으로 활동하며 딥러닝 분야의 다른 선구자들과 교류하는 중요한 시기를 보냈다.
1988년, 르쿤은 미국 뉴저지주 홀름델에 위치한 AT&T 벨 연구소(AT&T Bell Laboratories)의 적응 시스템 연구 부서에 합류했다. 이곳에서 그는 컨볼루션 신경망(CNNs)의 초기 형태인 LeNet을 개발하고, 신경망의 효율을 높이는 '최적 뇌 손상(Optimal Brain Damage)'과 같은 새로운 머신러닝 방법을 개척했다. 1996년에는 AT&T 랩스-리서치(AT&T Labs-Research)의 이미지 처리 연구 부서장으로 자리를 옮겨, DjVu 이미지 압축 기술 개발을 주도했다. 이후 잠시 NEC 리서치 인스티튜트(NEC Research Institute)에서 연구원으로 재직한 뒤, 2003년 뉴욕 대학교(NYU) 컴퓨터 과학과 교수로 부임하며 학계로 복귀했다. NYU에서 그는 제이콥 T. 슈워츠(Jacob T. Schwartz) 컴퓨터 과학 교수직을 맡았으며, 2012년에는 NYU 데이터 과학 센터(NYU Center for Data Science)의 설립 이사를 역임하며 데이터 과학 분야의 교육 및 연구를 선도했다.
2013년 12월, 르쿤은 페이스북(현 메타 플랫폼스)에 합류하여 AI 연구 부서(Facebook AI Research, FAIR)를 설립하고 최고 AI 과학자(Chief AI Scientist)로 활동했다. 그는 FAIR에서 장기적인 AI 연구를 이끌며 오픈 소스 AI 시스템의 강력한 옹호자로서 활동했다. 그러나 2025년 11월, 그는 메타를 떠나 '월드 모델(world models)' 기반의 차세대 AI 연구에 집중하기 위한 새로운 스타트업 '어드밴스드 머신 인텔리전스 랩스(Advanced Machine Intelligence Labs, AMI Labs)'를 설립할 것이라고 발표했다. 이로써 그는 다시 한번 새로운 AI 패러다임을 개척하기 위한 독립적인 여정을 시작하게 되었다.
3. 주요 연구 분야 및 핵심 기여: 컨볼루션 신경망(CNN)의 탄생
얀 르쿤의 학문적 업적 중 가장 중요한 것은 단연 컨볼루션 신경망(CNNs)의 개발이다. CNN은 이미지, 비디오, 음성 등 공간적 또는 시간적 구조를 가진 데이터를 처리하는 데 탁월한 성능을 보이는 딥러닝 모델이다. CNN의 핵심 구성 요소는 다음과 같다.
컨볼루션 계층(Convolutional Layer): 입력 데이터에서 특징(feature)을 추출하는 역할을 한다. 필터(filter) 또는 커널(kernel)이라고 불리는 작은 행렬이 입력 이미지 위를 이동하며 곱셈과 덧셈 연산을 수행하여 특징 맵(feature map)을 생성한다. 이 과정에서 이미지의 가장자리, 질감, 패턴 등 다양한 시각적 특징이 감지된다.
풀링 계층(Pooling Layer): 특징 맵의 크기를 줄이고, 노이즈를 제거하며, 모델의 번역 불변성(translation invariance)을 높이는 역할을 한다. 즉, 이미지 내에서 객체가 약간 이동하더라도 동일하게 인식할 수 있도록 돕는다. 주로 최대 풀링(max pooling)이나 평균 풀링(average pooling) 방식이 사용된다.
완전 연결 계층(Fully Connected Layer): 컨볼루션 및 풀링 계층에서 추출된 고수준 특징들을 기반으로 최종 분류(classification)나 회귀(regression) 예측을 수행한다.
르쿤은 1989년에 CNN 개념을 처음 발표했으며, 1990년대에는 필기 숫자 인식을 위한 LeNet-5 아키텍처를 개발하여 이미지 인식 분야에 혁명을 가져왔다. 1998년에 발표된 LeNet-5는 7개의 학습 가능한 계층(3개의 컨볼루션 계층, 2개의 서브샘플링/풀링 계층, 2개의 완전 연결 계층)으로 구성되었으며, 당시로서는 혁신적인 성능으로 우편 번호나 은행 수표의 필기 숫자를 인식하는 데 성공적으로 적용되었다. LeNet-5는 특징 추출과 분류를 하나의 종단 간(end-to-end) 학습 파이프라인으로 통합하여, 수동으로 특징을 설계해야 했던 기존 방식의 한계를 극복했다.
또한 르쿤은 DjVu 이미지 압축 기술 개발에도 중요한 역할을 했다. 레옹 보투(Léon Bottou), 패트릭 해프너(Patrick Haffner) 등과 함께 개발한 DjVu는 고해상도 스캔 문서, 특히 컬러 문서의 인터넷 배포를 위해 최적화된 기술이다. 이 기술은 문서 이미지를 배경(사진 및 종이 질감)과 전경(텍스트 및 선 그림)으로 분리하여 각 부분을 효율적으로 압축함으로써, 낮은 대역폭에서도 고품질의 문서를 빠르게 전송하고 표시할 수 있게 했다. DjVu는 1990년대 후반부터 2000년대 초반까지 인터넷 아카이브(Internet Archive)와 같은 디지털 라이브러리에서 스캔된 문서를 배포하는 데 널리 사용되었다.
이와 더불어 르쿤은 레옹 보투와 함께 Lush 프로그래밍 언어를 공동 개발했다. Lush는 연구자, 실험자, 엔지니어를 위해 설계된 객체 지향 리스프(Lisp) 기반 언어로, 대규모 수치 및 그래픽 애플리케이션에 적합하다. 인터프리터 언어의 유연성과 컴파일러 언어의 효율성을 결합했으며, C/C++ 라이브러리와의 쉬운 통합을 특징으로 한다. Lush는 LeNet-5와 같은 초기 딥러닝 알고리즘 개발에 중요한 도구로 활용되었다.
4. 딥러닝 기술의 확산과 영향: 인공지능의 실용화를 이끌다
얀 르쿤이 개발한 컨볼루션 신경망(CNN)은 인공지능 기술의 실용화에 지대한 영향을 미쳤다. 특히 광학 문자 인식(Optical Character Recognition, OCR) 및 컴퓨터 비전 분야에서 그의 연구는 혁명적인 변화를 가져왔다. LeNet-5와 같은 CNN 기반 시스템은 1990년대 후반부터 2000년대 초반까지 미국에서 발행되는 수표의 10% 이상을 인식하는 데 사용될 정도로 상업적인 성공을 거두었다. 이는 당시로서는 전례 없는 정확도와 효율성을 보여주며, 인공지능이 실제 금융 시스템에 적용될 수 있음을 증명한 사례이다.
르쿤의 연구는 단지 필기 숫자 인식에만 머무르지 않았다. CNN의 원리와 성공은 이후 컴퓨터 비전 분야 전반에 걸쳐 이미지 분류, 객체 감지, 이미지 분할 등 다양한 과제에서 획기적인 발전을 이끌었다. 예를 들어, 오늘날 스마트폰의 얼굴 인식 기능, 자율 주행 차량의 주변 환경 인지, 보안 감시 시스템의 이상 행동 감지, 의료 영상(X-ray, MRI 등)을 통한 질병 진단 보조 등 수많은 현대 AI 시스템의 기반에는 르쿤이 개척한 CNN 기술이 자리 잡고 있다.
나아가 CNN의 성공은 음성 인식, 자연어 처리(Natural Language Processing, NLP) 등 다른 인공지능 분야에도 영감을 주었다. CNN이 이미지에서 지역적 패턴을 추출하는 방식은 음성 신호나 텍스트 데이터의 지역적 특징을 분석하는 데도 응용될 수 있음을 보여주었기 때문이다. 이러한 광범위한 영향력은 얀 르쿤의 연구가 단순한 학문적 성과를 넘어, 전 세계 수십억 명의 사람들이 일상생활에서 인공지능 기술을 경험하고 활용할 수 있도록 만든 핵심 동력이 되었음을 의미한다.
5. 메타 AI에서의 역할과 최근 활동: '월드 모델'을 향한 여정
얀 르쿤은 2013년 12월 페이스북(현 메타 플랫폼스)에 합류하여 AI 연구 부서(Facebook AI Research, FAIR)를 설립하고 초대 이사를 역임했다. 그는 최고 AI 과학자로서 FAIR를 이끌며 장기적인 AI 연구에 집중할 수 있는 환경을 조성했으며, 뉴욕 대학교 교수직을 겸임하며 학계와의 연결 고리도 유지했다. 르쿤은 오픈 소스 AI 시스템의 강력한 옹호자이며, 메타의 라마(Llama) 모델과 같은 오픈 소스 대규모 언어 모델(LLM)의 개발 및 배포에 중요한 역할을 했다. 그는 오픈 소스 AI가 기술의 투명성을 높이고, 혁신을 가속화하며, 소수의 기업에 의한 AI 독점을 방지하는 데 필수적이라고 믿는다.
그러나 르쿤은 2025년 11월 메타를 떠나 새로운 스타트업인 '어드밴스드 머신 인텔리전스 랩스(Advanced Machine Intelligence Labs, AMI Labs)'를 설립할 것이라고 보도되었다. 그의 메타 이탈은 마크 저커버그(Mark Zuckerberg) CEO와의 관계 악화와 메타의 AI 전략에 대한 이견 때문인 것으로 알려졌다. 르쿤은 메타의 라마 4(Llama 4) 모델 출시가 너무 서둘러 진행되었고, 심지어 일부 벤치마크 결과가 "조작(fudged)"되었다고 비판하며, 속도보다는 혁신이 우선시되어야 한다고 주장했다.
그의 새로운 스타트업 AMI Labs는 메타에서 개발했던 V-JEPA(Video Joint Embedding Predictive Architecture)와 같은 '월드 모델(world models)' 기반의 차세대 AI 연구에 집중할 예정이다. 르쿤은 현재의 대규모 언어 모델(LLMs)이 가진 한계를 지적하며, 물리적 세계를 이해하고, 추론하며, 복잡한 행동을 계획할 수 있는 인공지능 개발의 필요성을 강조하고 있다. 그는 AMI Labs의 집행위원장(Executive Chairman)으로서 연구의 방향을 제시하고 영감을 불어넣는 역할을 할 것이라고 밝혔다.
6. 인공지능의 미래에 대한 비전: 인간 수준 지능을 꿈꾸다
얀 르쿤은 인공지능의 미래에 대해 매우 명확하고 도전적인 비전을 제시한다. 그는 현재 인공지능 분야를 지배하고 있는 대규모 언어 모델(LLMs)이 가진 근본적인 한계를 끊임없이 지적한다. 르쿤에 따르면, LLM은 텍스트를 기반으로 놀라운 생성 능력을 보여주지만, 실제 물리적 세계에 대한 이해, 지속적인 기억, 그리고 인간과 같은 추론 및 복잡한 행동 계획 능력은 부족하다는 것이다. 그는 LLM의 지능이 심지어 "집고양이보다도 훨씬 낮다"고 비유하며, 진정한 인간 수준의 지능을 달성하기 위해서는 새로운 접근 방식이 필요하다고 강조한다.
르쿤이 제시하는 대안은 바로 "월드 모델(world models)"이다. 월드 모델은 단순히 언어 데이터에서 학습하는 것을 넘어, 시각 및 공간 데이터를 통해 물리적 세계의 작동 방식을 이해하는 AI 시스템을 의미한다. 이러한 모델은 미래를 예측하고, 다양한 행동의 결과를 시뮬레이션하며, 복잡한 목표를 달성하기 위한 계획을 세울 수 있는 능력을 갖추게 될 것이라고 르쿤은 설명한다. 그는 월드 모델이 인간이 세상과 상호작용하고 학습하는 방식과 유사하게 작동하여, 훨씬 더 강력하고 유연한 지능을 구현할 수 있을 것으로 기대한다.
이러한 비전을 실현하기 위해 르쿤은 자기 지도 학습(self-supervised learning)과 인지 아키텍처(cognitive architectures)의 중요성을 역설한다. 자기 지도 학습은 레이블이 지정되지 않은 대량의 데이터에서 스스로 패턴과 구조를 학습하는 방식으로, 인간이 별도의 지시 없이 세상을 관찰하며 배우는 과정과 유사하다. 인지 아키텍처는 지각, 기억, 추론, 계획 등 다양한 인지 기능을 통합적으로 수행할 수 있는 AI 시스템의 전반적인 구조를 설계하는 것을 의미한다. 르쿤은 이러한 접근 방식들이 결합될 때, AI가 물리적 세계를 깊이 이해하고 인간과 유사한 수준의 지능을 발휘할 수 있을 것이라고 전망한다.
또한 르쿤은 향후 10년이 "로봇 공학의 10년"이 될 것이라고 예측한다. 그는 로봇이 실제 세계와 상호작용하며 데이터를 수집하고 학습하는 과정을 통해, AI가 물리적 환경에 대한 더욱 풍부하고 실질적인 이해를 얻게 될 것이라고 믿는다. 이는 월드 모델의 개발과도 밀접하게 연결되며, 궁극적으로는 인간의 지능을 뛰어넘는 "초지능(superintelligence)"의 등장을 가능하게 할 것이라는 비전을 제시한다.
7. 주요 수상 및 영예: 딥러닝 대부의 발자취
얀 르쿤은 딥러닝 분야에 대한 선구적인 업적으로 수많은 권위 있는 상과 영예를 안았다. 그의 가장 대표적인 수상 경력은 다음과 같다.
튜링상(Turing Award) (2018): 2018년, 르쿤은 제프리 힌튼, 요슈아 벤지오와 함께 "딥 신경망을 컴퓨팅의 핵심 구성 요소로 만든 개념적 및 공학적 혁신"을 인정받아 튜링상을 공동 수상했다. 이 상은 컴퓨터 과학 분야의 노벨상으로 불리며, 딥러닝이 인공지능 분야의 주류로 자리매김했음을 공식적으로 인정하는 계기가 되었다.
IEEE 신경망 개척자상(IEEE Neural Network Pioneer Award) (2014): 신경망 분야에 대한 그의 초기 혁신적인 기여를 인정받아 수상했다.
아스투리아스 공주상(Princess of Asturias Award) (2022): 딥러닝 분야의 공동 개척자들과 함께 "과학 연구" 부문에서 수상했다.
프랑스 레지옹 도뇌르 훈장(Legion of Honour) (Chevalier, 2023): 프랑스 정부로부터 국가에 대한 뛰어난 공헌을 인정받아 기사 작위(Chevalier)를 수여받았다.
빈퓨처 그랜드 프라이즈(VinFuture Grand Prize) (2024): 요슈아 벤지오, 제프리 힌튼, 젠슨 황(Jensen Huang), 페이페이 리(Fei-Fei Li)와 함께 신경망 및 딥러닝 알고리즘에 대한 획기적인 공헌으로 그랜드 프라이즈를 공동 수상했다.
퀸 엘리자베스 공학상(Queen Elizabeth Prize for Engineering) (2025): 요슈아 벤지오, 제프리 힌튼 등과 함께 딥러닝의 발전에 기여한 공로로 수상했다.
이 외에도 얀 르쿤은 미국 국립 과학원(US National Academy of Sciences), 미국 국립 공학원(National Academy of Engineering), 프랑스 과학 아카데미(Académie des Sciences)의 회원으로 선출되었으며, 멕시코의 IPN(Instituto Politécnico Nacional), 스위스의 EPFL(École Polytechnique Fédérale de Lausanne), 홍콩 과학기술대학교 등 여러 기관에서 명예 박사 학위를 수여받았다. 이러한 수상과 영예는 얀 르쿤이 인공지능 분야에서 이룬 업적이 전 세계적으로 인정받고 있음을 명확히 보여준다.
참고 문헌
Yann LeCun's Home Page. Available at: https://yann.lecun.com/
Yann LeCun - Wikipedia. Available at: https://en.wikipedia.org/wiki/Yann_LeCun
Yann LeCun - A.M. Turing Award Laureate. Available at: https://amturing.acm.org/award_winners/lecun_1079679.cfm
Yann LeCun's Biography. Available at: https://yann.lecun.com/ex/bio.html
Great Immigrant: Yann LeCun - Carnegie Corporation of New York. Available at: https://www.carnegie.org/our-work/civic-engagement/great-immigrants/2025-great-immigrants/yann-lecun/
Who Is Yann LeCun, the AI visionary who left Meta? - Capacity. Available at: https://www.capacitymedia.com/articles/3831861/who-is-yann-lecun-the-ai-visionary-who-left-meta
Professor Yann LeCun wins A.M. Turing Award, computing's highest honor. Available at: https://engineering.nyu.edu/news/professor-yann-lecun-wins-am-turing-award-computings-highest-honor
Yann LeCun - Detailed Biography. Available at: https://www.programmingocean.com/yann-lecun-biography/
LeNet 5 Architecture Explained. In the 1990s, Yann LeCun, Leon Bottou… | by Siddhesh Bangar | Medium. Available at: https://medium.com/@siddheshbangar_8228/lenet-5-architecture-explained-in-the-1990s-yann-lecun-leon-bottou-2c5e5330a109
Yann LeCun | NYU Tandon School of Engineering. Available at: https://engineering.nyu.edu/faculty/yann-lecun
2. LeNet5 Model | Deep Learning - Wikipedia | Intelligent Mind Labs. Available at: https://intelligentmindlabs.com/wiki/LeNet5_Model
Lush: my favorite small programming language | daily.dev. Available at: https://daily.dev/posts/lush-my-favorite-small-programming-language-42646274-12e0-474d-9669-7756f642436d
Understanding LeNet-5: The Foundational CNN Architecture Explained - Medium. Available at: https://medium.com/mlearning-ai/understanding-lenet-5-the-foundational-cnn-architecture-explained-4512720d36c
Yann LeCun - Simons Foundation. Available at: https://www.simonsfoundation.org/people/yann-lecun/
The Architecture of Lenet-5 - Analytics Vidhya. Available at: https://www.analyticsvidhya.com/blog/2025/05/the-architecture-of-lenet-5/
Yann LeCun at Bell Labs: The Dawn of an AI Pioneer - Perplexity. Available at: https://www.perplexity.ai/search/Yann-LeCun-at-Bell-Labs-The-Dawn-of-an-AI-Pioneer-a4Jg6m2fQ1a1H441w6W5fQ
LeNet - Wikipedia. Available at: https://en.wikipedia.org/wiki/LeNet
Biography and publications | Yann LeCun - Computer Sciences and Digital Technologies | Collège de France. Available at: https://www.college-de-france.fr/en/the-college/biography-and-publications/yann-lecun
Yann LeCun - AI for Good - ITU. Available at: https://aiforgood.itu.int/speaker/yann-lecun/
Zuckerberg's Former Top AI Researcher Goes Scorched Earth on Meta in a New Interview. Available at: https://www.inc.com/jason-aten/zuckerbergs-former-top-ai-researcher-goes-scorched-earth-on-meta-in-new-interview.html
Yann LeCun : Awards | Carnegie Corporation of New York. Available at: https://www.carnegie.org/our-work/civic-engagement/great-immigrants/2025-great-immigrants/yann-lecun/awards/
Courant's LeCun Wins Turing Award for Breakthroughs in Artificial Intelligence - NYU. Available at: https://www.nyu.edu/about/news-publications/news/2019/march/lecun-turing-award.html
"You certainly don't tell a researcher like me what to do" says LeCun as he exits Meta for his own startup - The Decoder. Available at: https://the-decoder.com/you-certainly-dont-tell-a-researcher-like-me-what-to-do-says-lecun-as-he-exits-meta-for-his-own-startup/
High quality document image compression with "DjVu" - Semantic Scholar. Available at: https://www.semanticscholar.org/paper/High-quality-document-image-compression-with-%22DjVu%22-LeCun/e646700c5c36141a542b5d4e61288f57560d216a
Turing Award presented to Yann LeCun, Geoffrey Hinton, and Yoshua Bengio. Available at: https://ai.meta.com/blog/turing-award-presented-to-yann-lecun-geoffrey-hinton-and-yoshua-bengio/
Who is Yann LeCun, the 65-year-old NYU professor who left Meta to start his own startup. Available at: https://www.businessinsider.com/yann-lecun-meta-ai-chief-leaves-startup-world-models-2025-12
Courant Professor Who Won Turing Award Sees Hopeful Future in AI - Washington Square News. Available at: https://nyunews.com/news/2019/03/29/lecun-turing-award/
Yann LeCun: This Is The Biography, Turing Award, And New 2025 AI Vision | - B-Net News. Available at: https://bnetnews.com/yann-lecun-biography-turing-award-2025-ai-vision/
Lush: my favorite small programming language - Locklin on science - WordPress.com. Available at: https://locklin.wordpress.com/2024/11/19/lush-my-favorite-small-programming-language/
Mark Zuckerberg's Former Top AI Scientist Reveals Exactly Why He Quit - Futurism. Available at: https://futurism.com/the-byte/mark-zuckerberg-former-ai-scientist-quit-meta
Ex-Meta AI Chief Slams New Boss as 'Young' and 'Inexperienced' - Entrepreneur. Available at: https://www.entrepreneur.com/science-technology/ex-meta-ai-chief-slams-new-boss-as-young-and-inexperienced/487375
Yann's DjVu Page. Available at: https://yann.lecun.com/ex/djvu.html
DjVu: a Compression Method for Distributing Scanned Documents in Color over the Internet. Available at: https://www.researchgate.net/publication/2387799_DjVu_a_Compression_Method_for_Distributing_Scanned_Documents_in_Color_over_the_Internet
Lush: Lisp Universal SHell. Available at: http://lush.sourceforge.net/
Browsing through High Quality Document Images with DjVu - ResearchGate. Available at: https://www.researchgate.net/publication/2387799_DjVu_a_Compression_Method_for_Distributing_Scanned_Documents_in_Color_over_the_Internet
Software, Hacks, Downloads - Yann LeCun. Available at: https://yann.lecun.com/ex/code.html
mmaul/lush2 - GitHub. Available at: https://github.com/mmaul/lush2
연구소, 페이페이 리
페이페이 리
페이페이 리(Fei-Fei Li)는 인공지능(AI) 분야, 특히 컴퓨터 비전과 딥러닝 발전에 혁혁한 공헌을 한 세계적인 컴퓨터 과학자입니다. 그녀는 'AI의 대모(Godmother of AI)'로 불리며, 기술 발전의 중심에 항상 인간을 두어야 한다는 '인간 중심 AI' 철학을 주창하고, AI 분야의 다양성 증진에 앞장서고 있습니다.
목차
1. 개요
2. 생애 및 학력
3. 주요 연구 및 업적
3.1. 이미지넷(ImageNet) 프로젝트
4. AI 분야에 미친 영향
5. 주요 활동 및 철학
6. 수상 및 영예
7. 미래 비전과 전망
1. 개요
페이페이 리는 중국계 미국인 컴퓨터 과학자로, 인공지능(AI) 분야, 특히 컴퓨터 비전과 딥러닝 발전에 지대한 공헌을 한 선구자이다. 그녀는 'AI의 대모(Godmother of AI)'라는 별칭으로 널리 알려져 있으며, 기술 개발의 궁극적인 목표가 인간의 삶을 풍요롭게 하는 데 있어야 한다는 '인간 중심 AI' 철학을 끊임없이 강조하고 있다. 리 교수의 연구는 컴퓨터가 단순히 이미지를 인식하는 것을 넘어, 마치 인간처럼 시각 세계를 이해하고 추론할 수 있도록 하는 데 초점을 맞추어 현대 AI의 지평을 넓혔다. 또한, 그녀는 AI 분야의 다양성과 포용성을 증진하기 위한 비영리 활동에도 적극적으로 참여하며, 기술이 사회 전체에 긍정적인 영향을 미치도록 노력하고 있다.
2. 생애 및 학력
페이페이 리는 1976년 중국 베이징에서 태어나 쓰촨성 청두에서 유년 시절을 보냈다. 15세(일부 자료에 따르면 16세) 되던 해, 그녀는 가족과 함께 미국 뉴저지로 이민을 떠나 새로운 환경에 적응해야 했다. 고등학교 재학 중에는 가족이 운영하는 드라이클리닝 가게에서 주말마다 일하며 학비를 벌고 생활에 보탬이 되었다. 이러한 경험은 그녀에게 강한 독립심과 문제 해결 능력을 길러주었다. 이후 프린스턴 대학교에 진학하여 물리학 학사 학위를 취득하며 과학적 사고의 기반을 다졌다. 졸업 후에는 캘리포니아 공과대학교(Caltech)에서 전기 공학 석사 학위(2001년)와 박사 학위(2005년)를 취득하며 컴퓨터 과학, 특히 로봇공학 분야에 대한 깊은 관심을 발전시켰다. 박사 학위 취득 후에는 일리노이 대학교 어배너-섐페인(UIUC) 전기 및 컴퓨터 공학과와 프린스턴 대학교 컴퓨터 과학과 교수를 거쳐, 2009년부터 스탠퍼드 대학교 컴퓨터 과학과 교수로 부임하여 현재까지 활발한 연구와 교육 활동을 이어오고 있다.
3. 주요 연구 및 업적
페이페이 리 교수의 연구는 컴퓨터가 시각 정보를 처리하고 이해하는 방식을 근본적으로 변화시켰다. 그녀의 가장 중요한 업적 중 하나는 인공지능 연구의 패러다임을 전환시킨 이미지넷(ImageNet) 데이터베이스를 구축한 것이다. 또한, 그녀는 컴퓨터가 단순히 이미지 속 객체를 인식하는 것을 넘어, 장면 전체의 맥락을 이해하고 이를 자연어로 설명할 수 있도록 하는 '장면 이해(Scene Understanding)' 및 '이미지 스토리텔링(Image Storytelling)' 알고리즘 개발에도 선구적인 기여를 했다. 이러한 연구들은 컴퓨터 비전 분야의 발전을 가속화하고, 딥러닝 기술이 현대 AI의 핵심 동력으로 자리 잡는 데 결정적인 역할을 했다.
3.1. 이미지넷(ImageNet) 프로젝트
이미지넷은 페이페이 리 교수가 2006년(일부 자료는 2007년) 스탠퍼드 대학교에서 시작한 대규모 시각 데이터베이스 구축 프로젝트이다. 당시 컴퓨터 비전 분야는 제한된 데이터셋으로 인해 발전이 정체되어 있었으며, 리 교수는 "더 똑똑한 알고리즘뿐만 아니라 더 나은 데이터에서도 진보가 온다"는 단순하지만 강력한 신념을 가지고 이 프로젝트를 시작했다. 그녀의 목표는 기계가 시각 세계를 이해하도록 가르치기 위해, 방대한 양의 실제 시각 세계를 보여주는 것이었다.
이 프로젝트는 수백만 개의 라벨링된 이미지를 포함하는 방대한 규모로, 컴퓨터 비전 소프트웨어 연구와 딥러닝 발전에 혁명적인 전환점을 제공했다. 이미지넷은 22,000개 이상의 범주에 걸쳐 1,400만 개가 넘는 이미지에 라벨을 부여하는 작업을 포함했으며, 이 과정에서 아마존 미케니컬 터크(Amazon Mechanical Turk)와 같은 크라우드소싱 플랫폼이 활용되었다. 이는 당시로서는 전례 없는 규모의 데이터 구축 작업이었다.
이미지넷은 매년 '이미지넷 대규모 시각 인식 챌린지(ImageNet Large Scale Visual Recognition Challenge, ILSVRC)'라는 대회를 개최하여 컴퓨터 비전 알고리즘의 성능을 평가하는 벤치마크 역할을 수행했다. 특히 2012년 대회에서 제프리 힌튼(Geoffrey Hinton) 교수팀의 '알렉스넷(AlexNet)'이 딥러닝 기술을 활용하여 압도적인 성능으로 우승하면서, 딥러닝은 인공지능 방법론의 주류로 급부상했다. 이 사건은 AI 연구의 초점을 알고리즘 자체의 복잡성에서 대규모 데이터셋을 활용한 학습으로 전환하는 데 결정적인 영향을 미쳤으며, 현대 AI 혁명의 중요한 기폭제가 되었다.
4. AI 분야에 미친 영향
페이페이 리 교수의 연구는 컴퓨터 비전 분야의 발전을 가속화하고, 딥러닝 혁명을 이끌어 현대 인공지능의 중요한 동력 중 하나로 평가받는다. 이미지넷 프로젝트는 AI 연구자들에게 대규모의 표준화된 데이터셋을 제공함으로써, 다양한 알고리즘의 성능을 객관적으로 비교하고 개선할 수 있는 공통의 기반을 마련했다. 이는 기존의 소규모 데이터셋으로는 불가능했던 복잡한 시각 패턴 학습을 가능하게 했으며, 신경망 모델의 훈련에 필수적인 요소로 자리 잡았다.
그녀의 '데이터 중심' 접근 방식은 인공지능 개발의 핵심 원칙으로 자리 잡았다. 즉, 모델의 성능 향상이 단순히 알고리즘의 개선뿐만 아니라, 양질의 대규모 데이터 확보와 라벨링에 크게 의존한다는 인식을 확산시킨 것이다. 이러한 패러다임의 전환은 객체 인식, 이미지 분류, 얼굴 인식, 자율주행차, 구글 포토 및 동영상 검색 기능 등 오늘날 우리가 일상에서 접하는 수많은 AI 응용 분야의 발판을 마련했다. 또한, 그녀는 스탠퍼드 대학교에서 안드레이 카파시(Andrej Karpathy)와 함께 영상 이미지 딥러닝 오픈 강좌인 CS231n을 개설하여 수많은 차세대 AI 연구자들에게 딥러닝 기술을 전파하는 데 크게 기여했다.
5. 주요 활동 및 철학
페이페이 리 교수는 학계와 산업계, 비영리 부문을 넘나들며 활발한 활동을 펼치고 있으며, 그녀의 모든 활동은 '인간 중심 AI'라는 확고한 철학에 기반을 두고 있다.
현재 그녀는 스탠퍼드 대학교 컴퓨터 과학과 교수이자, 스탠퍼드 인간 중심 AI 연구소(Human-Centered AI Institute, HAI)의 공동 소장으로 재직 중이다. HAI는 AI 기술이 인간의 복지를 증진하고 사회적 가치를 창출하는 방향으로 발전할 수 있도록 학제 간 연구와 정책 제언을 수행하는 기관이다. 리 교수는 AI가 인간의 능력을 증강하고 삶의 질을 개선하는 데 초점을 맞춰야 한다고 강조하며, 특히 의료 및 교육 분야에서 AI가 인간을 보조하는 역할을 할 수 있다고 주장한다.
학계를 넘어 산업계에서도 그녀의 영향력은 지대하다. 2017년부터 2018년까지 구글 클라우드 AI/ML(머신러닝) 최고 과학자 및 부사장으로 재직하며 AI 기술의 대중화와 상업적 응용에 기여했다. 최근에는 그녀가 공동 설립한 스타트업 월드랩스(World Labs)가 주요 컴퓨팅 공급업체로 구글 클라우드를 선택하며 그녀의 기술적 비전과 산업적 리더십을 다시 한번 입증했다.
또한, 리 교수는 비영리 단체 AI4ALL을 2017년에 공동 설립하여 AI 분야의 다양성과 포용성을 증진하는 데 힘쓰고 있다. AI4ALL은 역사적으로 소외되었던 인재들, 특히 여성과 소수 민족 학생들이 AI 교육과 멘토링 기회를 통해 AI 분야에 진출할 수 있도록 지원한다. 이 단체는 Discover AI, Apply AI, Talent Edge와 같은 프로그램을 통해 기술적 역량뿐만 아니라 윤리적 기반을 다지고 전문적인 네트워크를 형성할 기회를 제공하며, 미래 AI 리더들이 인류를 반영하도록 돕는 것을 목표로 한다.
그녀의 '인간 중심 AI' 철학은 AI 개발이 단순히 기술적 진보에만 머무는 것이 아니라, 사회적 책임과 윤리적 고려를 동반해야 한다는 믿음을 담고 있다. 리 교수는 AI 거버넌스가 공상 과학이 아닌 과학적 사실에 기반해야 하며, 이념보다는 실용적인 태도로 접근해야 한다고 강조한다. 또한, AI의 혜택이 특정 기업이나 국가에 집중되지 않고 사회 전반에 확산될 수 있도록 오픈소스 생태계와 기업가 정신을 장려하고, 학계, 기업가, 지역사회 등 다양한 이해관계자들의 협력을 촉구한다. 그녀는 AI가 인간의 일자리를 대체하기보다는 새로운 기회를 창출하고 인간의 역할을 진화시킬 것이라고 낙관적으로 전망하며, AI에 대한 대중의 불안을 해소하기 위한 공공 교육의 중요성도 역설한다.
6. 수상 및 영예
페이페이 리 교수는 인공지능 분야에서의 탁월한 업적과 선구적인 리더십을 인정받아 수많은 상과 영예를 안았다. 그녀의 주요 수상 경력은 다음과 같다.
2025년 퀸 엘리자베스 공학상(Queen Elizabeth Prize for Engineering, QEPrize): 딥러닝 발전에 기여한 공로로 요슈아 벤지오, 빌 달리, 제프리 힌튼, 존 홉필드, 젠슨 황, 얀 르쿤 등 6명의 다른 AI 선구자들과 함께 공동 수상했다. 이 상은 인류에 보편적 혜택을 가져온 혁신적 공학 업적을 기리는 세계 최고 권위의 공학상으로, '공학계의 노벨상'으로도 불린다. 왕립공학원은 리 교수가 머신러닝 알고리즘 학습을 위한 고품질 데이터셋 제공의 중요성을 확립했다고 평가했다.
2023년 타임 100 AI 가장 영향력 있는 인물(Time 100 AI Most Influential People): AI 분야에서 가장 영향력 있는 인물 중 한 명으로 선정되었다.
2023년 인텔 평생 공로 혁신상(Intel Lifetime Achievements Innovation Award): 인공지능 발전에 기여한 공로를 인정받았다.
2021년 미국 예술 과학 아카데미(American Academy of Arts and Sciences) 회원: 미국의 가장 오래되고 권위 있는 학술 단체 중 하나인 미국 예술 과학 아카데미의 회원으로 선정되었다.
2020년 미국 공학한림원(National Academy of Engineering) 및 의학한림원(National Academy of Medicine) 회원: 공학 및 의학 분야에서 최고 권위를 자랑하는 두 한림원의 회원으로 동시에 선출되었다.
2016년 국제 패턴 인식 협회(International Association for Pattern Recognition) 업적상: 장면 이해 및 이미지 스토리텔링 분야에서의 업적을 인정받았다.
2014년 IBM 교수상(IBM Faculty Award)
2011년 알프레드 슬론 교수상(Alfred Sloan Fellowship)
토머스 황 메모리얼 상(Thomas Huang Memorial Award)
내셔널 지오그래픽 소사이어티 퓨처상(National Geographic Society Future Award)
엔비디아 AI 개척자상(NVIDIA AI Pioneer Award)
이 외에도 그녀는 수많은 학술적 영예와 산업적 인정을 받으며 AI 분야의 선도적인 인물로서 그 위상을 확고히 하고 있다.
7. 미래 비전과 전망
페이페이 리 교수는 인공지능의 다음 개척 분야를 '공간 지능(Spatial Intelligence)'으로 보고 있으며, 이를 통해 AI가 단순히 디지털 콘텐츠를 생성하는 것을 넘어 3차원 물리적 세계를 이해하고 상호작용할 수 있도록 발전해야 한다고 강조한다.
그녀는 현재 대형 언어 모델(LLM) 중심의 AI가 텍스트와 코드 처리에는 뛰어나지만, 물리적 현실에 대한 이해가 부족하여 "어둠 속의 문장가(wordsmiths in the dark)"에 불과하다고 지적한다. 공간 지능은 인간이 주변 환경을 시각, 촉각 등 감각을 통해 이해하고, 사물 간의 기하학적 관계, 물리학적 법칙, 인과관계를 추론하는 능력과 유사하다. 리 교수는 AI가 진정한 지능을 갖추려면 인간처럼 세상을 공간적으로 인식하고 경험하는 '눈과 몸'을 가져야 한다고 주장한다.
이러한 공간 지능을 구현하기 위해 그녀는 '월드 모델(World Model)'이라는 개념을 제시한다. 월드 모델은 단순한 이미지 생성기를 넘어, 물리적 세계의 법칙을 내재화하여 일관성 있는 3차원 가상 세계를 생성하고 시뮬레이션할 수 있는 시스템을 의미한다. 월드 모델이 갖춰야 할 핵심 역량으로는 기하학적, 물리적, 의미적 일관성을 지닌 가상 세계를 창조하는 '생성성(Generativity)', 텍스트, 이미지, 비디오, 깊이 지도 등 다양한 형태의 입력을 처리하고 통합하는 '멀티모달리티(Multimodality)', 그리고 행동 입력에 따라 세계의 다음 변화를 예측하고 상호작용하는 '상호작용성(Interactivity)'을 꼽는다.
이러한 비전을 현실화하기 위해 페이페이 리 교수는 2024년 4월, 동료 3명과 함께 '월드랩스(World Labs)'라는 스타트업을 공동 설립했다. 월드랩스는 3차원 물리적 세계를 이해할 수 있는 공간 지능 AI 기술 개발을 목표로 하며, 설립 4개월 만인 2024년 9월에는 10억 달러 이상의 기업 가치로 총 2억 3천만 달러 규모의 투자를 유치하며 유니콘 기업으로 빠르게 성장했다. 이 투자에는 앤드리슨 호로위츠, 제프 딘, 제프리 힌튼, 에릭 슈밋, 마크 베니오프, 리드 호프먼 등 업계 거물급 인사와 AMD, NVIDIA, 어도비 등 유수의 기업들이 참여했다.
리 교수는 공간 지능 기반 AI가 헬스케어, 교육, 창의 산업(영화, 게임, 건축) 등 다양한 분야에서 혁신적인 응용 가능성을 가질 것으로 전망한다. 예를 들어, 로봇 가사도우미와 같이 실제 환경에서 자율적으로 작업을 수행하는 '로봇 지능(Embodied Intelligence)' 시대가 열릴 것이라고 내다본다. 그녀는 AI가 인간의 능력을 보완하고 삶의 질을 향상시키는 도구가 될 것이라고 믿으며, AI의 책임감 있는 개발과 윤리적 활용의 중요성을 끊임없이 강조한다. 또한, AI 기술이 민주주의, 노동, 교육 등 사회 전반에 미치는 영향에 대해 시민들이 충분히 이해하고 참여할 수 있도록 공공 교육의 강화를 주장한다.
참고 문헌
AI타임스. (2025년 6월 17일). 페이페이 리 "인간도 공간 지능 완전치 않아...로봇은 지능 이상 '감각 통합' 필요".
나무위키. (2026년 1월 2일). 페이페이 리.
인공지능신문. (2025년 11월 9일). 스탠퍼드大 페이페이 리 교수, '퀸 엘리자베스 엔지니어링상' 수상.
AI브랜드. (2025년 11월 14일). 공간지능을 넘어, 지혜지능으로.
AI포스트. (2025년 11월 5일). 英 엘리자베스 여왕 공학상 받는 페이페이 리 "대부는 많지만 'AI 대모'는 한 명뿐".
나무위키. (2026년 1월 2일). 페이페이 리 (r30 판).
Stanford Report. (2025년 11월 7일). Fei-Fei Li wins Queen Elizabeth Prize for Engineering.
나무위키. (2023년 5월 29일). 페이페이 리 (r11 판).
서울스피커스뷰로. 페이페이 리 Fei-Fei Li 스탠포드 인간중심AI연구소(HAI) 공동창립자.
위키백과. 페이페이 리.
유니콘팩토리. (2025년 11월 13일). AI의 대모, "공간지능 시대 열린다"…로봇 가사도우미 곧 등장.
네이버 프리미엄콘텐츠. (2025년 12월 1일). 언어에서 세계로(From Words to Worlds): 공간지능과 피지컬 AI가 여는 새로운 가치.
BBC News. (2025년 11월 5일). Fei-Fei Li, 'Godmother of AI,' wins 2025 Queen Elizabeth Prize for Engineering.
Koder.ai. (2025년 8월 27일). 페이페이 리와 이미지넷: AI를 재구성한 데이터셋.
나무위키. (최신 버전). 페이페이 리 (r22 판).
중소기업미래경영원. (2024년 10월 8일). 4차 산업혁명을 이끈 사람들 (4) : 이미지넷 프로젝트 리더, 페이페이 리.
네이버 프리미엄콘텐츠. (2025년 6월 11일). 페이페이 리(Fei Fei Li) 교수 인터뷰 - 지금의 언어 모델을 뛰어넘을 공간지능 기반 AI & 월드 모델.
SBS D포럼. (2025년 11월 13일). [연사소개] 페이페이 리.
AI타임스. (2024년 10월 11일). 페이페이 리, 컴퓨팅 공급업체로 '친정' 구글 클라우드 선정.
Disquiet*. (2023년 9월 10일). AI 리더 앤드류 응과 페이페이 리의 인간 중심적 인공지능 설계에 대한 논의.
네이버 프리미엄콘텐츠. (2025년 11월 27일). 페이페이 리 교수가 설명하는 LLM의 한계: 월드 모델과 공간 지능이 여는 새로운 AI 패러다임.
연합뉴스. (2025년 2월 10일). 'AI 대모' 페이페이 리 "인간중심 AI 만들자".
지디넷코리아. (2017년 12월 14일). 구글 중국 센터 이끄는 '두 여신' 누구?.
NOW엑셈. (2018년 6월 22일). IT easy, IT is! | 열두번째, 딥러닝의 대모 페이페이 리.
MIT 테크놀로지 리뷰. (2023년 11월 30일). "AI는 지금 전환기에 있다"...페이페이 리가 말하는 인류의 과제.
AI4ALL. (2022-2023). AI4ALL's Work During the 2022-2023 Academic Year.
AI포스트. (2025년 11월 6일). 英 엘리자베스 여왕 공학상 받는 페이페이 리 "대부는 많지만 'AI 대모'는 한 명뿐".
중소기업미래경영원. (최신). 인공지능 기술발전의 숨은 공헌자, 이미지넷.
조선비즈. (2025년 11월 13일). 페이페이 리 “AI 시대 일자리 더 많아질 것… 교사도, 인간의 역할도 진화”.
AI4ALL. Results.
브런치. (2017년 6월 23일). [카카오 AI리포트]페이페이 리의 '모두를 위한 AI'.
AI4ALL. Home.
헬로디디. (2026년 1월 6일). [CES현장] "AI, 화면 밖 현실 세계 진출"···주도권 경쟁 '치열'.
AI4ALL. (2024). 2024.
AI포스트. (2025년 11월 6일). 英 엘리자베스 여왕 공학상 받는 페이페이 리 "대부는 많지만 'AI 대모'는 한 명뿐".
AI4ALL. Home.
(Fei-Fei Li)의 월드 랩스(World Labs) 등과 경쟁하고 있다. 런웨이는 시뮬레이션 기반 학습으로 AI가 인간처럼 세계를 체험하고 실수를 통해 학습할 수 있는 기반을 마련하는 방향으로, AI 발전의 새로운 패러다임을 제시하고 있다.
GWM-1은 로봇 훈련, 게임, 교육 등 다양한 산업에서 잠재력을 지니고 있다. 로봇 훈련에서는 시뮬레이션을 통해 비용 절감과 안전성 향상이 기대되며, 게임 및 엔터테인먼트 산업에서는 실시간 생성 가능한 인터랙티브 3D 환경을 제공할 수 있다. 또한, 교육, 자율주행
자율주행
목차
1. 자율주행의 개념 및 분류
2. 자율주행 기술의 역사와 발전 과정
3. 자율주행의 핵심 기술 및 원리
4. 주요 활용 사례 및 응용 분야
5. 현재 동향 및 상용화 수준
6. 자율주행 기술의 미래 전망 및 기대 효과
1. 자율주행의 개념 및 분류
자율주행은 차량이 운전자의 조작 없이 주변 환경을 인지하고, 주행 상황을 판단하며, 스스로 차량을 제어하여 목적지까지 이동하는 기술을 의미한다. 이는 단순한 운전자 보조 시스템을 넘어, 차량 자체의 지능적인 판단과 행동을 통해 안전하고 효율적인 이동을 구현하는 것을 목표로 한다. 자율주행 기술은 그 발전 수준에 따라 국제적으로 표준화된 분류 체계를 따르는데, 이는 미국 자동차 공학회(SAE, Society of Automotive Engineers)에서 정의한 6단계(레벨 0~5) 분류가 가장 널리 사용된다.
1.1. SAE 자율주행 레벨 분류
SAE 분류는 주행 중 운전자의 개입 정도와 시스템이 담당하는 주행 기능의 범위를 기준으로 자율주행 단계를 나눈다. 각 레벨은 다음과 같다.
레벨 0 (자동화 없음, No Automation): 운전자가 모든 주행 기능을 직접 제어하는 단계이다. 차량은 어떠한 자율주행 기능도 제공하지 않는다.
레벨 1 (운전자 보조, Driver Assistance): 특정 주행 모드에서 시스템이 운전자를 보조하는 단계이다. 예를 들어, 어댑티브 크루즈 컨트롤(ACC)이나 차선 유지 보조(LKA) 기능이 이에 해당한다. 운전자는 여전히 주변 환경을 주시하고, 언제든 차량 제어권을 넘겨받을 준비를 해야 한다.
레벨 2 (부분 자동화, Partial Automation): 시스템이 조향과 가감속 등 두 가지 이상의 주행 기능을 동시에 수행하는 단계이다. 테슬라의 오토파일럿이나 현대차의 고속도로 주행 보조(HDA) 등이 대표적이다. 하지만 운전자는 여전히 주행 환경을 모니터링하고, 시스템이 요청하거나 비상 상황 발생 시 즉시 개입해야 한다.
레벨 3 (조건부 자동화, Conditional Automation): 특정 조건 하에서 시스템이 모든 주행 기능을 수행하고 주변 환경을 모니터링하는 단계이다. 운전자는 시스템이 안전하게 작동할 수 있는 특정 조건(예: 고속도로 주행) 내에서는 운전에서 자유로울 수 있다. 그러나 시스템이 주행 불가능 상황을 감지하고 운전자에게 개입을 요청하면, 운전자는 제한된 시간 내에 제어권을 넘겨받아야 한다. 혼다의 레전드와 메르세데스-벤츠의 드라이브 파일럿이 레벨 3 시스템을 상용화한 사례이다.
레벨 4 (고도 자동화, High Automation): 특정 운행 설계 영역(ODD, Operational Design Domain) 내에서 시스템이 모든 주행 기능을 수행하며, 운전자의 개입 없이 비상 상황에도 스스로 대처할 수 있는 단계이다. 운전자는 ODD 내에서는 운전석에 앉아있을 필요조차 없으며, 시스템이 운행 불가능 상황을 감지하더라도 안전하게 차량을 정지시킬 수 있다. 로보택시 서비스 등이 레벨 4를 목표로 개발되고 있다.
레벨 5 (완전 자동화, Full Automation): 모든 도로 조건과 환경에서 시스템이 모든 주행 기능을 수행하는 단계이다. 운전자의 개입이 전혀 필요 없으며, 사실상 운전대나 페달이 없는 차량도 가능해진다. 이는 인간 운전자가 할 수 있는 모든 주행을 시스템이 완벽하게 대체하는 궁극적인 자율주행 단계이다.
2. 자율주행 기술의 역사와 발전 과정
자율주행 기술의 역사는 20세기 중반으로 거슬러 올라간다. 초기에는 주로 군사적 목적이나 자동화된 운송 시스템 연구의 일환으로 시작되었다.
2.1. 초기 연구 및 개념 정립 (1950년대 ~ 1980년대)
1950년대에는 제너럴 모터스(GM)가 '미래의 고속도로(Future Highway)'라는 개념을 제시하며, 도로에 매설된 전선을 통해 차량을 제어하는 아이디어를 선보였다. 이는 오늘날 자율주행의 초기 구상으로 볼 수 있다. 1980년대에는 카네기 멜론 대학교의 ALVINN(Autonomous Land Vehicle In a Neural Network) 프로젝트가 신경망을 이용해 도로를 인식하고 주행하는 연구를 진행하며 인공지능의 가능성을 보여주었다.
2.2. DARPA 챌린지 및 센서 기술 발전 (2000년대)
자율주행 기술 발전에 결정적인 전환점이 된 것은 미국 국방부 산하 방위고등연구계획국(DARPA)이 주최한 'DARPA 그랜드 챌린지'와 '어반 챌린지'이다. 2004년부터 시작된 이 대회들은 무인 차량이 사막이나 도시 환경에서 정해진 코스를 완주하는 것을 목표로 했으며, 라이다(LiDAR), 레이더(Radar), 카메라 등 다양한 센서 기술과 인공지능 기반의 환경 인식 및 경로 계획 기술 발전을 촉진했다. 스탠퍼드 대학교의 '스탠리(Stanley)'와 카네기 멜론 대학교의 '보스(Boss)' 등이 이 대회를 통해 자율주행 기술의 실현 가능성을 입증했다.
2.3. 인공지능 및 빅데이터 도입 (2010년대)
2010년대에 들어서면서 딥러닝을 비롯한 인공지능 기술의 비약적인 발전과 컴퓨팅 파워의 증가는 자율주행 기술 발전에 가속도를 붙였다. 구글(현 웨이모)은 2009년부터 자율주행차 프로젝트를 시작하며 실제 도로 주행 데이터를 대규모로 수집하고, 이를 기반으로 인공지능 알고리즘을 고도화했다. 테슬라는 카메라 기반의 비전 시스템과 인공지능을 활용한 자율주행 기술을 개발하며 상용차에 적용하기 시작했다. 이 시기에는 고정밀 지도 기술과 V2X(Vehicle-to-everything) 통신 기술의 중요성도 부각되었다.
2.4. 상용화 경쟁 심화 (2020년대 이후)
현재는 레벨 2, 3 수준의 자율주행 기능이 상용차에 폭넓게 적용되고 있으며, 레벨 4 수준의 로보택시 서비스가 일부 지역에서 시범 운영되거나 상용화 초기 단계에 진입했다. 웨이모, 크루즈(Cruise), 바이두(Baidu) 등은 특정 지역에서 운전자 없는 로보택시 서비스를 제공하며 기술의 안정성과 신뢰성을 입증하고 있다. 완성차 제조사들은 물론, 엔비디아(NVIDIA), 인텔(Intel) 모빌아이(Mobileye)와 같은 반도체 및 소프트웨어 기업들도 자율주행 시장의 주도권을 잡기 위해 치열하게 경쟁하고 있다.
3. 자율주행의 핵심 기술 및 원리
자율주행 시스템은 크게 주변 환경을 인지하는 센서, 수집된 데이터를 분석하고 판단하는 인공지능, 정확한 위치를 파악하는 고정밀 지도 및 측위 기술, 그리고 차량을 제어하는 제어 시스템으로 구성된다. 이 네 가지 핵심 기술이 유기적으로 결합하여 자율주행을 가능하게 한다.
3.1. 환경 인지 센서 기술
자율주행차는 사람의 눈과 같은 역할을 하는 다양한 센서를 통해 주변 환경을 인식한다.
카메라 (Camera): 차량 주변의 시각 정보를 수집하여 차선, 신호등, 표지판, 보행자, 다른 차량 등을 식별한다. 색상 정보를 얻을 수 있고 비용이 저렴하며 해상도가 높다는 장점이 있지만, 빛의 변화(역광, 터널), 날씨(안개, 비, 눈)에 취약하다는 단점이 있다.
레이더 (Radar): 전파를 발사하여 물체에 반사되어 돌아오는 시간을 측정해 물체와의 거리, 속도, 방향을 감지한다. 날씨 변화에 강하고 장거리 감지에 유리하며, 특히 전방 충돌 방지 시스템(FCW)이나 어댑티브 크루즈 컨트롤(ACC)에 필수적으로 사용된다. 하지만 물체의 형상을 정확히 파악하기 어렵다는 한계가 있다.
라이다 (LiDAR): 레이저 펄스를 발사하여 반사되는 시간을 측정해 주변 환경의 3D 지도를 생성한다. 매우 정밀한 거리 및 형태 정보를 제공하며, 야간에도 뛰어난 성능을 발휘한다. 자율주행차의 '눈' 또는 '뇌'의 핵심 센서로 불리지만, 높은 비용과 날씨에 따른 성능 저하 가능성이 단점으로 지적된다.
초음파 센서 (Ultrasonic Sensor): 주로 근거리 물체 감지에 사용되며, 주차 보조 시스템이나 저속 주행 시 장애물 감지에 활용된다.
3.2. 인공지능 및 머신러닝
다양한 센서에서 수집된 방대한 데이터는 인공지능(AI)과 머신러닝(ML) 알고리즘을 통해 분석되고 해석된다. 이는 자율주행차의 '뇌' 역할을 한다.
데이터 융합 (Sensor Fusion): 각 센서의 장단점을 보완하기 위해 여러 센서에서 얻은 데이터를 통합하여 보다 정확하고 신뢰성 있는 환경 모델을 구축한다. 예를 들어, 카메라의 시각 정보와 라이다의 3D 거리 정보를 결합하여 물체의 종류와 위치를 더욱 정확하게 파악한다.
객체 인식 및 분류 (Object Detection & Classification): 딥러닝 기반의 컴퓨터 비전 기술을 활용하여 이미지 및 3D 포인트 클라우드 데이터에서 차량, 보행자, 자전거, 차선, 신호등 등을 실시간으로 감지하고 분류한다.
경로 계획 및 의사 결정 (Path Planning & Decision Making): 인식된 환경 정보와 고정밀 지도를 바탕으로 안전하고 효율적인 주행 경로를 계획한다. 이는 예측 알고리즘을 통해 다른 차량이나 보행자의 움직임을 예측하고, 이에 따라 차선 변경, 속도 조절, 정지 등의 의사결정을 내리는 과정을 포함한다. 강화 학습(Reinforcement Learning)과 같은 고급 AI 기술이 활용되기도 한다.
3.3. 고정밀 지도 및 측위 기술
자율주행차는 정확한 위치 파악과 주변 환경에 대한 상세한 정보를 위해 고정밀 지도(HD Map)와 정밀 측위 기술을 필요로 한다.
고정밀 지도 (HD Map): 일반 내비게이션 지도보다 훨씬 정밀한 정보를 제공한다. 차선 정보, 도로 경계, 신호등 위치, 표지판, 노면 표시, 심지어 가로수나 건물과 같은 주변 지형지물까지 센티미터 단위의 정확도로 포함한다. 이는 센서의 한계를 보완하고, 차량이 현재 위치를 정확히 파악하며, 미리 경로를 계획하는 데 필수적이다.
정밀 측위 (Precise Positioning): GPS(GNSS) 신호와 함께 IMU(관성 측정 장치), 휠 속도 센서, 카메라, 라이다 등 다양한 센서 데이터를 융합하여 차량의 정확한 위치를 실시간으로 파악한다. 특히 RTK(Real-Time Kinematic) GPS나 PPP(Precise Point Positioning)와 같은 기술은 GPS 오차를 보정하여 수 센티미터 수준의 정밀한 위치 정보를 제공한다.
3.4. 제어 시스템 (Drive-by-Wire)
자율주행 시스템의 판단과 계획에 따라 차량을 실제로 움직이는 것이 제어 시스템이다. 이는 'Drive-by-Wire' 기술을 기반으로 한다.
전자식 제어 (Electronic Control): 기존의 기계식 연결(스티어링 휠과 바퀴, 브레이크 페달과 브레이크 등)을 전기 신호로 대체하는 기술이다. 스티어 바이 와이어(Steer-by-Wire), 브레이크 바이 와이어(Brake-by-Wire), 스로틀 바이 와이어(Throttle-by-Wire) 등이 이에 해당한다. 이를 통해 자율주행 시스템이 차량의 조향, 가속, 제동을 정밀하게 제어할 수 있게 된다.
차량 동역학 제어 (Vehicle Dynamics Control): 차량의 안정성과 승차감을 유지하면서 경로를 정확하게 추종하도록 제어한다. 이는 속도 제어, 차선 유지 제어, 장애물 회피 제어 등 다양한 하위 제어 알고리즘을 포함한다.
4. 주요 활용 사례 및 응용 분야
자율주행 기술은 단순히 개인 승용차를 넘어 다양한 운송 및 물류 분야에서 혁신적인 변화를 가져오고 있다.
4.1. 승용차 및 대중교통
개인 승용차: 현재 레벨 2 수준의 자율주행 기능(고속도로 주행 보조, 차선 변경 보조 등)이 고급차종을 중심으로 보편화되고 있으며, 테슬라와 같은 일부 제조사는 레벨 3에 준하는 기능을 제공하며 운전자의 편의성을 높이고 있다. 미래에는 완전 자율주행 승용차가 보편화되어 운전자가 운전에서 완전히 해방되는 시대를 열 것으로 기대된다.
로보택시 (Robotaxi): 레벨 4 수준의 자율주행 기술을 기반으로 운전자 없이 승객을 운송하는 서비스이다. 웨이모(Waymo), 크루즈(Cruise), 바이두(Baidu) 등은 미국 피닉스, 샌프란시스코, 중국 베이징 등 일부 도시에서 로보택시 서비스를 상용화하거나 시범 운영하고 있다. 이는 대중교통의 효율성을 높이고, 이동 약자의 접근성을 개선하며, 교통 체증 및 주차 문제 해결에 기여할 것으로 보인다.
자율주행 셔틀: 특정 구간을 정기적으로 운행하는 자율주행 셔틀버스도 상용화되고 있다. 공항, 대학 캠퍼스, 산업 단지, 신도시 등에서 고정된 노선을 운행하며 대중교통의 보조적인 역할을 수행한다. 국내에서도 세종시, 순천만국가정원 등에서 자율주행 셔틀이 운영된 바 있다.
4.2. 물류 및 배송
자율주행 트럭: 장거리 운송에 특화된 자율주행 트럭은 물류 비용 절감, 운전자 피로도 감소, 운행 시간 증대 등의 이점을 제공한다. 투심플(TuSimple), 오로라(Aurora) 등은 고속도로를 중심으로 자율주행 트럭 운송 서비스를 개발 및 시범 운영하고 있다.
배송 로봇: 라스트마일(Last-mile) 배송에 활용되는 자율주행 배송 로봇은 도심이나 아파트 단지 내에서 소규모 물품을 배송한다. 이는 인력난 해소와 배송 효율성 증대에 기여하며, 국내에서도 우아한형제들의 '딜리'와 같은 배송 로봇이 시범 운영되고 있다.
4.3. 기타 운송수단
철도: 지하철, 경전철 등 도시 철도 시스템에서는 이미 높은 수준의 무인 운전 시스템이 적용되고 있다. 이는 정시성 확보와 운영 효율성 증대에 크게 기여한다.
항공기: 항공기는 이륙 및 착륙 시 조종사의 개입이 필요하지만, 순항 비행 중에는 오토파일럿 시스템을 통해 상당 부분 자율 비행이 이루어진다. 미래에는 완전 자율 비행 항공기 및 드론 택시(UAM) 개발이 활발히 진행될 것으로 예상된다.
선박: 자율운항 선박은 항해 중 충돌 회피, 경로 최적화, 연료 효율 증대 등을 목표로 개발되고 있다. 현대중공업그룹의 아비커스(Avikus)는 대형 선박의 자율운항 솔루션을 개발하며 상용화를 추진 중이다.
5. 현재 동향 및 상용화 수준
현재 자율주행 기술은 빠른 속도로 발전하며 상용화 단계를 밟고 있으나, 완전 자율주행(레벨 5)에 도달하기까지는 여전히 많은 과제가 남아있다.
5.1. 상용화 현황 및 주요 기업 경쟁
현재 시장에서는 레벨 2 수준의 자율주행 기능이 보편화되어 신차 구매 시 쉽게 접할 수 있다. 고속도로 주행 보조(HDA), 차선 유지 보조(LKA), 어댑티브 크루즈 컨트롤(ACC) 등이 대표적이다. 레벨 3 자율주행은 특정 조건(예: 고속도로 정체 구간)에서 운전자의 개입 없이 주행이 가능한 수준으로, 메르세데스-벤츠의 '드라이브 파일럿'과 혼다의 '레전드'가 일본과 독일 등 일부 국가에서 상용화되었다.
레벨 4 자율주행은 특정 운행 설계 영역(ODD) 내에서 운전자 개입 없이 완전 자율주행이 가능한 단계로, 웨이모(Waymo)와 크루즈(Cruise)가 미국 피닉스, 샌프란시스코 등에서 로보택시 서비스를 운영하며 선두를 달리고 있다. 중국에서는 바이두(Baidu)의 아폴로(Apollo)가 우한, 충칭 등에서 로보택시를 운영 중이다.
주요 완성차 제조사들은 물론, 구글 웨이모, GM 크루즈, 바이두, 그리고 엔비디아, 인텔 모빌아이와 같은 기술 기업들이 자율주행 소프트웨어 및 하드웨어 개발에 막대한 투자를 하며 치열한 경쟁을 벌이고 있다. 특히 소프트웨어 정의 차량(SDV)으로의 전환이 가속화되면서, 자율주행 기술은 차량의 핵심 경쟁력으로 부상하고 있다.
5.2. 기술적 도전 과제
자율주행 기술의 완전한 상용화를 위해서는 여전히 해결해야 할 기술적 난제들이 많다.
악천후 및 비정형 환경 대응: 폭우, 폭설, 짙은 안개 등 악천후 상황에서는 센서의 인지 능력이 크게 저하될 수 있다. 또한, 공사 구간, 비포장도로, 예측 불가능한 보행자 행동 등 비정형적인 주행 환경에서의 안정적인 대응 능력 확보가 중요하다.
엣지 케이스 (Edge Cases) 처리: 일반적이지 않고 드물게 발생하는 '엣지 케이스' 상황(예: 도로 위의 특이한 물체, 비정상적인 교통 흐름)에 대한 시스템의 판단 및 대응 능력 강화가 필요하다. 이를 위해 방대한 양의 실제 주행 데이터와 시뮬레이션 데이터를 활용한 학습이 필수적이다.
사이버 보안: 자율주행차는 외부 네트워크에 연결되어 해킹의 위협에 노출될 수 있다. 차량 제어 시스템에 대한 사이버 공격은 심각한 안전 문제를 야기할 수 있으므로, 강력한 보안 시스템 구축이 필수적이다.
높은 컴퓨팅 파워 및 전력 소모: 복잡한 인공지능 알고리즘과 수많은 센서 데이터를 실시간으로 처리하기 위해서는 고성능 컴퓨팅 하드웨어가 필요하며, 이는 차량의 전력 소모를 증가시키는 요인이 된다.
5.3. 법적 및 윤리적 도전 과제
기술 발전과 더불어 법적, 윤리적 문제 또한 자율주행 상용화의 중요한 걸림돌로 작용하고 있다.
사고 책임 소재: 자율주행차 사고 발생 시 책임 소재를 누구에게 물을 것인가(운전자, 제조사, 소프트웨어 개발사 등)에 대한 명확한 법적 기준이 아직 정립되지 않았다. 이는 기술 개발 및 보험 제도에 큰 영향을 미친다.
규제 및 표준화: 각국 정부는 자율주행차의 안전성 확보를 위한 규제 프레임워크를 마련하고 있으며, 국제적인 표준화 노력도 진행 중이다. 하지만 기술 발전 속도에 맞춰 법규를 정비하는 것이 쉽지 않다.
윤리적 딜레마 (Trolley Problem): 피할 수 없는 사고 상황에서 자율주행차가 누구의 생명을 우선시해야 하는가와 같은 윤리적 딜레마는 사회적 합의가 필요한 부분이다. 예를 들어, 보행자와 탑승자 중 누구를 보호할 것인가와 같은 문제는 시스템 설계에 있어 중요한 고려 사항이다.
데이터 프라이버시: 자율주행차는 운전자의 이동 경로, 습관 등 민감한 개인 정보를 수집할 수 있다. 이러한 데이터의 수집, 저장, 활용에 대한 투명성과 보안성 확보가 중요하다.
6. 자율주행 기술의 미래 전망 및 기대 효과
자율주행 기술은 미래 사회의 모습을 근본적으로 변화시킬 잠재력을 가지고 있으며, 다양한 분야에서 혁신적인 기대 효과를 가져올 것으로 전망된다.
6.1. 미래 사회 변화 예측
교통 시스템의 혁신: 완전 자율주행 시대가 도래하면 교통 체증이 크게 감소하고, 교통 흐름이 최적화될 것이다. 차량 간 통신(V2V)과 인프라 통신(V2I)을 통해 도로 위의 모든 차량이 유기적으로 연결되어 효율적인 운행이 가능해진다. 또한, 주차 공간 활용의 효율성이 증대되고, 개인 차량 소유의 필요성이 줄어들며 공유 모빌리티 서비스가 더욱 활성화될 수 있다.
도시 계획 및 인프라 변화: 자율주행차에 최적화된 스마트 도시 인프라가 구축될 것이다. 이는 도로 설계, 신호 체계, 주차 공간 등 도시 전반의 변화를 유도하며, 대중교통 시스템과의 연계를 통해 도시 이동성을 극대화할 수 있다.
경제 및 고용 시장 영향: 물류 및 운송 산업의 효율성이 극대화되어 비용 절감 효과가 발생할 것이다. 새로운 모빌리티 서비스 시장이 창출되고 관련 산업이 성장할 것으로 예상된다. 반면, 전문 운전자 직업(택시, 트럭, 버스 기사 등)의 감소 가능성도 제기되어, 이에 대한 사회적 대비가 필요하다.
개인의 삶의 질 향상: 운전으로부터 자유로워진 시간은 개인의 생산성 향상이나 여가 활동에 활용될 수 있다. 이동 약자(노약자, 장애인)의 이동권이 크게 확대되며, 교통사고 감소로 인한 사회적 비용 절감 및 생명 보호 효과도 기대된다.
6.2. 완전 자율주행 시대의 도래 시점 및 과제
전문가들은 레벨 5 완전 자율주행의 상용화 시점에 대해 다양한 예측을 내놓고 있다. 일부는 2030년대 중반 이후로 예상하며, 기술적 난제와 사회적 합의가 필요함을 강조한다. 특히, 모든 기상 조건과 모든 도로 환경에서 인간 운전자를 능가하는 안전성을 확보하는 것이 가장 큰 과제이다.
또한, 앞서 언급된 기술적, 법적, 윤리적 과제들을 해결하기 위한 지속적인 연구 개발과 국제적인 협력, 그리고 사회적 논의가 필수적이다. 특히, 자율주행 시스템의 투명성과 신뢰성을 확보하고, 사고 발생 시 책임 소재를 명확히 하며, 윤리적 기준을 수립하는 것이 중요하다.
6.3. 윤리적 논의의 중요성
자율주행 기술은 단순한 공학적 문제를 넘어 사회 전체의 가치관과 윤리적 판단에 영향을 미친다. '트롤리 딜레마'와 같은 극단적인 상황뿐만 아니라, 시스템의 편향성, 데이터 프라이버시, 인간과 기계의 상호작용 방식 등 다양한 윤리적 질문에 대한 답을 찾아야 한다. 기술 개발 단계부터 사회 각계각층의 참여를 통해 윤리적 가이드라인을 수립하고, 기술이 인간의 존엄성과 안전을 최우선으로 하도록 설계하는 노력이 지속되어야 할 것이다.
자율주행 기술은 인류에게 전례 없는 이동의 자유와 편의를 제공할 잠재력을 가지고 있다. 기술의 발전과 함께 사회적 합의와 제도적 정비가 조화를 이룰 때, 우리는 비로소 안전하고 지속 가능한 자율주행 시대를 맞이할 수 있을 것이다.
참고 문헌
SAE International. (2021). J3016_202104: Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles.
National Highway Traffic Safety Administration (NHTSA). (2022). Automated Vehicles for Safety. Retrieved from https://www.nhtsa.gov/technology-innovation/automated-vehicles-safety
Mercedes-Benz. (2023). DRIVE PILOT. Retrieved from https://www.mercedes-benz.com/en/innovation/drive-pilot/
Carnegie Mellon University. (n.d.). ALVINN. Retrieved from https://www.cs.cmu.edu/~tjochem/alvinn/alvinn.html
DARPA. (n.d.). Grand Challenge. Retrieved from https://www.darpa.mil/about-us/timeline/grand-challenge
Waymo. (n.d.). Our history. Retrieved from https://waymo.com/journey/
Cruise. (2023). Cruise Origin. Retrieved from https://www.getcruise.com/origin/
Mobileye. (2023). Mobileye SuperVision™ and Mobileye Chauffeur™. Retrieved from https://www.mobileye.com/our-technology/mobileye-supervision-and-mobileye-chauffeur/
Kim, J. H., & Kim, J. H. (2022). A Review of Sensor Fusion Techniques for Autonomous Driving. Journal of Advanced Transportation, 2022.
Chen, X., et al. (2023). Deep Learning for Autonomous Driving: A Survey. IEEE Transactions on Intelligent Transportation Systems, 24(1), 1-20.
Jo, K., et al. (2022). High-Definition Map Generation and Localization for Autonomous Driving: A Survey. Sensors, 22(1), 321.
Guldner, S., et al. (2021). Drive-by-Wire Systems for Autonomous Vehicles: A Review. SAE Technical Paper, 2021-01-0863.
Tesla. (n.d.). Autopilot and Full Self-Driving Capability. Retrieved from https://www.tesla.com/autopilot
Baidu Apollo. (n.d.). Robotaxi. Retrieved from https://apollo.baidu.com/robotaxi
국토교통부. (2023). 자율주행 셔틀 서비스 확대.
TuSimple. (n.d.). Autonomous Freight Network. Retrieved from https://www.tusimple.com/technology/autonomous-freight-network
우아한형제들. (n.d.). 배달의민족 자율주행 로봇 '딜리'. Retrieved from https://www.woowahan.com/tech/robot-delivery
Siemens Mobility. (n.d.). Automated Train Operation. Retrieved from https://www.siemens.com/global/en/products/mobility/rail-solutions/automation/automated-train-operation.html
Airbus. (n.d.). Urban Air Mobility. Retrieved from https://www.airbus.com/en/innovation/future-mobility/urban-air-mobility
Avikus. (n.d.). Autonomous Navigation. Retrieved from https://www.avikus.ai/technology/autonomous-navigation
Honda. (2021). Honda SENSING Elite. Retrieved from https://global.honda/newsroom/news/2021/4210304eng.html
Deloitte. (2023). The future of mobility: Autonomous vehicles. Retrieved from https://www2.deloitte.com/us/en/pages/manufacturing/articles/future-of-mobility-autonomous-vehicles.html
Badue, C., et al. (2021). Self-Driving Cars: A Survey. Expert Systems with Applications, 165, 113812.
European Union Agency for Cybersecurity (ENISA). (2022). Cybersecurity of Autonomous Vehicles. Retrieved from https://www.enisa.europa.eu/publications/cybersecurity-of-autonomous-vehicles
Fagnant, D. J., & Kockelman, K. (2021). Preparing a Nation for Autonomous Vehicles: Opportunities, Barriers and Policy Recommendations. Transportation Research Part A: Policy and Practice, 144, 1-14.
Bonnefon, J. F., et al. (2016). The social dilemma of autonomous vehicles. Science, 352(6293), 1573-1576.
McKinsey & Company. (2023). Autonomous driving: The path to adoption. Retrieved from https://www.mckinsey.com/industries/automotive-and-assembly/our-insights/autonomous-driving-the-path-to-adoption
KPMG. (2022). Autonomous Vehicles Readiness Index. Retrieved from https://kpmg.com/xx/en/home/insights/2022/07/autonomous-vehicles-readiness-index.html
Gartner. (2023). Hype Cycle for Automotive and Smart Mobility.
, 과학 실험 등 다양한 분야에서 시뮬레이션 기반 접근 방식이 확산될 가능성이 크다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.
