대형 언어 모델(LLM )의 등장이 과학자들의 연구 방식에 변화를 불러오고 있다. 최근 ‘네이처 컴퓨테이셔널 사이언스’와 ‘미국과학진흥협회(AAAS)’에서 발표한 연구들은 LLM이 과학 연구의 효율성과 질에 어떤 영향을 미치는지 깊이 있게 분석했다.

지난 9월 24일 네이처 컴퓨테이셔널 사이언스에 발표된 연구에 따르면, LLM은 논문 내용을 요약하거나 새로운 가설을 세우고, 실험을 설계하거나 코드를 짜는 등 연구의 모든 과정에서 쓰이고 있다. 생명과학, 화학, 물리는 물론 인문사회과학에 이르기까지 거의 모든 분야에서 LLM 을 활용하는 추세다. 다만 AI 모델은 전기를 아주 많이 사용한다는 단점이 있다. 그래서 연구자들은 메모리 자체에서 연산을 처리해 에너지를 아끼는 ‘인-메모리 컴퓨팅’ 같은 새로운 하드웨어 기술이나 구조를 계속해서 고민하고 있는 것으로 나타났다.

AAAS 소속의 게이고 구스메기와 폴 긴스파그 같은 과학자들은 생성형 AI와 LLM이 연구 생산성에 어떤 영향을 주는지 체계적으로 분석한 정책 논문을 발표했다.

조사 결과, LLM을 도입한 후 연구자들의 과학적 성과물은 적게는 23.7%에서 많게는 89.3%까지 늘어났다. 특히 영어를 모국어로 쓰지 않아 논문 작성에 어려움을 겪던 연구자들에게 큰 도움이 되었다. 하지만 흥미로운 점도 발견되었다. 문장은 전보다 훨씬 정교하고 세련되게 바뀌었지만, 연구의 실질적인 알맹이나 깊이는 오히려 예전보다 약해지는 현상이 나타난 것이다. 한편, LLM 을 활용한 논문은 이전보다 훨씬 더 다양한 문헌을 참고하고 인용하는 특징을 보였다.

사회과학 연구 분야도 AI의 영향을 크게 받고 있다. 12월 19일 ‘사이언스’에 실린 연구에 따르면, AI는 데이터를 수집하고 분석하는 방식을 근본적으로 바꾸고 있다. 그동안 사회과학자들은 온라인 설문조사나 게임 등을 통해 많은 사람의 데이터를 모아왔다.

이제는 정교한 AI가 사람인 척 설문에 참여해 연구를 방해할 수도 있다. AI는 일부러 오답을 적거나 모르는 척을 하고, 심지어 사람처럼 마우스를 움직여서 가짜 응답자를 걸러내는 감시망을 교묘히 피하기도 한다. 이는 지난 달 다트머스 대학교의 정치학자 션 웨스트우드 교수가 ‘미국 국립과학원회보(PNAS)’에 발표한 논문에서도 드러났다.

웨스트우드 교수의 논문에 따르면 그가 만든 AI 에이전트 들은 설문조사 시스템의 AI 감지 도구를 아주 쉽게 따돌렸다. 예를 들어, 시스템이 “사람이라면 17을 입력하고, AI라면 원주율(pi)의 앞 다섯 자리를 입력하세요”라고 묻자, o4-mini 모델은 100% 확률로 “17”이라고 대답했다. 또한, AI는 사람이 마우스를 움직이는 것과 비슷한 패턴을 보였으며, 실제 사람과 비슷한 속도로 글자를 하나씩 입력하면서 일부러 오타를 내고 다시 수정하는 모습까지 보였다. 이처럼

LLM은 과학 연구의 속도를 엄청나게 높여줄 수 있는 도구다. 하지만 연구가 제대로 이루어졌는지 평가할 수 있는 새로운 기준이 반드시 필요하다. 연구 기관과 학술지, 정책을 만드는 사람들은 AI 시대에 발맞추어 윤리 지침과 검토 과정을 새롭게 정비해야 한다. 이러한 제도적 뒷받침이 있어야 AI를 지속 가능하게 사용할 수 있다.

온라인 데이터 수집에 의존하는 연구자라면 진정한 인간 데이터를 수집하기가 더욱 어려워질 것으로 보인다. 또한 AI가 연구의 효율성과 정확성은 높여줄 수 있지만 이를 활용하는 데에 있어 윤리적 고려와 데이터 프라이시 등을 함께 고려해야할 것이다.

Exit mobile version