본문으로 건너뛰기
블로그로 돌아가기
데미스 하사비스가 말한 AGI의 미래: 스케일링 법칙의 한계와 AI 병목현상
트렌드

데미스 하사비스가 말한 AGI의 미래: 스케일링 법칙의 한계와 AI 병목현상

7분 읽기0

데미스 하사비스가 말한 AGI의 미래: 스케일링 법칙의 한계와 AI 병목현상

AGI(인공일반지능)는 산업혁명의 10배 규모이며, 10배의 속도로 다가오고 있다. 구글 딥마인드 CEO 데미스 하사비스는 2026년 4월 20VC 인터뷰에서 AI의 현주소와 아직 해결되지 않은 근본적 병목현상을 솔직하게 진단했습니다.

데미스 하사비스(Demis Hassabis)는 알파고(AlphaGo)로 바둑 세계 챔피언을 최초로 이긴 AI를 만들고, 알파폴드(AlphaFold)로 2024년 노벨 화학상을 수상한 인물입니다. 그가 해리 스테빙스(Harry Stebbings)의 20VC 팟캐스트에서 밝힌 AGI 전망은 낙관과 현실주의가 공존합니다.

이 글에서는 하사비스가 제시한 AGI의 정의, 현재 AI의 4가지 병목현상, 스케일링 법칙의 한계, 그리고 포스트-LLM 시대에 대한 전망을 정리합니다.

AGI란 무엇인가: 딥마인드의 일관된 정의

하사비스는 AGI를 **"인간이 지적으로 할 수 있는 모든 것을 할 수 있는 시스템"**으로 정의합니다. 딥마인드는 창립 초기부터 이 정의를 유지해왔으며, 최근의 AI 발전에도 불구하고 아직 AGI에 도달하지 못했다고 평가합니다.

그가 제시한 AGI의 규모감은 놀랍습니다:

  • AGI는 산업혁명의 10배 규모
  • 10배의 속도로 도래할 것
  • 현재 AI 시스템에는 진정한 창의성, 일관성, 지속적 학습이 부재

이것은 단순한 기술 발전이 아니라 인류 문명의 근본적 전환을 의미합니다. 산업혁명이 200년에 걸쳐 진행되었다면, AGI급 변화는 5~10년 내로 압축될 수 있다는 경고입니다.

현재 AI의 4가지 병목현상: "들쭉날쭉한 지능"

하사비스는 현재 AI가 AGI에 도달하지 못하는 4가지 핵심 병목현상을 지적합니다.

1. 지속적 학습(Continual Learning)의 부재

현재 대형 언어 모델(LLM)은 학습이 완료된 후 "고정(frozen)" 상태로 배포됩니다. 인간처럼 경험을 통해 지속적으로 학습하고 적응하는 능력이 없습니다. 새로운 정보를 통합하려면 전체 모델을 재학습해야 하는 근본적 한계가 있습니다.

2. 장기 계획(Long-horizon Planning)의 취약성

현재 AI는 단기 목표 달성에는 뛰어나지만, 장기적 전략 수립과 실행에서 취약합니다. 복잡한 다단계 계획을 세우고 환경 변화에 맞춰 조정하는 능력은 아직 인간 수준에 미치지 못합니다.

3. 강건한 추론(Robust Reasoning)의 불일관성

하사비스는 이를 **"들쭉날쭉한 지능(Jagged Intelligence)"**이라고 표현합니다. 현재 AI는 국제 수학 올림피아드에서 금메달을 딸 수 있지만, 초등학교 수준의 산수 문제에서 실수를 합니다. 이 불일관성은 AI 시스템의 신뢰성에 심각한 문제를 제기합니다.

4. 진정한 창의성의 한계

현재 AI는 기존 패턴을 조합하는 데는 탁월하지만, 진정으로 새로운 것을 창조하는 능력은 제한적입니다. 새로운 물리학 분야를 발명하거나 혁명적인 예술 운동을 시작하는 수준의 창의성은 아직 도달하지 못했습니다.

스케일링 법칙의 50% 한계: 나머지 절반은 혁신이 필요

스케일링 법칙(Scaling Laws)은 모델의 크기와 데이터를 늘리면 성능이 향상된다는 원리로, 최근 AI 발전의 핵심 동력이었습니다. 하지만 하사비스는 이에 대해 냉정한 평가를 내립니다.

"스케일링은 AGI의 50%만 해결한다."

나머지 50%는 트랜스포머(Transformer) 아키텍처급의 근본적 혁신이 필요합니다. 스케일링의 수확 체감 현상이 나타나고 있으며, "중간 체제(middle regime)"에서 한계에 직면하고 있습니다.

딥마인드는 이에 대응하여 50/50 전략을 채택했습니다:

  • 50% 스케일링 극대화: 기존 아키텍처에서 최대한 성능 추출
  • 50% 혁신 연구: 차세대 돌파구를 위한 근본적 연구 투자

이것은 OpenAI와 같은 경쟁사와 차별화되는 접근입니다. 순수 스케일링에 올인하지 않고 연구 혁신에 동일한 비중을 두는 전략입니다.

LLM 상품화 논란: 선두 그룹의 선순환 효과

AI 업계에서 자주 제기되는 질문 중 하나는 LLM이 상품화(commoditize)될 것인가입니다. 하사비스의 답변은 명확합니다: 아니다.

3~4개 선두 그룹이 지속적으로 앞서갈 것이라는 전망입니다. 핵심 논리는 선순환 효과에 있습니다:

  1. 코딩 도구, 수학 도구 같은 중간 성과물 생산
  2. 이 성과물이 다음 세대 모델 구축을 가속화
  3. 선두 기업만이 이 선순환을 유지할 자원 보유

오픈소스에 대해서는 "과학과 오픈 모델의 강력한 지지자"라고 밝히면서도, 최첨단 모델은 선두 그룹이 계속 유지할 것이라는 현실적 전망을 제시합니다.

포스트-LLM 세계와 안전 문제

하사비스는 LLM 이후의 세계에 대해서도 흥미로운 전망을 합니다:

  • LLM 파운데이션 모델은 사라지지 않을 것
  • 하지만 월드 모델(World Model) 등 추가 돌파구가 필요할 가능성 50%
  • LLM이 AGI의 핵심 구성요소가 되겠지만, 전체 시스템인지 일부분인지는 미지수

안전(Safety) 문제에 대해서는 핵비확산 조약 수준의 국제 협약이 필요하다고 강조합니다. AI가 더 자율적(agentic)이 될수록 가드레일의 중요성은 더 커집니다.

일자리 영향에 대해서는 "대량 실업보다 의미(meaning)의 문제"라고 진단하면서, 적응 시간의 압축이 가장 큰 과제라고 지적합니다.

딥마인드의 저력: 90%의 돌파구

하사비스가 제시한 흥미로운 데이터가 있습니다:

"현대 AI 산업의 90% 돌파구가 구글 브레인, 구글 리서치, 딥마인드에서 나왔다."

이것은 단순한 자신감이 아니라 검증 가능한 사실입니다. 트랜스포머 논문(Attention Is All You Need), BERT, 알파고, 알파폴드 등 AI 역사의 이정표들이 모두 구글 생태계에서 탄생했습니다.

이 연구 자산에 TPU 인프라와 10년 이상의 AI 연구 역량을 통합하여 Gemini 시리즈로 선두 경쟁에 복귀한 것은 딥마인드의 전략적 강점입니다.

하사비스의 궁극적 비전: 현실의 본질 이해

하사비스의 궁극적 목표는 놀라울 정도로 근본적입니다:

"현실의 근본적 본질을 이해하는 것."

알파고로 바둑을 풀고, 알파폴드로 단백질 구조를 풀고, 지금은 Isomorphic Labs에서 AI 기반 신약 개발을 추진하고 있습니다. 그에게 AI는 단순한 도구가 아니라 과학적 발견의 가속기입니다.

자주 묻는 질문 (FAQ)

AGI는 언제 실현될까요?

하사비스는 구체적 시점을 명시하지 않지만, AGI급 변화가 5~10년 내에 압축될 수 있다고 암시합니다. 다만 현재 4가지 병목현상이 해결되어야 합니다.

스케일링 법칙은 한계에 도달했나요?

완전히 소진된 것은 아닙니다. 수확은 여전히 상당하지만 초기보다 감소하고 있습니다. 하사비스는 AGI의 50%는 스케일링으로, 나머지 50%는 새로운 혁신으로 해결해야 한다고 봅니다.

딥마인드와 OpenAI의 차이는 무엇인가요?

딥마인드는 스케일링과 연구 혁신에 50/50으로 투자하는 반면, 다른 경쟁사들은 스케일링에 더 집중하는 경향이 있습니다. 또한 딥마인드는 과학적 발견(알파폴드, 신약 개발)에 더 큰 비중을 둡니다.

AI가 일자리를 대체할까요?

하사비스는 대량 실업보다 "의미(meaning)의 문제"가 더 크다고 봅니다. 역사적으로 인간은 기술 변화에 적응해왔지만, 이번에는 변화의 속도가 다르다는 점이 과제입니다.

마무리: AGI 시대를 준비하는 자세

데미스 하사비스의 인터뷰에서 가장 인상적인 것은 솔직함입니다. AGI의 거대한 잠재력을 말하면서도 현재의 한계를 숨기지 않습니다. 스케일링의 수확 체감을 인정하면서도 연구 혁신으로 돌파구를 찾겠다는 전략을 제시합니다.

AGI가 산업혁명의 10배 규모로 10배의 속도로 온다면, 우리에게 필요한 것은 과대광고나 공포가 아니라 냉정한 현실 인식과 체계적 준비입니다. 하사비스가 보여주는 것은 바로 그 균형 잡힌 시각입니다.


참고 자료: