YouTube20VC with Harry Stebbings·2026년 4월 7일·1

Demis Hassabis: Why AGI is Bigger than the Industrial Revolution & Where Are The Bottlenecks in AI

Quick Summary

데미스 하사비스는 AGI가 산업혁명보다 더 큰 변화를 더 빠르게 일으킬 수 있다고 보지만, 실제 승부처는 단순 성능 향상이 아니라 컴퓨트, 연속 학습, 메모리, 계획, 추론 안정성 같은 구조적 병목을 누가 먼저 풀어내느냐에 있다고 본다.

영상 보기

클릭 전까지는 가벼운 미리보기만 먼저 불러옵니다.

원본 열기

🖼️ 4컷 인포그래픽

Demis Hassabis: Why AGI is Bigger than the Industrial Revolution & Where Are The Bottlenecks in AI의 핵심 내용을 4단계로 요약한 인포그래픽
Demis Hassabis: Why AGI is Bigger than the Industrial Revolution & Where Are The Bottlenecks in AI 핵심 내용을 4단계로 압축한 4컷 인포그래픽

💡 한 줄 결론

데미스 하사비스는 AGI가 산업혁명보다 더 큰 변화를 더 빠르게 일으킬 수 있다고 보지만, 실제 승부처는 단순 성능 향상이 아니라 컴퓨트, 연속 학습, 메모리, 계획, 추론 안정성 같은 구조적 병목을 누가 먼저 풀어내느냐에 있다고 본다.

📌 핵심 요점

  1. 하사비스는 AGI를 인간 마음이 가진 모든 인지 능력을 폭넓게 수행하는 시스템으로 정의하며, 향후 5년 안에 도달할 가능성이 매우 높다고 전망한다.
  2. 현재 가장 큰 병목은 더 큰 모델 훈련 자체만이 아니라, 새로운 알고리즘을 충분한 규모에서 시험하고 검증할 수 있게 해주는 연구용 컴퓨트 부족이라고 진단한다.
  3. 그는 스케일링의 수익이 둔화됐다는 점은 인정하지만, 스케일링 자체는 여전히 유효하다고 보며, 동시에 연속 학습, 장기 계획, 메모리, 일관된 추론은 아직 해결되지 않은 핵심 과제로 남아 있다고 말한다.
  4. AGI의 가장 큰 긍정적 활용처로 과학과 의학을 제시하며, 약물 설계 엔진, 임상 최적화, 환자 정밀 분류를 통해 신약 개발과 치료 혁신을 가속할 수 있다고 본다.
  5. 사회적으로는 오용과 통제 실패를 AI 안전의 핵심 위험으로 보며, 노동 대체와 부의 집중 가능성에 대응하기 위해 국제적 최소 기준, 인증 체계, 분배 장치가 필요하다는 입장을 드러낸다.

🧩 배경과 문제 정의

  • AGI를 무엇으로 볼 것인지가 이 대화의 출발점이다. 인간의 마음이 지닌 전반적 인지 능력을 갖춘 시스템을 기준으로 삼을 때, 현재의 모델 성능 향상이 실제로 일반지능으로 이어지고 있는지가 핵심 문제로 놓인다.
  • 겉으로는 모델 성능이 빠르게 개선되고 있지만, 그 이면에서는 컴퓨트 부족, 실험 규모의 제약, 새로운 알고리즘을 발명하는 난도가 점점 더 중요해지고 있다.
  • 특히 연속 학습, 장기 계획, 일관성 같은 능력이 아직 충분하지 않다는 점에서, 현재의 AI는 인상적인 성과를 보이면서도 구조적 한계를 함께 드러낸다.
  • 선도 연구소 사이의 격차 역시 단순한 모델 상품화만으로는 설명되지 않으며, 결국 새로운 아이디어를 만들어내는 연구 역량에 따라 다시 벌어질 가능성이 중요한 문제로 제기된다.

🕒 시간순 섹션별 상세정리

1. AGI의 충격 규모와 대화의 출발점 [00:49]

  • AGI의 등장은 산업혁명보다 훨씬 크고, 훨씬 빠른 전환이 될 수 있다는 인식이 제시된다.
  • 대화는 DeepMind의 현재 위치나 제품 경쟁보다 먼저, AGI를 어떤 기준으로 정의할지 정리하는 방향에서 시작된다.

2. AGI를 인간 수준의 일반지능으로 두는 기준 [01:24]

  • AGI는 인간 마음이 지닌 모든 인지 능력을 보이는 시스템으로 정의된다고 설명한다.
  • 그 기준이 중요한 이유는 인간의 뇌가 현재 확인된 일반지능의 유일한 실증 사례이기 때문이라는 논리가 뒤따른다.

3. AGI 도달 시점에 대한 현재 전망 [01:56]

  • 여러 저명 인사들이 2026년이나 2027년 같은 이른 시점을 언급하는 상황에서, 먼저 시점 예측의 불확실성이 짚어진다.
  • Hassabis는 이를 확률 분포로 보지만, 향후 5년 안에 AGI가 올 가능성은 매우 높다고 말한다.

4. 2010년 예측과 지금이 크게 다르지 않다는 판단 [02:19]

  • DeepMind 창업 초기인 2010년에도 공동창업자와 함께 컴퓨트와 알고리즘 진보를 바탕으로 AGI 시점을 추정했다고 말한다.
  • 당시 AI는 거의 막다른 분야처럼 여겨졌지만, 약 20년이 걸릴 것이라 계산했고 지금도 대체로 그 궤도 위에 있다고 본다.

5. 가장 큰 병목은 컴퓨트라는 진단 [02:58]

  • 현재 가장 큰 병목은 컴퓨트라고 본다.
  • 더 큰 모델 훈련뿐 아니라 새로운 알고리즘 아이디어를 충분한 규모에서 실험하는 데에도 막대한 연산 자원이 필요하다고 설명한다.

6. 스케일링 둔화와 여전히 남아 있는 수익 [03:48]

  • 대형 언어모델 초기에 세대가 바뀔 때마다 나타났던 큰 성능 도약은 계속 같은 속도로 이어지기 어렵다고 본다.
  • 그렇다고 스케일링의 효과 자체가 끝난 것은 아니며, 선도 연구소들은 여전히 그 수익을 얻고 있다고 말한다.

7. 기대보다 빠른 진전과 여전히 비어 있는 연속 학습 [04:40]

  • 전반적으로 많은 영역이 자신의 과거 예상보다 앞서 있으며, 비디오 모델과 상호작용형 월드 모델은 꽤 놀라운 결과라고 평가한다.
  • 반면 현재 시스템은 배치 후 새 정보를 계속 학습하고 통합하는 연속 학습 능력이 여전히 부족하다고 지적한다.

8. 다음 돌파구 후보와 선도 연구소의 격차 확대 [05:27]

  • 연속 학습이 어려운 이유는 오랜 기간 훈련한 시스템 안에 새 학습을 안정적으로 통합하는 방법을 아직 풀지 못했기 때문이라고 본다.
  • 이어 메모리 구조, 장기 계획, 불균일한 추론 문제를 남은 핵심 과제로 꼽고, 앞으로는 새 알고리즘을 발명할 수 있는 상위 연구소가 더 큰 우위를 가질 것이라고 전망한다.

9. 오픈 모델은 최전선보다 한 걸음 뒤에서 확산될 가능성 [10:01]

  • 현재의 흐름이 앞으로도 대체로 이어질 가능성이 크다고 본다.
  • 오픈소스 모델은 절대적 프런티어보다 약간 뒤에서 따라가며 확산될 가능성이 높다고 말한다.

10. Gemma와 소형 공개 모델의 실용적 위치 [11:01]

  • Gemma를 포함한 공개 모델군을 각 크기별 최고 수준으로 만들겠다는 의지를 드러낸다.
  • 특히 소규모 개발자, 학계, 초기 스타트업, 엣지 환경에서 높은 실용성이 있을 것이라고 본다.

11. LLM 이후는 대체보다 누적의 문제 [11:25]

  • LLM 이후의 시대가 와도 파운데이션 모델 자체는 사라지지 않을 것이라고 본다.
  • 미래 AGI의 핵심은 LLM의 소멸이 아니라, 그것이 더 큰 시스템 안에서 어떻게 결합되느냐에 있다고 본다.

12. AGI가 열 수 있는 과학·의학의 황금기 [12:28]

  • AGI의 가장 긍정적인 미래상으로 과학과 의학을 위한 궁극적 도구를 제시한다.
  • 과학적 발견과 질병 치료의 속도를 크게 높여 새로운 황금기를 열 수 있다고 기대한다.

13. 약물 설계는 빨라져도 임상은 여전히 느리다 [13:04]

  • AlphaFold 이후 Isomorphic Labs를 통해 단백질 구조를 넘어 약물 발견 전반의 문제를 풀고자 한다고 설명한다.
  • 다만 설계 엔진이 발전해도 실제 환자에게 도달하기까지의 긴 임상 과정은 여전히 큰 병목으로 남는다고 본다.

14. AI는 임상과 규제 병목에도 개입할 수 있다 [13:53]

  • AI가 인체 대사의 일부를 시뮬레이션하고 환자군을 더 정교하게 나눠 임상 부담을 줄이는 데 도움을 줄 수 있다고 본다.
  • 먼저 약물 설계 문제를 풀고, 그다음 규제와 승인 지연 문제를 다루는 순서가 필요하다고 정리한다.

15. AI 안전의 핵심 위험은 오용과 통제 실패 [15:01]

  • AI 안전에서 첫 번째 핵심 위험은 악의적 행위자에 의한 오용이라고 본다.
  • 두 번째는 더 강력하고 자율적인 시스템을 원하는 가드레일 안에 머물게 할 수 있느냐는 기술적 안전성 문제다.

16. 최소 기준, 인증, 국제기구로 이어지는 검증 체계 [16:13]

  • 최소 기준과 공통 벤치마크를 세워 위험한 속성을 시험해야 한다고 본다.
  • 일정한 안전장치와 보증을 충족한 모델에 인증 표식을 부여하고, 장기적으로는 국제적 검증 체계가 필요하다고 말한다.

17. 노동 대체 논쟁의 출발점 [20:03]

  • 진행자는 노동 대체 우려가 가장 큰 사회적 걱정 가운데 하나라고 짚는다.
  • 질문의 초점은 AI 시스템의 실제 능력이 커질수록 노동시장 전반에 어떤 변화를 일으킬지에 맞춰진다.

18. 과거 혁신의 반복인가, 더 큰 단절인가 [20:31]

  • 하사비스는 이번에도 기존 일자리의 붕괴와 재편은 분명히 나타날 것이라고 본다.
  • 다만 이번 변화는 인터넷이나 모바일보다 더 클 수 있으며, 산업혁명보다 큰 규모가 더 빠르게 전개될 수 있다고 말한다.

19. 단기 과열과 장기 저평가의 공존 [22:06]

  • 그는 현재와 향후 1년 정도의 시야에서는 AI가 다소 과열되어 있다고 본다.
  • 반대로 10년 정도의 장기 시야에서는 AI가 가져올 변화의 급진성이 아직 충분히 체감되지 못하고 있다고 본다.

20. 부의 집중을 완화하는 분배 장치 [22:42]

  • AI 생산성 향상이 특정 기업에만 집중되면, 그 이익을 어떻게 사회 전체에 나눌지가 중요해진다고 본다.
  • 연금기금이나 국부펀드 같은 장치를 통해 더 넓은 계층이 성장의 과실을 공유할 수 있다고 제안한다.

21. AI가 경제 구조를 바꿀 수 있는 경로 [23:34]

  • 그는 향후 5년에서 10년 사이에 매우 큰 변화가 나타날 수 있으며, 그 변화는 단순한 자동화를 넘어 경제의 성격 자체를 바꿀 수 있다고 본다.
  • 특히 핵융합, 초전도체, 배터리, 소재과학 같은 분야에서 AI가 돌파구를 앞당길 수 있다고 전망한다.

22. AI 시대의 에너지 병목 해법 [24:06]

  • AI는 막대한 전력을 요구하지만, 장기적으로는 오히려 에너지 문제 해결에도 기여할 수 있다고 본다.
  • 전력망 최적화, 기후 모델링, 핵융합, 차세대 배터리 연구에서 AI가 핵심 역할을 할 수 있다고 설명한다.

23. 영국에 남은 이유와 유럽의 환경 [25:34]

  • 그는 영국과 유럽에 세계 최고 수준의 대학, 과학자, 엔지니어가 이미 충분히 자리하고 있다고 본다.
  • 실리콘밸리와 다소 떨어진 위치가 오히려 더 깊고 독창적인 사고를 가능하게 했다고 회고한다.

24. 유럽의 조 단위 기업과 성장 자본의 공백 [27:38]

  • 그는 유럽에서도 조 단위 기업이 충분히 나올 수 있으며, 자신도 그런 회사를 만들고 싶다고 말한다.
  • 다만 초대형 성장 자본의 부족은 여전히 유럽의 구조적 한계라고 진단한다.

25. 개인적 회상과 SpaceX 방문 이야기 [30:02]

  • 그는 상대를 매우 야심차고 공상과학을 좋아하는 인물로 기억하며, 로켓 공장을 직접 보고 싶었다고 말한다.
  • 이어 SpaceX 공장 방문 일화가 짧게 더해지면서, 대화 분위기도 한층 부드럽게 전환된다.

26. 가장 기대하는 의료 혁신과 범용 플랫폼 구상 [30:30]

  • 그는 암을 실제로 치료하고 싶다고 답하며, 의료 혁신을 가장 기대되는 변화로 꼽는다.
  • 현재 만들고 있는 것은 특정 질환 전용이 아니라 다양한 질병 영역에 적용 가능한 범용 신약 설계 플랫폼이라고 설명한다.

27. AGI 이후 더 크게 다가올 철학적 문제 [31:04]

  • 많은 사람들은 AGI의 경제적 문제를 먼저 걱정하지만, 자신은 오히려 철학적 문제가 더 크게 다가올 것이라고 말한다.
  • 의식, 의미, 인간다움 같은 질문이 앞으로 본격적으로 중요해질 것이라고 본다.

28. 남기고 싶은 유산과 마무리 [31:43]

  • 그는 과학의 진전에 기여한 사람으로 기억되고 싶다고 말한다.
  • 동시에 질병 치료처럼 세상에 실질적 혜택을 남기는 기술적 유산을 만들고 싶다고 답하며, 대화는 무엇을 만들 것인가를 넘어 무엇을 남길 것인가라는 질문으로 마무리된다.

🧾 결론

  • 이 인터뷰는 AGI를 단순한 성능 경쟁이나 제품 경쟁으로 다루지 않고, 인간 수준 일반지능의 조건이 실제로 얼마나 충족되고 있는지 따지는 대화에 가깝다. 하사비스는 현재 AI가 인상적인 성과를 냈다고 평가하면서도, 일반지능의 핵심 속성은 아직 완성되지 않았다고 본다.
  • 특히 컴퓨트는 단순 인프라 비용 문제가 아니라, 새로운 알고리즘을 검증할 수 있는 연구 역량의 기반으로 제시된다. 이 관점에서는 앞으로의 경쟁력이 자본과 칩 확보만이 아니라 연구 실험 속도와 발명 능력에 더 크게 좌우될 수 있다.
  • 스케일링에 대해서는 회의론과 낙관론을 동시에 조정하는 태도가 보인다. 초기만큼의 폭발적 개선은 아닐 수 있어도, 스케일링은 여전히 유효하며 그 위에 새로운 구조적 돌파구가 덧붙어야 한다는 입장이다.
  • 과학과 의학은 그가 생각하는 AGI의 가장 바람직한 활용처로 반복해서 등장한다. 약물 설계와 질병 치료는 기술 과시보다 인간 삶의 질을 바꾸는 대표 사례로 제시된다.
  • 안전과 규제에 대해서도 낙관적 기술론으로 밀어붙이지 않고, 오용 방지와 기술적 통제 실패를 별개의 문제로 구분해 다룬다. 이는 향후 AI 논의가 성능, 산업, 안전, 분배를 함께 묶어 다뤄야 함을 보여준다.
  • 다만 약물 승인 단축, 규제 완화, 에너지 돌파 기술 가속 같은 부분은 인터뷰에서 제시된 전망과 기대가 포함된 내용이다. 실제 산업 성과나 정책 변화로 단정하기보다는 향후 검증이 필요한 영역으로 분리해 보는 것이 적절하다.

📈 투자·시사 포인트

  • 프런티어 AI 경쟁은 단순히 더 큰 모델을 만드는 경쟁을 넘어, 대규모 연구용 컴퓨트와 새로운 알고리즘을 발명할 수 있는 조직 역량의 경쟁으로 이동하고 있다는 시사점을 준다.
  • 오픈 모델은 최전선과 완전히 같은 위치에 서기보다, 일정 시차를 두고 확산되는 구조가 이어질 수 있다는 관점이 제시된다. 이는 상용 프런티어와 오픈 생태계의 역할 분화를 더 뚜렷하게 볼 필요가 있음을 시사한다.
  • 제약, 바이오, 소재, 에너지 같은 분야는 AI의 실질 가치가 가장 크게 입증될 후보 영역으로 읽힌다. 특히 약물 설계 엔진과 전력망 최적화 같은 응용은 향후 산업 재평가의 핵심 사례가 될 수 있다.
  • 규제는 비용이자 동시에 진입장벽이 될 수 있다. 최소 기준, 공통 벤치마크, 인증 체계가 현실화되면 이를 충족할 수 있는 대형 사업자와 연구기관 중심으로 시장이 재편될 가능성이 있다.
  • 노동 대체와 부의 집중 문제는 기술 논쟁을 넘어 거시경제와 정책 설계의 문제로 번지고 있다. 연금기금, 국부펀드, 공공 인프라 투자 같은 분배 장치가 실제 정책 의제로 부상할 가능성을 염두에 둘 필요가 있다.
  • 유럽의 경우 인재와 연구 전통은 강하지만 성장 자본이 부족하다는 진단이 나온다. 이는 AI 패권 경쟁에서 연구력 못지않게 자본시장 깊이와 대형 투자 라운드 조달 능력이 중요하다는 점을 보여준다.
  • 다만 핵융합, 초전도체, 사실상 무료에 가까운 에너지, 경제 구조 대전환 같은 부분은 인터뷰 화자의 중장기 기대가 강하게 반영된 전망이다. 투자 판단에서는 기술 성숙도와 상용화 시차를 별도로 검증해야 한다.

⚠️ 불확실하거나 확인이 필요한 부분

  • “향후 5년 안에 AGI가 올 가능성이 매우 높다”는 대목은 section-detail 기준으로는 확률적 전망으로 제시되어 있다. 다만 실제 transcript에서 어느 정도의 확신 표현을 썼는지, 그리고 “AGI”의 범위를 얼마나 엄격하게 제한했는지는 원문 확인이 필요하다.
  • “2010년에도 약 20년 내 AGI를 예상했다”는 회고는 인터뷰 발언으로는 정리 가능하지만, 당시 내부 계산이나 문서화된 예측이 실제로 어떤 형태였는지는 transcript만으로 검증되지 않는다.
  • “오픈 커뮤니티가 최전선 아이디어를 따라잡는 데 몇 개월 시차가 있다”는 설명은 업계 전반의 일반 법칙이라기보다 인터뷰이의 경험적 판단일 수 있다. 구체적 근거와 적용 범위는 별도 확인이 필요하다.

✅ 액션 아이템

  • AGI 정의 파트는 “인간의 모든 인지 능력”이라는 기준과 “일부 벤치마크 우위만으로는 부족하다”는 점을 한 묶음으로 선명하게 정리한다.
  • 컴퓨트 병목을 단순 훈련비용 문제가 아니라 “새 알고리즘을 충분한 규모에서 실험할 수 있는 연구 인프라 문제”로 재서술한다.
  • 현재 AI의 성과와 한계를 함께 보여주기 위해 “예상보다 빠른 진전”과 “연속 학습·장기 계획·일관성 부족”을 대비 구조로 정리한다.
  • 오픈 모델 파트는 “프런티어의 대체재”가 아니라 “몇 개월 시차를 두고 확산되는 실용적 생태계 역할”로 요약해 과도한 단정 표현을 피한다.

❓ 열린 질문

  • 하사비스가 제시한 AGI 기준을 실제 연구 현장에서는 어떤 평가 프레임으로 운영할 수 있을까?
  • 연속 학습 문제를 풀기 위해 뇌의 수면, 기억 재생, 강화학습 메커니즘을 참고한다면, 차세대 모델 아키텍처는 어떤 형태로 달라져야 할까?
  • 스케일링의 수익이 아직 남아 있다는 주장과 새로운 알고리즘 발명 역량이 더 중요해진다는 주장은 앞으로 어느 시점에서 주도권이 바뀌는 신호로 읽어야 할까?

관련 문서

공통 태그와 주제 흐름을 기준으로 같이 보면 좋은 문서를 이어서 제안합니다.