YouTubeY Combinator·2026년 4월 29일·1

Demis Hassabis: Agents, AGI & The Next Big Scientific Breakthrough

Quick Summary

Demis Hassabis는 에이전트, AGI, 그리고 다음 과학적 돌파구가 “지속 학습·기억·장기 추론”을 해결하고, AI를 딥테크와 결합하는 방향에서 나올 가능성이 크다고 본다.

영상 보기

클릭 전까지는 가벼운 미리보기만 먼저 불러옵니다.

원본 열기

🖼️ 인포그래픽

Demis Hassabis: Agents, AGI & The Next Big Scientific Breakthrough 내용을 설명하는 본문 이미지

🖼️ 4컷 인포그래픽

Demis Hassabis: Agents, AGI & The Next Big Scientific Breakthrough 내용을 설명하는 본문 이미지

💡 한 줄 결론

Demis Hassabis는 에이전트, AGI, 그리고 다음 과학적 돌파구가 “지속 학습·기억·장기 추론”을 해결하고, AI를 딥테크와 결합하는 방향에서 나올 가능성이 크다고 본다.

📌 핵심 요점

  1. AGI에 가까워지려면 현재 모델이 아직 부족한 지속 학습, 장기 추론, 기억, 일관성 문제가 해결되어야 하며, 에이전트는 그 방향으로 가는 핵심 경로로 제시된다.

  2. DeepMind의 Atari, AlphaGo, AlphaZero, AlphaStar 연구는 목표 달성형 에이전트 연구의 연장선에 있으며, Gemini와 같은 범용 모델 개발에도 그 철학이 이어진다.

  3. 대형 프런티어 모델의 능력을 더 작고 빠른 모델로 증류하는 일은 Google 검색, Gemini, 지도, YouTube 같은 대규모 사용자 제품에 AI를 적용하기 위한 핵심 과제다.

  4. 현재 에이전트는 실제 생산성 향상을 만들기 시작했지만, 완전 자율 위임에는 아직 부족하며 인간의 판단, 취향, 방향 설정이 여전히 중요한 단계로 설명된다.

  5. 다음 큰 과학적 돌파구는 AlphaFold처럼 거대한 탐색 공간, 명확한 목적 함수, 충분한 데이터나 시뮬레이터가 있는 분야에서 나올 가능성이 크며, 신약 발견·가상 세포·재료과학이 주요 후보로 언급된다.

🧩 배경과 문제 정의

  • AGI에 가까워지기 위해서는 지속 학습, 장기 추론, 기억, 일관성 같은 능력이 여전히 해결되어야 한다. 현재의 대규모 사전학습, RLHF, 체인오브쏘트만으로 충분한지는 아직 불확실하다.
  • AGI가 2030년 전후에 등장할 가능성을 고려하면, 지금 시작하는 딥테크 여정은 중간에 AGI 환경을 마주할 수 있다. 이에 따라 제품, 연구, 전략 설계의 전제가 달라진다.
  • 에이전트는 목표를 스스로 수행하고 계획을 세우며 능동적으로 문제를 푸는 방향으로 다뤄진다. DeepMind의 게임 기반 연구와 현재 Gemini 개발 사이에는 기술적 연속성이 있다.
  • 대형 모델의 성능을 소형 모델로 압축하는 증류와 효율화는 Google의 대규모 사용자 제품에 AI를 빠르고 저렴하게 제공하기 위한 핵심 과제다.
  • AI가 과학 문제 해결에 쓰이려면 단순한 문제 풀이를 넘어 가설 생성, 탐색 공간 축소, 실험 가능한 예측, 전문 도구와의 결합까지 포함해야 한다.
  • 창업자와 연구자는 AGI가 아직 오지 않은 현재의 제약만 볼 것이 아니라, 여정 중간에 강력한 AI가 등장할 가능성까지 전제로 삼아 문제를 선택해야 한다.

🕒 시간순 섹션별 상세정리

1. AGI에 필요한 미해결 능력과 에이전트 경로 [00:00]

  • 지속 학습, 장기 추론, 기억은 AGI를 위해 아직 충분히 해결되지 않은 핵심 능력으로 드러난다
  • AGI가 2030년쯤 가능하다는 관점에서는, 지금 시작하는 딥테크 프로젝트가 진행 도중 AGI의 영향을 받을 수 있다

2. DeepMind의 문제의식과 AGI 연구의 배경 [00:39]

  • Demis Hassabis는 체스, 게임 개발, 인지신경과학, 기억과 상상 연구를 거쳐 DeepMind를 공동창업했다
  • DeepMind의 초기 목표는 특정 제품 개발이 아니라 지능 자체를 이해하고 구현하는 데 있었다

3. 현재 AGI 아키텍처의 강점과 남은 공백 [01:53]

  • 대규모 사전학습, RLHF, 체인오브쏘트는 AGI 최종 구조의 일부가 될 가능성이 높다
  • 현재 접근은 막다른 길이라기보다, 추가 혁신이 더해져 확장될 가능성이 큰 기반으로 본다

4. 기억, 컨텍스트 윈도우, 경험 재생의 한계 [03:30]

  • 현재 에이전트의 지속 학습은 가중치를 실제로 갱신하기보다 컨텍스트에 정보를 넣어 유지하는 방식에 가깝다
  • 이 방식은 실용적으로 유용하지만 임시방편이며, 진정한 장기 기억과는 차이가 크다

5. 게임 기반 에이전트 연구에서 Gemini로 이어지는 흐름 [06:07]

  • DeepMind의 Atari, AlphaGo, AlphaZero, AlphaStar 연구는 목표 달성형 에이전트 시스템에서 출발했다
  • 이 시스템들의 중심에는 능동적 의사결정, 계획 수립, 문제 해결 능력이 놓여 있다

6. 소형 모델의 효율성과 엣지 실행 가능성 [10:00]

  • 프런티어 모델의 성능은 시간이 지나며 훨씬 작은 모델로 이전될 수 있다
  • Gemma 같은 소형 모델은 증류와 효율화 기술이 실제 활용에서 갖는 가치를 보여준다

7. 지속 학습 부재와 에이전트의 한계 [12:33]

  • 현재 모델은 대체로 상태를 유지하지 못해 장기 맥락을 누적하기 어렵다
  • 개발자가 모델을 오래 조정하며 함께 성장시키는 경험도 아직 제한적이다

8. 추론 모델의 불균형과 사고 과정 점검 문제 [13:26]

  • 현재 추론 방식은 아직 단순하며 brute force에 가까운 면이 있다
  • 사고 과정을 중간에 점검하거나 개입하는 새로운 패러다임의 가능성이 크다

9. 에이전트 생산성의 현실과 아직 부족한 결과물 [15:26]

  • 에이전트는 AGI로 가는 과정에서 능동적 문제 해결 시스템의 핵심 형태다
  • 다만 현재는 본격적 활용의 초기 단계에 머물러 있다

10. 자율화 이전의 인간 증폭과 창의성 문제 [17:57]

  • 완전 자율 시스템보다 먼저 나타날 변화는 인간 생산성의 큰 증폭일 가능성이 높다
  • 사람은 도구를 활용해 앱, 게임, 창작물을 훨씬 빠르게 만들 수 있다

11. 오픈 모델 전략과 로컬 실행의 확장 [20:19]

  • Gemma는 크기 대비 성능이 뛰어난 오픈 모델을 목표로 한다
  • 공개 직후 대규모 다운로드가 발생할 만큼 개발자 수요가 크다

12. Gemini의 멀티모달 출발점과 물리 세계 이해 [22:19]

  • Gemini는 처음부터 멀티모달 모델로 설계됐다
  • 초기 개발은 텍스트 중심 접근보다 어려웠지만, 장기적으로는 더 큰 이점을 준다

13. 추론 비용 하락과 에이전트 사용량의 폭증 [24:01]

  • 추론 비용이 낮아져도 완전히 무료에 가까워지기는 어렵다
  • 비용 하락은 더 많은 에이전트와 더 긴 사고 과정을 가능하게 해 자원 소모를 키울 수 있다

14. AlphaFold 이후 약물 발견과 가상 세포의 과제 [25:17]

  • Isomorphic Labs는 AlphaFold를 약물 발견 과정의 한 요소로 활용한다
  • 목표는 인접한 생화학·화학 모델링까지 확장해 원하는 성질의 화합물을 설계하는 것이다

15. 세포 관측 데이터 병목과 과학 문제 해결의 장기 목표 [27:16]

  • 살아 있는 세포를 죽이지 않고 나노미터 해상도로 동적으로 촬영할 수 있다면, 세포 이해의 난도가 크게 달라진다
  • 이 경우 세포 모델링은 고난도 비전 문제에 가까운 형태로 전환될 수 있다
  • 현재는 정적 고해상도 이미지는 가능하지만, 살아 있는 세포 내부의 상호작용을 충분히 관측하기에는 한계가 있다
  • 가상 세포를 만들기 위한 핵심 병목은 충분한 양의 동적 데이터 확보다

16. AI 과학 창업의 방어력은 딥테크 결합에서 나온다 [30:00]

  • AI 기반 과학은 AlphaFold가 본격적인 돌파구를 만들기 직전과 비슷한 단계로 드러난다
  • 재료, 의학, 수학 등 여러 영역에서 유망한 결과가 나오고 있지만, 아직 거대한 난제가 완전히 해결된 단계는 아니다

17. 오래가는 기술은 회의와 긴 시간을 견디는 확신을 요구한다 [31:42]

  • 2010년 무렵 AI는 투자자와 학계 모두에게 이미 실패한 틈새 분야처럼 여겨졌다
  • 지금의 성과가 커진 뒤에는, 당시 AI를 둘러싼 강한 회의적 분위기가 쉽게 잊힌다

18. AlphaFold식 돌파구에는 탐색 공간, 목적 함수, 데이터가 필요하다 [33:23]

  • AlphaGo와 AlphaFold의 공통점은 거대한 조합 탐색 공간을 다룬다는 데 있다
  • 바둑 수나 단백질 구성처럼 경우의 수가 폭발적으로 커지는 문제에서는 기존의 완전탐색 방식이 한계에 부딪힌다

19. 과학적 추론의 핵심은 문제 풀이보다 새 가설 생성에 있다 [35:13]

  • Co-scientist와 AlphaEvolve는 Gemini를 넘어서는 과학 탐색을 목표로 한다
  • 다만 아직은 거대한 실제 발견이라고 부를 만한 사례가 뚜렷하게 보이지 않는다는 평가가 나온다

20. 프런티어를 만드는 사람은 AGI가 여정 중간에 오는 상황까지 계산해야 한다 [37:52]

  • 깊고 어려운 문제는 얕은 문제보다 단순히 더 어려운 것이 아니라, 어려움의 성격 자체가 다르다
  • 인생의 시간과 에너지가 제한되어 있다면, 실제 차이를 만들 수 있는 문제에 집중하는 편이 낫다

21. 단일 거대 모델보다 도구 사용형 구조가 유리하다 [40:00]

  • 모든 단백질 정보를 Gemini 같은 범용 모델 안에 넣는 방식은 적절하지 않다
  • 전문 기능을 거대 모델 전체에 통합하면 모델에 불필요한 부담이 커진다

22. AGI 시대를 전제로 오늘 만들 시스템을 재검토해야 한다 [40:30]

  • 범용 모델과 전문 도구의 조합은 앞으로의 제품과 인프라 설계에 직접적인 영향을 준다
  • 오늘 만드는 시스템은 현재 AI의 한계뿐 아니라, AGI가 개발 과정 중간에 등장할 가능성까지 고려해야 한다

🧾 결론

  • 이 영상의 중심 메시지는 AGI가 단순히 더 큰 언어 모델만으로 완성되는 것이 아니라, 기억·지속 학습·장기 추론·도구 사용 능력을 결합해야 한다는 점이다.

  • Hassabis는 AGI가 2030년 전후에 등장할 수 있다는 관점을 전제로, 지금 시작하는 딥테크 프로젝트는 개발 중간에 AGI 환경을 맞이할 가능성까지 고려해야 한다고 본다.

  • 단일 거대 모델에 모든 전문 지식을 넣는 방식보다는, 범용 모델이 AlphaFold 같은 전문 시스템을 도구로 활용하는 구조가 더 효율적인 방향으로 제시된다.

  • 과학적 AI의 진짜 난제는 기존 문제를 푸는 것을 넘어, 새로운 가설과 새로운 연구 문제를 만들어내는 수준의 창의적 추론에 있다.

  • 영상 속 주장 중 AGI 시점, 가상 세포의 가능 시기, 에이전트 생산성의 폭발 시점 등은 예측 성격이 강하므로 외부 검증이 필요한 내용으로 분리해 봐야 한다.

📈 투자·시사 포인트

  • 단순히 파운데이션 모델 API를 감싼 서비스보다, AI와 물리 세계의 딥테크를 결합한 팀이 더 방어적인 사업 위치를 가질 가능성이 크다.

  • 유망 영역은 신약 발견, 재료과학, 로보틱스, 세포 모델링, 에너지·배터리·초전도체처럼 탐색 공간이 크고 목적 함수가 비교적 명확한 분야로 정리된다.

  • 소형 모델, 엣지 실행, 로컬 AI는 비용·속도·개인정보 보호 측면에서 중요해지며, Android·안경·가정용 로봇 같은 기기 표면에서 활용성이 커질 수 있다.

  • 추론 비용이 낮아져도 에이전트 수와 사고 과정이 함께 늘어나기 때문에, 장기적으로는 모델 효율화와 추론 자원 배분이 계속 중요한 경쟁력이 된다.

  • AGI 시대를 전제로 한 창업은 “AGI에 대체될 기능”보다 “AGI가 도구로 활용하거나 증폭할 수 있는 기술·데이터·실험 인프라”를 구축하는 방향이 더 유리할 수 있다.

⚠️ 불확실하거나 확인이 필요한 부분

  • AGI가 2030년 전후에 등장할 수 있다는 전망은 영상 속 관점이며, 확정된 예측이나 검증된 일정으로 단정할 수 없다.
  • Gemma 공개 후 약 2주 반 만에 4천만 다운로드를 기록했다는 수치는 transcript 기반 주장으로, 정확한 집계 기준과 시점은 별도 확인이 필요하다.
  • AlphaFold가 “300만 명 이상의 연구자”와 “거의 모든 생물학 연구자”에게 쓰인다는 표현은 영상 속 주장으로 보이며, 실제 사용 범위와 통계 출처는 검증이 필요하다.

✅ 액션 아이템

  • AGI 관련 제품·연구 계획을 세울 때 지속 학습, 장기 기억, 장기 추론, 일관성 문제를 별도 리스크 항목으로 분리해 검토한다.
  • 에이전트 기반 제품을 설계할 때 “완전 자율화”보다 먼저 인간 생산성을 증폭하는 워크플로우부터 실험한다.
  • 딥테크 창업 아이디어를 평가할 때 단순 API 래퍼인지, 물리 세계·도메인 전문성·데이터·목적 함수가 결합된 방어력 있는 구조인지 점검한다.
  • 과학 AI 프로젝트는 탐색 공간, 목적 함수, 데이터 또는 시뮬레이터 확보 가능성을 기준으로 우선순위를 정한다.

❓ 열린 질문

  • 현재의 대규모 사전학습, RLHF, 체인오브쏘트 확장만으로 지속 학습과 장기 기억 문제가 해결될 수 있을까?
  • AGI에 가까운 에이전트가 되려면 컨텍스트 윈도우 확장 외에 어떤 형태의 기억 선택, 압축, 경험 재생 구조가 필요할까?
  • “인간 증폭형 AI”가 먼저 대규모 성과를 낼지, 아니면 완전 자율 에이전트가 먼저 실질적 돌파구를 만들지 아직 불확실하다.

관련 문서

공통 태그와 주제 흐름을 기준으로 같이 보면 좋은 문서를 이어서 제안합니다.