YouTubeSequoia Capital·2026년 4월 30일·0

OpenAI''s Greg Brockman: Why Human Attention Is the New BottleneckOpenAI''s

Quick Summary

OpenAI의 Greg Brockman이 말하는 핵심은 AI 시대의 병목이 컴퓨트와 맥락 접근을 거쳐 결국 Human Attention, 즉 인간 주의력 으로 이동한다는 점이다.

영상 보기

클릭 전까지는 가벼운 미리보기만 먼저 불러옵니다.

원본 열기

🖼️ 인포그래픽

OpenAI''s Greg Brockman: Why Human Attention Is the New BottleneckOpenAI''s 내용을 설명하는 본문 이미지

🖼️ 4컷 인포그래픽

OpenAI''s Greg Brockman: Why Human Attention Is the New BottleneckOpenAI''s 내용을 설명하는 본문 이미지

💡 한 줄 결론

OpenAI의 Greg Brockman이 말하는 핵심은 AI 시대의 병목이 컴퓨트와 맥락 접근을 거쳐 결국 Human Attention, 즉 인간 주의력으로 이동한다는 점이다.

📌 핵심 요점

  1. OpenAI는 지능 수요가 사실상 무제한에 가깝다고 보고 있으며, 이를 감당하기 위한 가장 큰 제약으로 컴퓨트 확보를 제시한다.
  2. 스케일링 법칙은 아직 완전히 이론화되지는 않았지만, 더 많은 연산이 모델 능력 향상으로 이어진다는 경험적 근거가 OpenAI의 대규모 인프라 투자를 뒷받침한다.
  3. AI 활용의 병목은 단순한 모델 성능에서 사용자의 작업 맥락, 회의 기록, 업무 흐름, 권한 정보에 접근하는 능력으로 이동하고 있다.
  4. 에이전트형 AI가 실행 비용을 낮추면서 개인과 소규모 팀의 생산성은 커지지만, 보안·권한 추적·관찰 가능성·인간 책임성은 더 중요해진다.
  5. 궁극적으로 실행 자체가 쉬워질수록 “무엇을 승인할 것인가”, “이 일이 내가 원하는 방향인가”를 판단하는 인간의 제한된 주의력이 새 병목이 된다.

🧩 배경과 문제 정의

  • 이 영상은 Sequoia Capital이 OpenAI 공동창업자 Greg Brockman과 나눈 대화로, OpenAI의 성장, 컴퓨트 병목, 에이전트형 AI, 인간 주의력의 한계, 책임 있는 배포 전략을 다룬다.
  • OpenAI는 주간 활성 이용자가 10억 명 안팎으로 거론될 만큼 큰 수요를 가진 AI 서비스 사업자이며, 대화 전반에는 지능에 대한 수요가 사실상 매우 크다는 전제가 깔려 있다.
  • 핵심 병목은 컴퓨트 확보다. OpenAI의 사업 구조는 컴퓨트를 확보하고, 이를 모델 능력과 문제 해결 능력으로 전환해 사용자에게 제공하는 방식에 가깝다.
  • ChatGPT 출시 이후 수요는 컴퓨트 확장 속도를 계속 앞질렀고, GPU 공급 부족은 여전히 OpenAI의 성장과 제품 배포를 제약하는 주요 요인으로 남아 있다.
  • 스케일링 법칙은 아직 완전히 이론화되지는 않았지만, 더 많은 연산과 데이터, 더 나은 학습 구조가 모델 능력 향상으로 이어진다는 경험적 근거가 OpenAI의 연구·인프라 전략을 뒷받침한다.
  • 대화가 진행될수록 병목은 컴퓨트 문제를 넘어 인간의 주의력, 승인 구조, 조직 내 권한 관리, 책임 있는 배포, 과학 문제 해결의 영역으로 확장된다.
  • 결국 이 영상은 “AI가 더 강해질수록 무엇을 자동화하고, 무엇을 인간이 검토해야 하는가”라는 질문을 중심 문제로 제시한다.

🕒 시간순 섹션별 상세정리

1. OpenAI의 성장 규모와 컴퓨트 병목 [00:02]

  • Greg Brockman은 Stripe 초기 구성원이자 OpenAI 공동창업자로 묶인다
  • Stripe가 전 세계 GDP의 약 1.6%를 처리한다는 수치가 언급되며, 기술 기업이 거대한 경제 인프라로 확장될 수 있다는 맥락이 드러난다

2. 스케일링 법칙과 새 알고리즘의 필요성 [02:11]

  • 대화의 초점은 컴퓨트 확보 문제에서 연구 프런티어로 이동한다
  • 스케일링 법칙은 모델 능력 향상을 설명하는 핵심 경험적 패턴으로 드러난다

3. 모델 혁신은 미세 조정과 구조적 전환이 함께 만든다 [04:01]

  • 모델 성능은 거대한 아키텍처 전환뿐 아니라 작은 데이터 포맷 변경에도 크게 달라질 수 있다
  • 데이터 표현 방식이나 학습 절차의 세부 조정이 예상보다 큰 성능 차이를 만들 수 있다

4. 에이전트형 코딩 도구는 스타트업의 작업 방식을 바꾼다 [05:38]

  • 문제 설정과 실행 환경이 적절하면 모델은 코딩 작업에서 큰 성능 향상을 낼 수 있다
  • 모델은 단순 코드 생성뿐 아니라 커널 작성, 저수준 시스템 작업에도 활용될 수 있다

5. AI 활용의 핵심 병목이 맥락 접근으로 이동한다 [08:01]

  • AI가 실제 업무를 잘 수행하려면 사용자의 작업 맥락에 접근할 수 있어야 한다
  • Chronicle은 Codex와 연결되어 사용자의 컴퓨터 작업 흐름을 관찰하고 기억을 형성하는 도구로 묶인다

6. OpenAI 내부의 Codex 활용은 인간 책임성과 도메인별 적용을 결합한다 [09:24]

  • OpenAI 내부에서는 모델과 도구 환경을 함께 조정하며 Codex를 실제 업무 요구에 맞게 맞춰간다
  • 내부 사용자는 외부 사용자보다 최신 모델과 도구를 더 빠르게 실험하고 적용할 수 있다

7. 기업 내부 AI 도구 확산과 권한 추적 문제 [12:00]

  • 구성원이 대시보드, 위젯, 봇을 쉽게 만들 수 있게 되면 조직 곳곳에 작은 자동화가 빠르게 확산된다
  • AI는 비개발자도 내부 도구를 만들 수 있게 하며, 기존 업무 흐름을 더 빠르게 바꾸는 계기가 된다

8. 소규모 팀·개인 실행력 확대와 에이전트 통제 리스크 [13:17]

  • AI 도구가 어디까지 성능을 끌어올릴 수 있는지는 아직 명확히 체감하기 어렵다
  • 개인과 소규모 팀의 실행력이 커지면서 회사라는 조직의 형태도 지금과 달라질 가능성이 있다

9. 인간 주의력이 핵심 병목으로 이동한다 [16:00]

  • 모델의 EQ와 판단 능력이 향상될수록, 인간의 승인·감독 방식도 그에 맞게 재설계되어야 한다
  • 모든 작업마다 사람이 일일이 승인 버튼을 누르는 방식은 장기적으로 지속 가능하지 않은 병목이 될 수 있다

10. AI 보안 활용과 변화 속도 대응은 직접 사용 경험에서 출발한다 [16:44]

  • AI 모델은 코드베이스 스캔, 레드팀 활동, 보안 취약점 탐지처럼 방어적 보안 작업에 활용될 수 있다
  • 강력한 모델은 공격자에게만 유리한 도구가 아니라, 방어자에게도 새로운 보안 역량을 제공할 수 있다

11. 빠른 출시와 책임 있는 배포의 균형 [20:04]

  • OpenAI는 사람들이 AI 도구를 통해 미래를 직접 만들어갈 수 있도록 권한을 넓히는 것을 중요한 가치로 본다
  • 빠른 출시는 사용자에게 실제 능력을 전달하고, 사회가 기술의 가능성과 한계를 직접 경험하게 하는 방식으로 드러난다

12. 애플리케이션 계층에서의 집중 전략과 에이전트 전환 [22:11]

  • AI 분야에는 시도할 수 있는 애플리케이션 기회가 매우 많다
  • 하지만 한 회사의 인력과 컴퓨트만으로 모든 영역을 동시에 감당하기는 어렵기 때문에, 선택과 집중이 필요하다

13. 에이전트가 바꾸는 작업 방식과 인간 시간의 재배치 [24:00]

  • OpenAI의 의사결정은 재무, 커리어, 제품 방향 같은 선택을 하나의 장기적 비전에 맞추는 방식으로 정렬된다
  • 그 비전에 맞지 않는 일은 과감히 제외하고, 제한된 시간과 주의를 핵심 과제에 집중하는 태도가 중요하다

14. 과학 프런티어와 현실 세계 문제로 확장되는 AI [25:32]

  • 디지털 지능 영역에서는 대규모 언어모델의 스케일링 법칙이 강하게 작동해 왔다
  • 반면 로봇공학, 물리 지능, 생물학, 과학 문제는 검증이 어렵거나 시간이 오래 걸려 진전 속도와 방식이 다르게 나타난다

15. 제한된 여가와 일상적 취미 [28:00]

  • Greg와 Anna의 여가 활동은 영화 보기, 하이킹처럼 비교적 평범한 휴식에 가깝다
  • 거창한 취미나 특별한 의례보다는, 바쁜 일정 속에서도 가능한 일상적 재충전이 나온다

16. AGI 이후의 시간 기대와 현재의 태도 [28:12]

  • AGI 이후에는 사람들이 더 많은 여가 시간을 갖게 될 수 있다는 기대가 나온다
  • 다만 이는 아직 미래의 가능성에 가까우며, 현재로서는 제한된 시간 안에서 중요한 일에 집중하는 태도가 마지막 결론처럼 남는다

🧾 결론

  • 이 인터뷰의 중심 메시지는 AI 발전의 다음 병목이 모델 성능만이 아니라 컴퓨트, 맥락, 권한, 그리고 인간 판단 구조로 확장되고 있다는 점이다.
  • Greg Brockman은 AI가 더 많은 업무 실행을 맡게 될수록, 사람이 모든 단계를 직접 승인하는 방식은 지속 가능하지 않다고 본다.
  • 따라서 중요한 설계 과제는 AI가 저위험 작업은 처리하되, 고위험 판단과 가치 판단이 필요한 순간에만 인간의 주의를 정확히 끌어오는 것이다.
  • 영상 속 여러 주장, 예컨대 OpenAI 이용자 규모, AGI 근접도, 과학 분야 성과 가능성 등은 인터뷰 발언 기반의 주장으로 보아야 하며 외부 검증 없이는 확정 사실로 단정하기 어렵다.

📈 투자·시사 포인트

  • AI 인프라 관점에서는 GPU, 데이터센터, 전력, 네트워크처럼 대규모 컴퓨트를 공급하는 영역이 계속 전략적 병목으로 남을 가능성이 있다.
  • 애플리케이션 관점에서는 단순 챗봇보다 사용자의 업무 맥락, 권한, 기록, 실행 환경을 안전하게 연결하는 제품이 더 큰 가치를 만들 수 있다.
  • 기업용 AI 시장에서는 에이전트 도입 자체보다 권한 추적, 감사 로그, 데이터 출처 관리, 파생 산출물 통제 같은 거버넌스 기능이 핵심 차별점이 될 수 있다.
  • 소규모 팀과 개인 창업자는 AI 에이전트로 실행력을 크게 키울 수 있지만, 경쟁 우위는 도구 사용 여부보다 고유한 관점, 문제 선택, 인간 판단력에서 나올 가능성이 크다.
  • 검증 필요: 인터뷰에서 언급된 OpenAI 사용자 규모, 특정 내부 성능 사례, 과학 분야 성과 전망은 투자 판단에 활용하기 전 별도 자료로 확인해야 한다.

⚠️ 불확실하거나 확인이 필요한 부분

  • OpenAI의 “주간 활성 이용자 10억 명 안팎 또는 그 이상”이라는 수치는 영상 속 발언 맥락으로 정리된 것이며, 외부 공식 지표로 검증된 사실로 단정하면 안 된다.
  • “Stripe가 전 세계 GDP의 약 1.6%를 처리한다”는 수치도 인터뷰에서 제시된 주장으로 보이며, 최신 기준·산정 방식·기간 확인이 필요하다.
  • AGI가 “약 80% 지점”이라는 평가는 정량적 공식 측정값이라기보다 발언자의 직관적 판단에 가까워 보이며, 객관적 진척률로 해석하면 위험하다.
  • 자막 기반 정리: 타임스탬프가 있는 자막을 기준으로 정리했으며, 고유명사·수치·인용은 원문 확인 필요 시 별도 검증한다.
  • 영상 속 주장: 발표자의 해석·전망·비교는 확인된 외부 사실이 아니라 영상 속 주장으로 분리해 읽는다.
  • 검증 필요: 수치, 기업 실적, 정책·시장 전망은 발행 전 최신 자료로 별도 검증이 필요하다.

✅ 액션 아이템

  • 영상 속 정량 주장인 OpenAI 주간 활성 이용자 수, Stripe GDP 처리 비중, 코딩 자동화 비중을 외부 출처로 분리 검증한다.
  • AI 에이전트 도입 시 “인간 최종 책임”, “고위험 행동 승인”, “자동 승인 범위”를 명확히 나누는 내부 운영 원칙을 문서화한다.
  • 조직 내 AI 도구가 생성한 대시보드·위키·봇·파생 산출물에 대해 원본 데이터 출처와 권한 상속 구조를 추적할 수 있는지 점검한다.
  • Codex류 에이전트 코딩 도구를 사용할 때 코드 병합 전 인간 리뷰, 유지보수성 평가, 보안 검토 체크리스트를 적용한다.

❓ 열린 질문

  • 인간의 주의력이 병목이 되는 환경에서 어떤 작업은 자동 승인하고, 어떤 작업은 반드시 인간 검토로 남겨야 하는가?
  • AI가 생성한 파생 문서나 대시보드의 접근 권한은 원본 문서 권한 변경과 어떻게 실시간으로 연동되어야 하는가?
  • 소규모 팀이나 개인 창업자가 에이전트를 대규모로 활용할 때, 기존 조직 구조와 관리 방식은 어디까지 바뀔 수 있는가?

관련 문서

공통 태그와 주제 흐름을 기준으로 같이 보면 좋은 문서를 이어서 제안합니다.