An Interview with OpenAI CEO Sam Altman and AWS CEO Matt Garman About Bedrock Managed Agents
Quick Summary
OpenAI와 AWS는 기업 내부에서 실제 업무를 수행하는 클라우드 기반 에이전트를 더 쉽게 만들기 위해 Bedrock Managed Agents를 공동 개발하며, 모델·런타임·보안·권한·상태 관리의 통합이 AI 활용의 다음 경쟁 축이 될 것이라고 설명했다.
🖼️ 인포그래픽
🖼️ 4컷 인포그래픽
💡 한 줄 요약
OpenAI와 AWS는 기업 내부에서 실제 업무를 수행하는 클라우드 기반 에이전트를 더 쉽게 만들기 위해 Bedrock Managed Agents를 공동 개발하며, 모델·런타임·보안·권한·상태 관리의 통합이 AI 활용의 다음 경쟁 축이 될 것이라고 설명했다.
📌 핵심 요약
- 인터뷰는 Microsoft와 OpenAI의 계약 변경 이후, OpenAI가 AWS 등 다른 클라우드에서도 제품을 제공할 수 있게 된 맥락에서 진행됐다.
- Matt Garman은 AWS가 과거 클라우드로 스타트업의 진입 장벽을 낮췄듯, AI도 개발자와 기업의 생산 방식을 바꾸는 플랫폼 전환이라고 설명했다.
- Sam Altman은 AI가 인터넷·클라우드·모바일에 이은 네 번째 대규모 스타트업 플랫폼 전환이며, 기업과 스타트업의 도입 속도가 과거보다 훨씬 빠르다고 말했다.
- Bedrock Managed Agents는 단순한 OpenAI 모델 제공이 아니라, AWS 환경 안에서 에이전트의 런타임, 권한, 상태, 로깅, 거버넌스를 함께 제공하려는 제품으로 제시됐다.
- 두 CEO는 모델 자체보다 모델을 감싸는 harness, 즉 도구·메모리·권한·평가·실행 환경의 통합이 에이전트 성능과 신뢰성에 핵심이라고 강조했다.
- 기업 고객 관점에서는 보안, VPC, 권한, 감사 가능성, 기존 데이터 접근 통제가 에이전트 도입의 핵심 조건으로 다뤄졌다.
🧩 주요 포인트
- OpenAI의 AWS 진출은 Microsoft 독점 구조 완화 이후 기업 고객의 클라우드 선택권 확대와 연결된다.
- AWS는 AI 시대에도 스타트업과 기업의 기본 인프라가 되려 하며, OpenAI와의 협업을 그 전략의 중요한 축으로 삼고 있다.
- Bedrock Managed Agents는 OpenAI 모델을 AWS-native agent 환경에 결합해 기업용 에이전트 도입 장벽을 낮추려는 시도다.
- Altman은 에이전트가 단순 챗봇을 넘어 “가상 동료”처럼 회사 내부에서 상태를 유지하며 업무를 수행하는 방향으로 간다고 설명했다.
- Garman은 기업 고객이 가장 우려하는 지점이 “강력한 모델을 쓰되 회사 전체를 위험에 빠뜨리지 않는 방법”이라고 짚었다.
- AgentCore는 구성 가능한 프리미티브에 가깝고, Bedrock Managed Agents는 OpenAI와 AWS가 함께 조립한 관리형 경험에 가깝다는 구분이 제시됐다.
🧠 상세 정리
1. 인터뷰의 배경: Microsoft-OpenAI 계약 변경과 AWS의 등장
인터뷰는 OpenAI CEO Sam Altman과 AWS CEO Matt Garman이 Bedrock Managed Agents를 논의하는 형식으로 진행됐다. 중요한 배경은 Microsoft와 OpenAI가 기존 계약을 수정하면서, OpenAI가 Azure 외 다른 클라우드에서도 제품을 제공할 수 있게 됐다는 점이다. 원문 필자는 Azure가 OpenAI 모델 독점 접근권을 통해 경쟁 우위를 가졌지만, 기업 고객들이 자신이 이미 쓰는 클라우드에서 모델을 쓰고 싶어 한다는 점이 OpenAI의 확장에는 제약이 됐다고 해석한다.
이 맥락에서 AWS와 OpenAI의 협업은 단순한 모델 판매 채널 확대가 아니라, 기업용 AI 에이전트 실행 환경을 어디에 둘 것인가에 대한 전략적 움직임으로 제시된다. 특히 AWS 고객의 데이터와 운영 환경이 이미 AWS 안에 있다는 점이 Bedrock Managed Agents의 출발점으로 설명된다.
2. AWS가 본 AI 전환: 클라우드 초기와 닮았지만 더 빠르다
Matt Garman은 AWS 초창기와 현재 AI 물결의 공통점을 “빌더들이 이전에는 할 수 없던 일을 할 수 있게 되는 순간”에서 찾는다. 과거에는 대규모 데이터센터와 큰 초기 자본이 필요했지만, AWS는 신용카드와 몇 달러만으로 인프라를 사용할 수 있게 했다. 그는 AI 역시 작은 팀이 빠르게 만들고 반복할 수 있게 하며, 개발 경험과 제품 생산 방식을 바꾸고 있다고 설명한다.
다만 차이점도 있다. AWS 초기에는 “왜 온라인 서점이 컴퓨팅 파워를 제공하느냐”부터 설명해야 했지만, AI는 고객이 가능성을 훨씬 빠르게 이해한다는 것이다. Garman은 훈련 중심의 AI 담론에서 실제 기업 업무를 수행하는 추론·에이전트 활용으로 관심이 빠르게 이동한다고 본다.
3. Altman의 관점: AI는 네 번째 대형 플랫폼 전환
Sam Altman은 인터넷, 클라우드, 모바일, AI를 스타트업을 대규모로 가능하게 한 네 가지 플랫폼 전환으로 묶는다. 그는 Y Combinator 초기 시절 AWS의 등장이 스타트업 창업 비용을 크게 낮췄고, 소액 투자로도 제품을 만들 수 있게 한 결정적 변화였다고 회상한다.
Altman은 지금 AI에서 비슷한 변화가 일어나고 있지만 속도는 훨씬 빠르다고 말한다. YC 참여 기업들의 매출 기대치가 한 배치 안에서도 계속 바뀔 정도로, AI 기반 스타트업이 제품을 만들고 매출을 확장하는 속도가 과거와 다르다는 설명이다. 이는 AI가 기업 형성과 성장 방식 자체에 영향을 주는 플랫폼이라는 주장으로 이어진다.
4. AWS의 스타트업 전략: 여전히 기본 인프라가 되겠다는 입장
질문자는 과거 AWS가 스타트업의 기본 클라우드였던 것처럼, 오늘날 AI 시대에도 같은 지위를 유지할 수 있는지 묻는다. Garman은 여전히 많은 스케일링 스타트업이 AWS 위에서 성장하고 있다고 답한다. 그 이유로 규모, 가용성, 보안, 안정성, 파트너 생태계, 고객 기반을 든다.
또한 AWS는 단순히 크레딧을 제공하는 데 그치지 않고, 시스템 구성, go-to-market, 운영 방식에 대한 조언을 제공한다고 강조한다. 이 대목은 AWS가 OpenAI와의 협력을 통해 AI-native 스타트업과 기존 AWS 스타트업 고객을 동시에 붙잡으려는 전략으로 읽힌다.
5. Bedrock Managed Agents의 핵심: 모델 제공이 아니라 관리형 에이전트 환경
인터뷰의 중심 제품은 “Bedrock Managed Agents, powered by OpenAI”다. 질문자는 이를 단순히 AWS에서 OpenAI 모델을 제공하는 것이 아니라, OpenAI의 frontier model을 AWS-native agent runtime, identity, permission, state, logging, governance, deployment 안에 패키징하는 것으로 이해해도 되는지 묻는다.
Altman은 다음 단계의 AI가 텍스트를 넣고 텍스트를 받는 수준을 넘어, 회사 내부에서 여러 업무를 수행하는 에이전트가 되는 방향이라고 답한다. 그는 “virtual co-workers”라는 표현이 완벽하지는 않지만 가장 덜 나쁜 표현이라고 말한다. 이 제품은 기업이 상태를 유지하는 에이전트를 만들고 배포할 수 있도록 OpenAI와 AWS가 함께 구성한 기업용 기반으로 설명된다.
6. 모델보다 중요한 결합 지점: harness와 모델의 통합
인터뷰에서 반복되는 핵심 논점은 harness다. 여기서 harness는 모델을 감싸는 실행 환경, 도구, 상태, 메모리, 권한, 평가, 프롬프트, 후처리 구조 등을 의미한다. Altman은 더 이상 harness와 모델을 완전히 분리된 것으로 보지 않는다고 말한다. Codex를 사용할 때 어떤 성과가 모델의 능력 때문인지, harness의 설계 때문인지 분리하기 어렵다는 것이다.
그는 tool-calling이 처음에는 별개의 기능처럼 보였지만 점점 모델 훈련과 깊게 통합된 사례를 언급한다. 앞으로도 모델과 harness, pre-training과 post-training의 경계가 더 가까워질 수 있다고 본다. 원문 질문자는 가치사슬에서 중요한 통합 지점이 등장하고 그곳에 가치가 모인다는 관점에서, harness-model 통합이 AI 에이전트 시대의 핵심 지점이라는 thesis를 제시하고 Altman은 이에 동의한다.
7. 왜 기업용 에이전트는 클라우드 관리형 환경이 필요한가
Altman은 현재 모델을 활용해 무언가를 만들 수는 있지만, 실제로 사람들이 이를 작동시키기 위해 겪는 고통이 크다고 말한다. OpenAI와 AWS가 함께 만들려는 제품은 단순히 쉬운 사용성을 제공하는 것뿐 아니라, 지금은 안정적으로 만들기 어려운 제품과 서비스를 가능하게 하는 방향으로 설명된다.
Garman도 고객들이 모델, 에이전트, 자체 데이터, 자체 애플리케이션, 운영 환경을 직접 연결해야 했던 부담을 지적한다. Bedrock Managed Agents는 AWS VPC 안에서 데이터베이스 인증, identity, 권한, 기존 시스템 연결을 더 자연스럽게 묶어 기업이 더 빨리 가치를 얻도록 하는 데 초점이 있다.
8. 로컬 에이전트와 클라우드 에이전트: Codex에서 기업 환경으로
Codex는 harness와 모델이 결합된 사례로 언급된다. Altman은 Codex가 처음에는 클라우드에서 시작됐지만, 단기적으로는 로컬 환경에서 더 쉽게 작동했다고 설명한다. 사용자의 컴퓨터에는 이미 코드, 파일, 설정, 환경이 있으므로 에이전트가 필요한 맥락에 접근하기 쉽기 때문이다.
하지만 기업 환경에서는 로컬만으로는 한계가 분명하다. Garman은 로컬 클라이언트가 지연시간, 파일 접근, 연결성 측면에서 장점이 있지만, 노트북은 확장성이 제한되고 여러 사람 간 공유, 권한, 보안 경계를 다루기 어렵다고 말한다. 결국 로컬과 클라우드를 연결하는 다리가 필요하며, 기업용 에이전트는 배포될 환경과 가까운 곳에서 개발·운영될 필요가 있다는 논의로 이어진다.
9. 보안과 권한: 에이전트가 ‘누구로’ 행동하는가
Altman은 에이전트 시대의 중요한 미해결 문제로 identity와 권한 모델을 든다. 예를 들어 회사 직원의 에이전트가 어떤 서비스에 로그인할 때, 직원 본인의 계정을 그대로 써야 하는지, 별도 계정을 써야 하는지, 아니면 “Ben의 계정으로 로그인했지만 실제 Ben이 아니라 Ben의 에이전트”라는 표시가 필요한지 아직 명확한 원시 개념이 없다는 것이다.
Garman은 기업 고객들이 강력한 모델과 에이전트를 쓰고 싶어 하지만, 잘못된 설정으로 회사 전체에 치명적 사고가 나는 상황을 두려워한다고 말한다. AWS가 쌓아온 VPC, 권한, 게이트웨이, 역할 기반 접근 제어, 보안 구조는 이런 우려를 낮추는 기반이 될 수 있다는 설명이다. 특히 금융, 의료, 정부기관처럼 위험 회피 성향이 강한 조직에서는 “안전한 샌드박스 안에서 빠르게 움직일 수 있다”는 확신이 도입의 전제 조건으로 제시된다.
10. AgentCore와 Managed Agents의 관계
질문자는 AWS가 AgentCore를 통해 메모리, 실행 환경, 권한 등 에이전트 구성 요소를 제공하고 있는데, Bedrock Managed Agents와 어떤 관계인지 묻는다. Garman은 AgentCore가 에이전트 워크플로를 직접 만들 수 있는 프리미티브라면, Bedrock Managed Agents는 OpenAI 모델과 AgentCore의 구성요소를 AWS와 OpenAI가 함께 조합해 만든 관리형 제품에 가깝다고 설명한다.
즉 AgentCore는 직접 조립하려는 빌더를 위한 선택지로 남고, Bedrock Managed Agents는 대다수 고객이 직접 모든 구성요소를 설정하지 않고도 더 쉽게 기업용 에이전트를 만들 수 있게 하는 제품이라는 구분이다. Altman은 이 시작 방식에 대해 좋게 보고 있으며, AWS와의 독점적 공동 작업이라고 답한다. 다만 제품과 관계가 시간이 지나며 어떻게 진화할지는 열린 영역으로 남는다.
🧾 핵심 주장 / 시사점
- AI 에이전트 시장의 경쟁 축은 단순 모델 성능에서 모델·harness·권한·상태·보안이 결합된 운영 환경으로 이동하고 있다.
- OpenAI 입장에서는 Azure 독점 완화 이후, 기존 기업 데이터가 있는 AWS 환경으로 접근하는 것이 enterprise adoption을 넓히는 전략적 경로가 될 수 있다.
- AWS 입장에서는 AgentCore 같은 프리미티브와 OpenAI 기반 관리형 제품을 병행해, 직접 구축하려는 고객과 빠른 도입을 원하는 고객을 모두 겨냥할 수 있다.
- 기업용 에이전트의 핵심 리스크는 “무엇을 할 수 있는가”보다 “누구의 권한으로, 어디까지, 어떻게 감사 가능하게 할 것인가”에 있다.
- 로컬 에이전트는 사용 편의성과 환경 접근성에서 강점이 있지만, 조직 단위 확장과 보안 통제는 클라우드 관리형 환경이 더 중요한 역할을 할 가능성이 크다.
✅ 액션 아이템
- Bedrock Managed Agents와 기존 Bedrock AgentCore의 기능 경계, 과금 구조, 지원 모델 범위를 별도로 확인한다.
- OpenAI-AWS 협업이 Microsoft-OpenAI 수정 계약의 어떤 조항 안에서 허용되는지 공식 발표문 기준으로 재확인한다.
- 기업용 에이전트 설계 시 identity, permission, VPC, logging, audit trail 요구사항을 우선 체크리스트로 정리한다.
- Codex식 로컬 agent 경험과 AWS managed cloud agent 경험이 실제 개발·배포 흐름에서 어떻게 이어지는지 사용 사례별로 비교한다.
❓ 열린 질문
- Bedrock Managed Agents가 실제로 OpenAI 모델의 어느 수준까지 AWS-native 환경 안에서 제공하는지, API 접근과 관리형 agent runtime의 경계는 어디까지인가?
- 에이전트가 사람의 계정으로 행동할 때 “사용자 본인”과 “사용자의 에이전트”를 구분하는 표준 identity primitive가 어떻게 정립될 것인가?
- AgentCore를 직접 조립하는 고객과 Bedrock Managed Agents를 쓰는 고객 사이에서 성능, 보안, 비용, 커스터마이징 차이는 어느 정도로 나타날 것인가?