ArticleRohit·2026년 5월 3일·2

How to think using AI

Quick Summary

AI는 사고를 대체하게 두면 인지 능력을 약화시키지만, 먼저 스스로 생각한 뒤 비판적 파트너로 활용하면 판단력과 생산성을 함께 강화할 수 있다는 주장입니다.

How to think using AI 관련 대표 이미지

🖼️ 인포그래픽

How to think using AI 내용을 설명하는 본문 이미지

🖼️ 4컷 인포그래픽

How to think using AI 내용을 설명하는 본문 이미지

🧩 4컷 인포그래픽

How to think using AI 내용을 설명하는 본문 이미지

💡 한 줄 요약

AI는 사고를 대체하게 두면 인지 능력을 약화시키지만, 먼저 스스로 생각한 뒤 비판적 파트너로 활용하면 판단력과 생산성을 함께 강화할 수 있다는 주장입니다.

📌 핵심 요약

  • 저자는 AI 사용이 중립적이지 않으며, 사용 방식에 따라 사람을 더 날카롭게 만들거나 더 비어 있게 만들 수 있다고 주장합니다.
  • 핵심 문제는 AI 자체가 아니라, 독립적 사고 전에 AI에 의존하면서 생기는 “인지 부채”입니다.
  • MIT Media Lab 연구 사례는 AI를 먼저 쓰는 사람과 스스로 사고한 뒤 AI를 쓰는 사람의 결과가 다르게 나타날 수 있음을 보여주는 근거로 제시됩니다.
  • 저자는 AI가 생산성을 높인 시간만큼 더 어려운 문제에 재투자하지 않으면, 오히려 대체 가능성이 커진다고 봅니다.
  • 실천 원칙은 간단합니다. 먼저 생각하고, 그다음 AI를 열어 반박·검증·피드백 도구로 쓰라는 것입니다.

🧩 주요 포인트

  1. AI 사용의 핵심 차이는 “도구를 언제 여는가”에 있다.
  2. 독립적 사고 없이 AI를 쓰면 결과물은 늘어도 내부 역량은 줄어들 수 있다.
  3. AI가 아껴준 시간은 휴식성 소비가 아니라 더 어려운 문제와 깊은 학습에 재투자해야 한다.
  4. AI는 동의하는 조수보다 반박하는 파트너로 쓸 때 학습 효과가 커진다.
  5. 최종 종합은 AI 없이 자기 언어로 다시 써야 비로소 자신의 사고가 된다.
  6. 미래의 지식노동자는 AI 사용자와 AI 의존자로 갈라질 수 있다.

🧠 상세 정리

1. AI 사용은 중립적이지 않다는 문제의식

저자의 출발점은 “AI를 쓰면 무조건 좋아진다”거나 “AI가 사람을 멍청하게 만든다”는 단순한 결론이 아닙니다. 핵심은 AI를 어떤 순서와 태도로 사용하느냐입니다. 저자는 AI를 쓰는 방식에 따라 사고가 더 예리해질 수도 있고, 반대로 스스로 생각하는 힘이 약해질 수도 있다고 봅니다.

이 문제의식은 개인적 경험에서 출발합니다. 저자는 자신이 몇 주 전에 작성한 코드를 이해하지 못하고 AI에게 설명을 요청한 순간, 생산성은 유지됐지만 코드를 읽고 해석하는 자신의 능력이 약해졌다는 사실을 깨달았다고 말합니다. 즉 결과물은 계속 나오지만, 결과물을 가능하게 하는 내부 사고 근육은 줄어들 수 있다는 것입니다.

2. MIT 연구에서 저자가 읽어낸 핵심

원문은 MIT Media Lab의 에세이 작성 실험을 중요한 근거로 제시합니다. 저자에 따르면, ChatGPT를 사용한 그룹은 반복 세션을 거치며 신경 연결성이 약해졌고, 자신이 방금 쓴 글의 문장을 제대로 인용하지 못하는 경우가 많았습니다. 이 현상을 연구진은 “cognitive debt”, 즉 인지 부채로 설명했다고 소개합니다.

다만 저자는 이 연구를 “AI가 사람을 바보로 만든다”는 식으로 읽는 것은 부정확하다고 봅니다. 더 중요한 지점은 네 번째 세션에서 도구 사용 조건이 바뀌었을 때 드러납니다. 먼저 손으로 사고하고 글을 써온 사람들은 이후 AI를 더했을 때 더 넓은 인지적 활성화를 보였고, 반대로 AI에 먼저 의존했던 사람들은 도구가 사라지자 제대로 기능하지 못했습니다. 저자의 해석은 분명합니다. AI 자체보다 “독립적 사고 이후에 AI를 쓰는가, 이전에 AI를 쓰는가”가 결정적이라는 것입니다.

3. 인지 부채와 의존의 함정

저자는 AI 의존을 더 넓은 의존의 문제로 확장합니다. 부모, 관계, 직업 정체성에 과도하게 기대면 스스로의 결정력이나 감정 조절 능력이 약해지듯, AI에 사고를 맡기면 사고 능력 자체가 약해질 수 있다는 논리입니다. AI가 특별히 위험한 이유는 이 의존이 매우 빠르게 형성될 수 있다는 점입니다.

AI는 겉으로는 생산성의 형태로 다가옵니다. 예전에는 여덟 시간이 걸리던 일을 두 시간에 끝낼 수 있고, 결과물도 유지되는 것처럼 보입니다. 하지만 남은 여섯 시간이 더 깊은 사고나 더 어려운 문제로 이어지지 않고 스크롤, 영상 소비, 즉각적 도파민 활동으로 흘러가면 문제가 생깁니다. 저자는 이를 “전이된 인지”로 설명합니다. 사고가 사라진 것이 아니라 모델 쪽으로 이동했고, 인간 내부에서 성장하던 시간이 비어버렸다는 것입니다.

4. 기존 생산성 관점과의 차이

일반적인 AI 생산성 담론은 더 빨리 만들고, 더 많이 출력하고, 더 적은 시간으로 같은 결과를 내는 데 초점을 둡니다. 하지만 저자는 이 관점을 위험하다고 봅니다. AI로 절약한 시간을 단순히 편안함으로 소비하면, 같은 일을 더 싸고 빠르게 하는 사람 또는 모델로 대체되기 쉬워진다는 것입니다.

저자가 제안하는 차이는 명확합니다. AI로 기존 일을 쉽게 처리하는 것이 아니라, AI 덕분에 이전보다 4배 어려운 문제를 시도해야 한다는 것입니다. 같은 도구를 쓰더라도 한 사람은 더 큰 문제로 이동해 역량을 복리로 키우고, 다른 사람은 같은 결과만 유지한 채 내부 능력을 잃습니다. 따라서 진짜 질문은 “AI를 쓰는가”가 아니라 “AI가 아껴준 인지 자원을 어디에 쓰는가”입니다.

5. 먼저 생각하고, 그다음 AI를 열기

저자가 제시하는 첫 번째 실천 원칙은 “think first, prompt second”입니다. 중요한 작업을 시작하기 전에 바로 AI에게 묻지 말고, 먼저 10분 정도 자신의 거친 답을 만들어보라는 것입니다. 틀린 초안, 헷갈리는 지점, 현재의 가설을 먼저 적어야 합니다.

이 과정은 비효율처럼 보이지만, 저자에게는 핵심 방어선입니다. AI가 답을 만들어주는 것이 아니라, 사용자가 이미 만든 생각과 겨루도록 만드는 장치이기 때문입니다. 먼저 사고한 사람에게 AI는 확장 도구가 되지만, 아무 내부 구조 없이 AI를 여는 사람에게 AI는 대체물이 됩니다.

6. AI를 동의자가 아니라 반박자로 쓰기

저자는 언어모델이 기본적으로 사용자를 기분 좋게 만들고 동의하는 방향으로 반응하기 쉽다고 봅니다. 그래서 AI를 단순한 칭찬 도구나 문장 다듬기 도구로 쓰면 학습 효과가 낮아진다고 말합니다. 대신 AI에게 가장 약한 주장, 숨은 전제, 반례, 반대편의 강한 논리를 찾아달라고 요청해야 한다고 제안합니다.

이 방식에서 AI는 교사가 아니라 논쟁 상대에 가까워집니다. 저자는 자신의 글을 AI에게 비판적으로 검토하게 했을 때, 자신도 몰랐던 핵심 가정이 드러났고 글 전체를 다시 써야 했던 경험을 예로 듭니다. 불편함은 이 과정의 결함이 아니라 장점입니다. 동의는 기분을 좋게 만들지만, 반박은 사고를 선명하게 만든다는 것이 저자의 입장입니다.

7. 설명·검증·최종 종합은 사용자가 책임져야 한다

저자는 AI를 선생으로만 쓰지 말고, 오히려 AI에게 자신이 설명해보라고 권합니다. 이는 파인만식 학습법과 연결됩니다. 어떤 개념을 이해했다고 생각한다면, AI에게 먼저 자신의 설명을 들려주고 모호한 부분, 건너뛴 단계, 부정확한 지점을 찾아달라고 하는 방식입니다. 중요한 것은 AI가 먼저 정답을 주지 않게 하는 것입니다.

또한 AI 답변에서 중요한 주장 세 가지는 반드시 1차 자료나 신뢰할 수 있는 원천으로 확인해야 한다고 말합니다. 마지막으로, AI의 도움을 받은 작업이라도 최종 요약, 결론, 커밋 메시지, 전략 문단은 AI 창을 닫고 자기 기억과 언어로 다시 써야 한다고 강조합니다. 저자에게 이 단계는 결과물이 법적·인지적으로 “자기 것”이 되는 순간입니다.

8. AI 시대의 두 갈래

원문은 LLM 시대의 사람들이 두 부류로 갈라지고 있다고 봅니다. 첫 번째는 AI로 같은 일을 더 쉽게 하고 남는 시간을 편안함으로 소비하는 사람들입니다. 이들은 결과물은 유지하지만, 장기적으로 역량이 줄고 대체 가능성이 커질 수 있습니다.

두 번째는 AI로 이전에는 불가능했던 문제를 시도하고, 절약된 인지 자원을 더 어려운 학습과 창작에 재투자하는 사람들입니다. 이들은 AI를 대체물이 아니라 증폭 장치로 사용합니다. 저자의 결론은 하나의 규칙으로 압축됩니다. 자기 뇌를 먼저 참여시킨 뒤 AI를 열어야 한다는 것입니다. 처음에는 느려 보이지만, 장기적으로는 사람이 더 강해지는 방향의 복리를 만든다는 주장입니다.

🧾 핵심 주장 / 시사점

  • AI의 위험은 사용 자체가 아니라, 독립적 사고 이전에 AI가 사고를 대체하는 사용 순서에 있다.
  • 생산성 향상으로 절약된 시간은 더 어려운 문제와 더 깊은 학습에 재투자되어야 한다.
  • AI는 동의하는 비서보다 반박하고 검증하게 만드는 사고 파트너로 쓸 때 가치가 커진다.
  • 최종 종합을 자기 언어로 재작성하지 못한다면, 사용자는 실제로 이해한 것이 아니라 AI의 산출을 관찰한 것일 수 있다.
  • AI 시대의 경쟁력은 프롬프트 능력보다 판단력, 검증력, 문제 설정 능력에 달려 있다는 시사점이 있다.

✅ 액션 아이템

  • 중요한 작업 전 10분 동안 AI 없이 자신의 초안, 가설, 혼란 지점을 먼저 작성한다.
  • AI에게 “가장 약한 주장”, “숨은 전제”, “강한 반론”을 찾게 하는 비판 프롬프트를 고정 루틴으로 만든다.
  • AI 답변에서 의사결정에 영향을 주는 핵심 주장 3개를 골라 원문 또는 1차 자료로 확인한다.
  • 최종 요약·결론·전략 문단은 AI 창을 닫고 자기 언어로 다시 작성한다.

❓ 열린 질문

  • AI를 먼저 사용하는 습관이 실제 장기 역량 저하로 이어지는 범위와 조건은 어디까지인가?
  • “AI 사용 후 절약된 인지 자원”을 더 어려운 문제에 재투자하도록 만드는 개인·조직 차원의 프로토콜은 무엇인가?
  • 지식노동에서 AI 오케스트레이터 역할을 제대로 수행하기 위해 필요한 최소한의 독립적 전문성은 어떻게 측정할 수 있는가?

관련 문서

공통 태그와 주제 흐름을 기준으로 같이 보면 좋은 문서를 이어서 제안합니다.