YouTube바이브랩스·2026년 4월 5일·1

안드레 카파시와 루만이 만났다?클로드 코드로 완성하는 ''자가 컴파일'' 지식 시스템

Quick Summary

안드레이 카파시의 LLM 자동 컴파일과 니클라스 루만의 제텔카스텐을 융합해, 클로드 코드 커스텀 스킬 6개로 토큰 소모를 10분의 1 수준으로 줄이는 개인 지식 시스템 구축법.

영상 보기

클릭 전까지는 가벼운 미리보기만 먼저 불러옵니다.

원본 열기

🖼️ 4컷 인포그래픽

안드레 카파시와 루만이 만났다?클로드 코드로 완성하는 ''자가 컴파일'' 지식 시스템의 핵심 내용을 4단계로 요약한 인포그래픽
안드레 카파시와 루만이 만났다?클로드 코드로 완성하는 ''자가 컴파일'' 지식 시스템 핵심 내용을 4단계로 압축한 4컷 인포그래픽

💡 한 줄 결론

안드레이 카파시의 LLM 자동 컴파일과 니클라스 루만의 제텔카스텐을 융합해, 클로드 코드 커스텀 스킬 6개로 토큰 소모를 10분의 1 수준으로 줄이는 개인 지식 시스템 구축법.

📌 핵심 요점

  1. 문제의식: 메모는 열심히 쌓아도 다시 꺼내보거나 지식으로 전환하는 일은 거의 없다. 카파시의 자동화 철학과 루만의 원자성·인덱스·백링크 개념을 결합하면 이 병목을 해결할 수 있다.
  2. 카파시 방식의 치명적 한계: 문서 100개·40만 단어를 매번 전수 독해해야 하는 구조라 토큰 비용이 폭발한다. 일반 사용자는 프로 요금제도 하루 몇 번이면 한도에 도달한다.
  3. 토큰 1/10 절감의 핵심 전략: 아카이브 플래그로 인박스 제로를 유지하고, 프론트매터 기반 메타 정보만으로 분류·연결을 수행하며, 원본 맥락 링크를 보존해 전수 독해를 회피한다.
  4. 6개 스킬로 자동화 완성: 플리팅(임시 메모), 리터러처(문헌 노트), 퍼머넌트(연구 메모), 인덱스(클러스터 생성), 쿼리(검색), 린트(자가 치유)가 각자 역할을 분담해 "인간은 메모를 던지고 시스템이 지식을 기른다"는 구조를 만든다.
  5. 벡터 DB 없이도 작동: 구조화된 마크다운 프론트매터만으로 검색·연결이 가능하며, 옵시디언 네트워크 그래프로 시각화까지 자연스럽게 이어진다. 다만 메모 수가 충분히 쌓여야 클러스터링의 실질적 가치가 발현된다.

🧩 배경과 문제 정의

  • 메모는 열심히 쌓아도 다시 꺼내보거나 지식으로 전환하는 일은 거의 없다는 문제의식에서 출발한다.
  • 안드레이 카파시가 공개한 "로컬 폴더에 자료를 던지면 LLM이 위키로 컴파일한다"는 워크플로우와, 니클라스 루만의 제텔카스텐(수집→분류→연결→축적)이 본질적으로 같은 궤를 달린다는 점에 착안한다.
  • 카파시 방식은 문서 100개·40만 단어를 매번 전수 독해해야 해서 토큰 비용이 일반 사용자에게 현실적인 장벽이 된다.
  • 이 한계를 극복하기 위해 루만의 원자성·인덱스 코드·백링크 개념과 카파시의 자동화 철학을 결합하고, 클로드 코드 커스텀 스킬로 구현하는 "토큰 10분의 1 절감" 지식 시스템을 제안한다.

🕒 시간순 섹션별 상세정리

1. 메모의 현실과 두 천재의 만남 [00:00]

  • 노션·구글 키·옵시디언 등 여러 메모 앱을 쓰면서도, 막상 기록을 꺼내 지식으로 활용하는 경우는 드물다.
  • 안드레이 카파시가 최근 트위터에 공개한 지식 정리 방식이 기존 제텔카스텐 기법과 맥락이 겹친다는 점을 발견한다.

2. 니클라스 루만과 제텔카스텐 [01:13]

  • 독일 사회학자 니클라스 루만은 평생 종이 카드 9만 장 이상을 작성했다.
  • 이 메모 시스템만으로 논문 70편, 책 50권을 단독 집필했다.

3. 안드레이 카파시의 지식 컴파일 워크플로우 [01:46]

  • 오픈AI 공동 창립자이자 테슬라 AI 디렉터 출신인 카파시는 최근 "코딩보다 지식 정리에 토큰을 더 쓴다"고 밝혔다.
  • 핵심 구조: 인간은 로우 폴더에 날것의 자료를 던지고, LLM이 이를 읽어 개념별 분류·문서화·문서 간 연결을 자동 수행한다.

4. 카파시 방식의 현실적 한계—토큰 폭탄 [03:17]

  • 카파시의 위키는 문서 100개·40만 단어 규모인데, LLM이 컴파일하려면 매번 전체를 독해해야 한다.
  • 연결 문서 탐색·린팅·Q&A 등 모든 작업이 전수 조사를 요구해 토큰 소모가 폭발적으로 늘어난다.

5. 클로드 코드 스킬의 개념과 구조 [04:09]

  • 클로드 코드 스킬은 .claude/skills/ 폴더에 넣는 마크다운 파일로, SKILL.md 한 장으로 구성된다.
  • "이런 상황에서 이렇게 행동해"라는 자연어 지시를 문서에 적어두면 클로드 코드가 그대로 따른다.

6. 루만과 카파시의 융합—세 가지 차용과 마법 가루 [04:47]

  • 루만에게서 세 가지를 빌려온다: 원자성(메모 하나에 생각 하나), 인덱스 코드(각 메모에 고유 주소), 백링크(메모 간 상호 참조).
  • 카파시에게서는 자동화 개념을 가져온다: LLM 컴파일, 린팅 기반 자기 치유, 단일 프런트엔드 통합 뷰.

7. 토큰 10분의 1 절감의 세 가지 전략 [06:07]

  • 첫째, 처리가 끝난 로우 파일은 삭제하지 않고 archive 플래그로 숨긴다. 받은편지함이 항상 비어 있는 인박스 제로 상태가 되어 "새 파일인지 아닌지" 판단 비용이 사라진다.
  • 둘째, 각 메모에 프론트 매터(제목·태그·한줄 요약)를 추가해 LLM이 문서 전체를 읽지 않고도 메타 정보만으로 분류·연결을 수행한다. 40만 단어 전체 독해 대신 수백 줄 프론트 매터만 읽으면 된다.

8. 스킬 실행 흐름과 콤보 스킬 [07:22]

  • 슬래시 명령어를 실행하면 시스템이 로우 폴더에서 새 메모를 탐지한다.
  • 3단계 딥 리딩(표면 읽기 → 논증 구조 파악 → 지식 체계 내 위치 판단)으로 핵심 아이디어를 분석한다.

9. 레그 없이 구조화된 마크다운으로 가성비 극대화 [10:04]

  • 벡터 DB 없이도 프런트매터가 포함된 구조화된 마크다운만으로 지식 검색이 가능하다.
  • 카파시처럼 대규모 토큰을 소비할 필요 없이, 스킬 기반 자동화로 비용을 줄일 수 있다.

10. 카파시 지식 체계의 구조와 옵시디언 적용 [10:46]

  • 카파시가 트위터에 공유한 LM 지식 기반 체계는 raw 폴더에 논문·기사·데이터셋·이미지 등 원본 소스를 그대로 보관하는 구조다.
  • LLM이 이 소스들을 컴파일해 체계적 지식으로 변환하고, 옵시디언에서 최종 검증·확인한다.

11. 플리팅 스킬: 임시 메모의 즉각 기록 [12:17]

  • 클로드 코드에 제텔카스텐 스킬 세 가지를 등록해 두었으며, /f 입력 시 플리팅(fleeting) 메모가 즉시 실행된다.
  • 플리팅은 순간적으로 떠오른 아이디어, 조각 생각, 짧은 영감을 빠르게 포착하는 용도다.

12. 제텔카스텐 메모법의 세 가지 계층 [13:53]

  • 0번 인박스는 임시 메모 계층으로 카파시의 raw 폴더와 동일한 역할을 하며, 항상 제로 상태를 유지하는 게 핵심 전략이다.
  • 문헌 노트(literature note)는 출처가 명확한 메모를 작성하는 계층으로, 뉴스 기사·책 문장·논문 인용 등이 해당된다.

13. 퍼넌트 스킬: 임시 메모의 연구 메모화 [15:00]

  • /p 입력 시 퍼넌트(permanent) 스킬이 실행되어, 임시 메모를 연구 메모로 확장한다.
  • 명령어와 함께 {{}} 안에 임시 메모 제목을 넣으면, 클로드 코드가 프런트메터를 분석해 연결 대상을 자동 판단한다.

14. 연구 메모의 자동 배치와 ID 할당 [16:35]

  • 배치 위치를 선택하고 엔터만 누르면 새 연구 메모가 기존 구조에 자동으로 끼워진다.
  • 여러 메모가 동시에 생성될 때도 각각 유니크한 ID가 자동 부여되어 정렬이 즉시 완료된다.

15. 리터처 스킬: 문헌 노트 자동 작성 [17:22]

  • /l 입력 시 리터처(literature) 스킬이 실행되어, 출처가 있는 메모를 문헌 노트로 자동 추가한다.
  • 책에서 읽은 문장을 붙여넣고 출처 정보(예: "치매에 걸린 뇌과학자")를 함께 제공하면 된다.

16. 문헌 노트 연결로 새로운 연구 메모 생성 [20:02]

  • 문헌 노트 제목을 입력하면 기존 11가지 아이디어와 연결해 새로운 창의적 아이디어를 생성하는 흐름을 시연한다.
  • 연구 메모의 프런트메터에 요약이 이미 포함되어 있어, 전체 메모를 검색하지 않고도 제목과 프런트메터만으로 연관성을 파악한다.

17. 옵시디언 제텔카스텐 폴더 구조 설명 [21:48]

  • 인박스는 임시 노트에 해당하며, 연결된 메모를 항상 0개로 유지하는 것이 구조적 핵심이다.
  • 리터러처(Literature)는 출처가 명확한 문헌 노트를 기록하는 공간으로, 지식 체계의 중간 계층을 담당한다.

18. 두 기법의 구조 비교와 통합 방향 [24:06]

  • 수집 단계는 플리팅과 리터러처가 카파시의 raw 개념과 유사하지만, 카파시는 raw 안에 두 개념이 통합되어 있고 제텔카스텐은 분리되어 있다.
  • 컴파일은 퍼머넌트(연구 노트)와 비슷한 개념이며, 도구로는 둘 다 옵시디언을 사용한다.
  • Q&A와 자가 치유(self-healing) 개념은 현재 시스템에 부분적으로만 구현되어 있어 보강이 필요하다.

19. 루만 철학 유지하면서 세 영역으로 재구성 [25:02]

  • 카파시 방식을 그대로 도입하면 "자기 말로 써야 이해한 것"이라는 루만의 철학이 훼손되므로, 퍼머넌트(인간 사고 영역)는 반드시 보존해야 한다.
  • 수집 자동화 그룹, 인간 사고 그룹, LLM 자동화 그룹의 세 영역으로 분리하는 구조를 제안한다.
  • 새로 필요한 스킬로 인제스트(ingest), 쿼리(query), 린트(lint), 인덱스(index) 네 가지를 제안받는다.

20. 중복 스킬 걸러내고 기존 스킬과 통합 [26:10]

  • 인제스트 스킬은 기존 플리팅 스킬과 중복되므로 새로 만들지 않고 플리팅으로 통합하기로 결정한다.
  • 존재하지 않는 스킬을 참조하면 에러가 발생하므로, 프롬프트를 수정해 기존 스킬 기반으로 방향 전환한다.
  • 리터러처는 인제스트에서 생성된 초안을 받아 사람이 정제하는 워크플로우로 조정한다.

21. 스킬 생성 실무와 토큰 관리 전략 [27:50]

  • 유용한 개념을 발견하면 Claude Code에 스킬 생성을 요청하고, 사용법도 대화로 정리하는 반복 패턴을 설명한다.
  • 스킬은 글로벌 설치 옵션으로 모든 프로젝트에서 접근 가능하도록 구성한다.
  • Claude Code의 토큰 소모가 급격해 100달러 요금제도 1~2시간이 한계이므로, 대화를 전략적으로 운용해야 한다고 경고한다.

22. 최종 세 스킬 추가 및 인덱스 테스트 [29:02]

  • 기존 세 스킬(플리팅, 리터러처, 퍼머넌트)에 인덱스·쿼리·린트를 추가해 총 여섯 개로 확장한다.
  • 인덱스 스킬을 테스트해 보면 전체 볼트 메모를 스캔하고 태그를 추출하며, 인덱스 세 개를 생성하는 것을 확인한다.

23. 인덱스 스킬의 역할을 직접 질문으로 확인 [30:02]

  • Claude Code가 인덱스 스킬을 자동 생성했지만, 정확히 어떤 역할을 수행하는지 사용자 본인도 파악하지 못한 상태였다.
  • 이럴 때는 "인덱스 스킬이 수행하는 역할이 뭐야?"라고 직접 물어보는 것이 가장 빠른 해결책이다.

24. 인덱스 폴더 구조와 클러스터 기반 메모 정리 탐색 [30:34]

  • 생성된 인덱스 폴더에는 클러스터 맵, 그래프, 볼트 인덱스 세 파일이 들어 있다.
  • 볼트 인덱스는 클러스터별 전체 노트 목록으로, "글쓰기와 창작", "AI와 인간의 관계", "도구와 플랫폼", "인간의 주체성과 회복" 등 주제별로 메모를 묶어 보여준다.

25. 통합 시스템 활용을 위한 각 스킬 장단점 분석의 필요성 [32:27]

  • 쿼리·린트 등 추가 스킬의 역할도 인덱스와 같이 직접 질문하면 빠르게 파악할 수 있다.
  • 제텔카스텐과 카파시의 LM 지식 관리가 하나로 통합된 만큼, 각 스킬의 장단점을 정확히 이해해야 시스템 전체의 시너지를 극대화할 수 있다.

26. 메모 축적의 중요성과 LRM 자동 연결 기대 [33:00]

  • 현재 연구 노트 13개, 문헌 노트 4개로 총 17개 수준이라 네트워크 그래프가 거의 무의미할 정도로 희소하다.
  • 메모가 적으면 서로 다른 분야의 아이디어를 교차 연결해 창의적 조합을 만들어내는 제텔카스텐의 본질적 가치를 경험하기 어렵다.
  • 따라서 꾸준한 메모 축적이 선행되어야 하며, 장기적으로는 LRM이 이 연결 작업을 자동화해 줄 것이라는 기대가 있다.

27. 토큰 사용량 확인과 지식 관리·코딩 시간 분배 전략 [34:21]

  • Claude Code를 열 번 정도 호출했을 때 약 20% 수준의 토큰을 소모한 것으로 확인됐다.
  • 하루 20~30개 메모를 기록하며 연구 노트를 꾸준히 만들어 나가면 100달러 요금제의 토큰 한도도 넉넉하지 않다.
  • 지식 관리에 투입하는 시간과 비용을 코딩 등 다른 작업과 균형 있게 분배하는 전략이 필수적이다.

28. 마무리: 스킬 공개 및 시청자 실천 독려 [35:30]

  • 안드레 카파시의 메모 시스템에 대한 추가 설명은 후속 영상에서 다룰 예정이다.
  • 옵시디언에서 제텔카스텐 환경을 구성하는 것도 Claude Code에 요구사항만 명확히 설명하면 충분히 가능하다.
  • 핵심은 스킬을 만들고 검증하는 과정 자체보다, 이후 메모를 지속적으로 축적하며 지식 네트워크를 키워나가는 실천에 있다.

🧾 결론

  • 카파시의 "로우→컴파일→위키" 파이프라인과 루만의 "수집→분류→연결→축적" 사이클은 본질적으로 동일한 지식 변환 과정을 다르게 구현한 것이며, 두 접근의 장점을 결합하면 인간의 사고 영역(퍼머넌트)을 보존하면서도 정리 부담은 AI에 위임할 수 있다.
  • 클로드 코드 커스텀 스킬은 코딩이 아닌 자연어 지시만으로 AI의 행동 규칙을 정의하므로, 제텔카스텐 경험이 없어도 터미널에서 폴더 구조를 요청하면 Claude가 알아서 세팅해 준다.
  • 토큰 비용은 여전히 현실적 제약이다. 하루 20~30개 메모를 연구 노트까지 확장하면 $100 요금제도 부담되므로, 지식 관리 시간과 코딩 시간을 명확히 분리하는 운영 전략이 필수적이다.

📈 투자·시사 포인트

  • 개인 지식 관리 도구의 AI 내재화: 옵시디언+클로드 코드 조합은 벡터 DB 없이도 마크다운 프론트매터 기반 검색·클러스터링이 가능하다는 점에서, 개인용 PKM(Personal Knowledge Management)의 진입 장벽을 크게 낮추는 방향이다.
  • 토큰 비용이 여전히 핵심 병목: 카파시 본인은 사실상 무제한 토큰 환경에서 작업하므로 일반 사용자가 동일 방식을 그대로 따라 하면 즉시 한도에 부딪힌다. 프론트매터 최소화·인박스 제로 등 토큰 절감 설계가 없으면 실용성이 떨어진다.
  • 스킬 생태계의 확장 가능성: 플리팅·리터러처·퍼머넌트 같은 스킬은 특정 도메인에 종속되지 않으므로, 글로벌 설치 옵션을 통해 모든 프로젝트에 재사용할 수 있다. 이 패턴이 확산되면 "AI 비서 행동 규칙의 마켓플레이스" 같은 생태계로 발전할 여지가 있다.
  • 메모 양이 임계점을 넘어야 네트워크 효과 발현: 연구 노트 13개, 문헌 노트 4개 수준에서는 클러스터링·그래프가 거의 무의미하다. 꾸준한 축적이 전제되어야 LLM의 자동 연결 능력이 빛을 발한다는 점은 장기 투자 관점에서 인내가 필요한 요소다.

⚠️ 불확실하거나 확인이 필요한 부분

  • 영상에서 "토큰 10분의 1 절감"이라고 주장하지만, 40만 단어 전수 독해 대비 프론트매터만 읽는 방식이 실제 어떤 규모의 문서·어떤 LLM 모델에서 정확히 1/10 수준으로 떨어지는지에 대한 정량 검증이 제시되지 않았다. 실제 절감률은 메모당 평균 길이, 태그 밀도, 연결 수 등에 따라 크게 달라질 수 있다.
  • 카파시의 원래 워크플로우가 공식적으로 공개된 것인지, 트위터(現 X) 게시물과 노션 페이지 기반의 비공식 정리인지 구분이 필요하다. 영상에서는 트위터와 노션을 출처로 언급하지만 링크나 버전 정보가 확인되지 않는다.
  • "루만이 종이 카드 9만 장으로 논문 70편, 책 50권을 단독 집필했다"는 수치는 널리 인용되지만, 학술 검증을 거친 정확한 출처와 집필 기여도(단독 vs 공동)에 대한 추가 확인이 유용하다.

✅ 액션 아이템

  • 카파시 원본 워크플로우의 공식 출처(트윗·노션 페이지·저장소)를 확인하고, 영상 설명란에 공개된 스킬 파일과의 차이점을 비교 정리한다.
  • 프론트매터 기반 절감 전략을 실제 옵시디언 볼트(문서 30~50개 규모)에서 A/B 테스트하여 전수 독해 vs 프론트매터만 읽기의 실제 토큰 소모와 정확도를 측정한다.
  • 총 6개 스킬(플리팅·리터러처·퍼머넌트·인덱스·쿼리·린트) 각각의 입력·출력·의존관계를 한 장의 흐름도로 정리해 둔다.
  • 지식 관리용 세션과 코딩용 세션을 시간대별로 분리하는 구체적 일일 스케줄(예: 오전 지식 관리 / 오후 코딩)을 수립하고 토큰 잔량 기준 중단선을 설정한다.

❓ 열린 질문

  • 프론트매터만으로 분류·연결을 수행할 때, 메모 본문에만 존재하는 미세한 뉘앙스나 숨은 연결이 누락될 위험은 어느 정도인가? 이 보완을 위해 주기적 전수 린트만으로 충분한가?
  • 메모가 수백~수천 개로 확장되었을 때 프론트매터 스캔 자체의 토큰 비용도 선형 증가하는데, 이 시점에서는 벡터 DB나 임베딩 기반 검색을 병행하는 것이 필수적인가?
  • "자기 말로 써야 이해한 것"이라는 루만의 철학과, LLM이 초안을 작성하고 인간이 정제하는 방식 사이의 긴장을 어떻게 구조적으로 해소할 것인가? 퍼머넌트 노트에서 인간 직접 작성 비율의 최소 기준이 필요한가?

관련 문서

공통 태그와 주제 흐름을 기준으로 같이 보면 좋은 문서를 이어서 제안합니다.