안드레 카파시와 루만이 만났다?클로드 코드로 완성하는 ''자가 컴파일'' 지식 시스템
Quick Summary
안드레이 카파시의 LLM 자동 컴파일과 니클라스 루만의 제텔카스텐을 융합해, 클로드 코드 커스텀 스킬 6개로 토큰 소모를 10분의 1 수준으로 줄이는 개인 지식 시스템 구축법.
영상 보기
클릭 전까지는 가벼운 미리보기만 먼저 불러옵니다.
🖼️ 4컷 인포그래픽

💡 한 줄 결론
안드레이 카파시의 LLM 자동 컴파일과 니클라스 루만의 제텔카스텐을 융합해, 클로드 코드 커스텀 스킬 6개로 토큰 소모를 10분의 1 수준으로 줄이는 개인 지식 시스템 구축법.
📌 핵심 요점
- 문제의식: 메모는 열심히 쌓아도 다시 꺼내보거나 지식으로 전환하는 일은 거의 없다. 카파시의 자동화 철학과 루만의 원자성·인덱스·백링크 개념을 결합하면 이 병목을 해결할 수 있다.
- 카파시 방식의 치명적 한계: 문서 100개·40만 단어를 매번 전수 독해해야 하는 구조라 토큰 비용이 폭발한다. 일반 사용자는 프로 요금제도 하루 몇 번이면 한도에 도달한다.
- 토큰 1/10 절감의 핵심 전략: 아카이브 플래그로 인박스 제로를 유지하고, 프론트매터 기반 메타 정보만으로 분류·연결을 수행하며, 원본 맥락 링크를 보존해 전수 독해를 회피한다.
- 6개 스킬로 자동화 완성: 플리팅(임시 메모), 리터러처(문헌 노트), 퍼머넌트(연구 메모), 인덱스(클러스터 생성), 쿼리(검색), 린트(자가 치유)가 각자 역할을 분담해 "인간은 메모를 던지고 시스템이 지식을 기른다"는 구조를 만든다.
- 벡터 DB 없이도 작동: 구조화된 마크다운 프론트매터만으로 검색·연결이 가능하며, 옵시디언 네트워크 그래프로 시각화까지 자연스럽게 이어진다. 다만 메모 수가 충분히 쌓여야 클러스터링의 실질적 가치가 발현된다.
🧩 배경과 문제 정의
- 메모는 열심히 쌓아도 다시 꺼내보거나 지식으로 전환하는 일은 거의 없다는 문제의식에서 출발한다.
- 안드레이 카파시가 공개한 "로컬 폴더에 자료를 던지면 LLM이 위키로 컴파일한다"는 워크플로우와, 니클라스 루만의 제텔카스텐(수집→분류→연결→축적)이 본질적으로 같은 궤를 달린다는 점에 착안한다.
- 카파시 방식은 문서 100개·40만 단어를 매번 전수 독해해야 해서 토큰 비용이 일반 사용자에게 현실적인 장벽이 된다.
- 이 한계를 극복하기 위해 루만의 원자성·인덱스 코드·백링크 개념과 카파시의 자동화 철학을 결합하고, 클로드 코드 커스텀 스킬로 구현하는 "토큰 10분의 1 절감" 지식 시스템을 제안한다.
🕒 시간순 섹션별 상세정리
1. 메모의 현실과 두 천재의 만남 [00:00]
- 노션·구글 키·옵시디언 등 여러 메모 앱을 쓰면서도, 막상 기록을 꺼내 지식으로 활용하는 경우는 드물다.
- 안드레이 카파시가 최근 트위터에 공개한 지식 정리 방식이 기존 제텔카스텐 기법과 맥락이 겹친다는 점을 발견한다.
2. 니클라스 루만과 제텔카스텐 [01:13]
- 독일 사회학자 니클라스 루만은 평생 종이 카드 9만 장 이상을 작성했다.
- 이 메모 시스템만으로 논문 70편, 책 50권을 단독 집필했다.
3. 안드레이 카파시의 지식 컴파일 워크플로우 [01:46]
- 오픈AI 공동 창립자이자 테슬라 AI 디렉터 출신인 카파시는 최근 "코딩보다 지식 정리에 토큰을 더 쓴다"고 밝혔다.
- 핵심 구조: 인간은 로우 폴더에 날것의 자료를 던지고, LLM이 이를 읽어 개념별 분류·문서화·문서 간 연결을 자동 수행한다.
4. 카파시 방식의 현실적 한계—토큰 폭탄 [03:17]
- 카파시의 위키는 문서 100개·40만 단어 규모인데, LLM이 컴파일하려면 매번 전체를 독해해야 한다.
- 연결 문서 탐색·린팅·Q&A 등 모든 작업이 전수 조사를 요구해 토큰 소모가 폭발적으로 늘어난다.
5. 클로드 코드 스킬의 개념과 구조 [04:09]
- 클로드 코드 스킬은
.claude/skills/폴더에 넣는 마크다운 파일로,SKILL.md한 장으로 구성된다. - "이런 상황에서 이렇게 행동해"라는 자연어 지시를 문서에 적어두면 클로드 코드가 그대로 따른다.
6. 루만과 카파시의 융합—세 가지 차용과 마법 가루 [04:47]
- 루만에게서 세 가지를 빌려온다: 원자성(메모 하나에 생각 하나), 인덱스 코드(각 메모에 고유 주소), 백링크(메모 간 상호 참조).
- 카파시에게서는 자동화 개념을 가져온다: LLM 컴파일, 린팅 기반 자기 치유, 단일 프런트엔드 통합 뷰.
7. 토큰 10분의 1 절감의 세 가지 전략 [06:07]
- 첫째, 처리가 끝난 로우 파일은 삭제하지 않고
archive플래그로 숨긴다. 받은편지함이 항상 비어 있는 인박스 제로 상태가 되어 "새 파일인지 아닌지" 판단 비용이 사라진다. - 둘째, 각 메모에 프론트 매터(제목·태그·한줄 요약)를 추가해 LLM이 문서 전체를 읽지 않고도 메타 정보만으로 분류·연결을 수행한다. 40만 단어 전체 독해 대신 수백 줄 프론트 매터만 읽으면 된다.
8. 스킬 실행 흐름과 콤보 스킬 [07:22]
- 슬래시 명령어를 실행하면 시스템이 로우 폴더에서 새 메모를 탐지한다.
- 3단계 딥 리딩(표면 읽기 → 논증 구조 파악 → 지식 체계 내 위치 판단)으로 핵심 아이디어를 분석한다.
9. 레그 없이 구조화된 마크다운으로 가성비 극대화 [10:04]
- 벡터 DB 없이도 프런트매터가 포함된 구조화된 마크다운만으로 지식 검색이 가능하다.
- 카파시처럼 대규모 토큰을 소비할 필요 없이, 스킬 기반 자동화로 비용을 줄일 수 있다.
10. 카파시 지식 체계의 구조와 옵시디언 적용 [10:46]
- 카파시가 트위터에 공유한 LM 지식 기반 체계는 raw 폴더에 논문·기사·데이터셋·이미지 등 원본 소스를 그대로 보관하는 구조다.
- LLM이 이 소스들을 컴파일해 체계적 지식으로 변환하고, 옵시디언에서 최종 검증·확인한다.
11. 플리팅 스킬: 임시 메모의 즉각 기록 [12:17]
- 클로드 코드에 제텔카스텐 스킬 세 가지를 등록해 두었으며,
/f입력 시 플리팅(fleeting) 메모가 즉시 실행된다. - 플리팅은 순간적으로 떠오른 아이디어, 조각 생각, 짧은 영감을 빠르게 포착하는 용도다.
12. 제텔카스텐 메모법의 세 가지 계층 [13:53]
- 0번 인박스는 임시 메모 계층으로 카파시의 raw 폴더와 동일한 역할을 하며, 항상 제로 상태를 유지하는 게 핵심 전략이다.
- 문헌 노트(literature note)는 출처가 명확한 메모를 작성하는 계층으로, 뉴스 기사·책 문장·논문 인용 등이 해당된다.
13. 퍼넌트 스킬: 임시 메모의 연구 메모화 [15:00]
/p입력 시 퍼넌트(permanent) 스킬이 실행되어, 임시 메모를 연구 메모로 확장한다.- 명령어와 함께
{{}}안에 임시 메모 제목을 넣으면, 클로드 코드가 프런트메터를 분석해 연결 대상을 자동 판단한다.
14. 연구 메모의 자동 배치와 ID 할당 [16:35]
- 배치 위치를 선택하고 엔터만 누르면 새 연구 메모가 기존 구조에 자동으로 끼워진다.
- 여러 메모가 동시에 생성될 때도 각각 유니크한 ID가 자동 부여되어 정렬이 즉시 완료된다.
15. 리터처 스킬: 문헌 노트 자동 작성 [17:22]
/l입력 시 리터처(literature) 스킬이 실행되어, 출처가 있는 메모를 문헌 노트로 자동 추가한다.- 책에서 읽은 문장을 붙여넣고 출처 정보(예: "치매에 걸린 뇌과학자")를 함께 제공하면 된다.
16. 문헌 노트 연결로 새로운 연구 메모 생성 [20:02]
- 문헌 노트 제목을 입력하면 기존 11가지 아이디어와 연결해 새로운 창의적 아이디어를 생성하는 흐름을 시연한다.
- 연구 메모의 프런트메터에 요약이 이미 포함되어 있어, 전체 메모를 검색하지 않고도 제목과 프런트메터만으로 연관성을 파악한다.
17. 옵시디언 제텔카스텐 폴더 구조 설명 [21:48]
- 인박스는 임시 노트에 해당하며, 연결된 메모를 항상 0개로 유지하는 것이 구조적 핵심이다.
- 리터러처(Literature)는 출처가 명확한 문헌 노트를 기록하는 공간으로, 지식 체계의 중간 계층을 담당한다.
18. 두 기법의 구조 비교와 통합 방향 [24:06]
- 수집 단계는 플리팅과 리터러처가 카파시의 raw 개념과 유사하지만, 카파시는 raw 안에 두 개념이 통합되어 있고 제텔카스텐은 분리되어 있다.
- 컴파일은 퍼머넌트(연구 노트)와 비슷한 개념이며, 도구로는 둘 다 옵시디언을 사용한다.
- Q&A와 자가 치유(self-healing) 개념은 현재 시스템에 부분적으로만 구현되어 있어 보강이 필요하다.
19. 루만 철학 유지하면서 세 영역으로 재구성 [25:02]
- 카파시 방식을 그대로 도입하면 "자기 말로 써야 이해한 것"이라는 루만의 철학이 훼손되므로, 퍼머넌트(인간 사고 영역)는 반드시 보존해야 한다.
- 수집 자동화 그룹, 인간 사고 그룹, LLM 자동화 그룹의 세 영역으로 분리하는 구조를 제안한다.
- 새로 필요한 스킬로 인제스트(ingest), 쿼리(query), 린트(lint), 인덱스(index) 네 가지를 제안받는다.
20. 중복 스킬 걸러내고 기존 스킬과 통합 [26:10]
- 인제스트 스킬은 기존 플리팅 스킬과 중복되므로 새로 만들지 않고 플리팅으로 통합하기로 결정한다.
- 존재하지 않는 스킬을 참조하면 에러가 발생하므로, 프롬프트를 수정해 기존 스킬 기반으로 방향 전환한다.
- 리터러처는 인제스트에서 생성된 초안을 받아 사람이 정제하는 워크플로우로 조정한다.
21. 스킬 생성 실무와 토큰 관리 전략 [27:50]
- 유용한 개념을 발견하면 Claude Code에 스킬 생성을 요청하고, 사용법도 대화로 정리하는 반복 패턴을 설명한다.
- 스킬은 글로벌 설치 옵션으로 모든 프로젝트에서 접근 가능하도록 구성한다.
- Claude Code의 토큰 소모가 급격해 100달러 요금제도 1~2시간이 한계이므로, 대화를 전략적으로 운용해야 한다고 경고한다.
22. 최종 세 스킬 추가 및 인덱스 테스트 [29:02]
- 기존 세 스킬(플리팅, 리터러처, 퍼머넌트)에 인덱스·쿼리·린트를 추가해 총 여섯 개로 확장한다.
- 인덱스 스킬을 테스트해 보면 전체 볼트 메모를 스캔하고 태그를 추출하며, 인덱스 세 개를 생성하는 것을 확인한다.
23. 인덱스 스킬의 역할을 직접 질문으로 확인 [30:02]
- Claude Code가 인덱스 스킬을 자동 생성했지만, 정확히 어떤 역할을 수행하는지 사용자 본인도 파악하지 못한 상태였다.
- 이럴 때는 "인덱스 스킬이 수행하는 역할이 뭐야?"라고 직접 물어보는 것이 가장 빠른 해결책이다.
24. 인덱스 폴더 구조와 클러스터 기반 메모 정리 탐색 [30:34]
- 생성된 인덱스 폴더에는 클러스터 맵, 그래프, 볼트 인덱스 세 파일이 들어 있다.
- 볼트 인덱스는 클러스터별 전체 노트 목록으로, "글쓰기와 창작", "AI와 인간의 관계", "도구와 플랫폼", "인간의 주체성과 회복" 등 주제별로 메모를 묶어 보여준다.
25. 통합 시스템 활용을 위한 각 스킬 장단점 분석의 필요성 [32:27]
- 쿼리·린트 등 추가 스킬의 역할도 인덱스와 같이 직접 질문하면 빠르게 파악할 수 있다.
- 제텔카스텐과 카파시의 LM 지식 관리가 하나로 통합된 만큼, 각 스킬의 장단점을 정확히 이해해야 시스템 전체의 시너지를 극대화할 수 있다.
26. 메모 축적의 중요성과 LRM 자동 연결 기대 [33:00]
- 현재 연구 노트 13개, 문헌 노트 4개로 총 17개 수준이라 네트워크 그래프가 거의 무의미할 정도로 희소하다.
- 메모가 적으면 서로 다른 분야의 아이디어를 교차 연결해 창의적 조합을 만들어내는 제텔카스텐의 본질적 가치를 경험하기 어렵다.
- 따라서 꾸준한 메모 축적이 선행되어야 하며, 장기적으로는 LRM이 이 연결 작업을 자동화해 줄 것이라는 기대가 있다.
27. 토큰 사용량 확인과 지식 관리·코딩 시간 분배 전략 [34:21]
- Claude Code를 열 번 정도 호출했을 때 약 20% 수준의 토큰을 소모한 것으로 확인됐다.
- 하루 20~30개 메모를 기록하며 연구 노트를 꾸준히 만들어 나가면 100달러 요금제의 토큰 한도도 넉넉하지 않다.
- 지식 관리에 투입하는 시간과 비용을 코딩 등 다른 작업과 균형 있게 분배하는 전략이 필수적이다.
28. 마무리: 스킬 공개 및 시청자 실천 독려 [35:30]
- 안드레 카파시의 메모 시스템에 대한 추가 설명은 후속 영상에서 다룰 예정이다.
- 옵시디언에서 제텔카스텐 환경을 구성하는 것도 Claude Code에 요구사항만 명확히 설명하면 충분히 가능하다.
- 핵심은 스킬을 만들고 검증하는 과정 자체보다, 이후 메모를 지속적으로 축적하며 지식 네트워크를 키워나가는 실천에 있다.
🧾 결론
- 카파시의 "로우→컴파일→위키" 파이프라인과 루만의 "수집→분류→연결→축적" 사이클은 본질적으로 동일한 지식 변환 과정을 다르게 구현한 것이며, 두 접근의 장점을 결합하면 인간의 사고 영역(퍼머넌트)을 보존하면서도 정리 부담은 AI에 위임할 수 있다.
- 클로드 코드 커스텀 스킬은 코딩이 아닌 자연어 지시만으로 AI의 행동 규칙을 정의하므로, 제텔카스텐 경험이 없어도 터미널에서 폴더 구조를 요청하면 Claude가 알아서 세팅해 준다.
- 토큰 비용은 여전히 현실적 제약이다. 하루 20~30개 메모를 연구 노트까지 확장하면 $100 요금제도 부담되므로, 지식 관리 시간과 코딩 시간을 명확히 분리하는 운영 전략이 필수적이다.
📈 투자·시사 포인트
- 개인 지식 관리 도구의 AI 내재화: 옵시디언+클로드 코드 조합은 벡터 DB 없이도 마크다운 프론트매터 기반 검색·클러스터링이 가능하다는 점에서, 개인용 PKM(Personal Knowledge Management)의 진입 장벽을 크게 낮추는 방향이다.
- 토큰 비용이 여전히 핵심 병목: 카파시 본인은 사실상 무제한 토큰 환경에서 작업하므로 일반 사용자가 동일 방식을 그대로 따라 하면 즉시 한도에 부딪힌다. 프론트매터 최소화·인박스 제로 등 토큰 절감 설계가 없으면 실용성이 떨어진다.
- 스킬 생태계의 확장 가능성: 플리팅·리터러처·퍼머넌트 같은 스킬은 특정 도메인에 종속되지 않으므로, 글로벌 설치 옵션을 통해 모든 프로젝트에 재사용할 수 있다. 이 패턴이 확산되면 "AI 비서 행동 규칙의 마켓플레이스" 같은 생태계로 발전할 여지가 있다.
- 메모 양이 임계점을 넘어야 네트워크 효과 발현: 연구 노트 13개, 문헌 노트 4개 수준에서는 클러스터링·그래프가 거의 무의미하다. 꾸준한 축적이 전제되어야 LLM의 자동 연결 능력이 빛을 발한다는 점은 장기 투자 관점에서 인내가 필요한 요소다.
⚠️ 불확실하거나 확인이 필요한 부분
- 영상에서 "토큰 10분의 1 절감"이라고 주장하지만, 40만 단어 전수 독해 대비 프론트매터만 읽는 방식이 실제 어떤 규모의 문서·어떤 LLM 모델에서 정확히 1/10 수준으로 떨어지는지에 대한 정량 검증이 제시되지 않았다. 실제 절감률은 메모당 평균 길이, 태그 밀도, 연결 수 등에 따라 크게 달라질 수 있다.
- 카파시의 원래 워크플로우가 공식적으로 공개된 것인지, 트위터(現 X) 게시물과 노션 페이지 기반의 비공식 정리인지 구분이 필요하다. 영상에서는 트위터와 노션을 출처로 언급하지만 링크나 버전 정보가 확인되지 않는다.
- "루만이 종이 카드 9만 장으로 논문 70편, 책 50권을 단독 집필했다"는 수치는 널리 인용되지만, 학술 검증을 거친 정확한 출처와 집필 기여도(단독 vs 공동)에 대한 추가 확인이 유용하다.
✅ 액션 아이템
- 카파시 원본 워크플로우의 공식 출처(트윗·노션 페이지·저장소)를 확인하고, 영상 설명란에 공개된 스킬 파일과의 차이점을 비교 정리한다.
- 프론트매터 기반 절감 전략을 실제 옵시디언 볼트(문서 30~50개 규모)에서 A/B 테스트하여 전수 독해 vs 프론트매터만 읽기의 실제 토큰 소모와 정확도를 측정한다.
- 총 6개 스킬(플리팅·리터러처·퍼머넌트·인덱스·쿼리·린트) 각각의 입력·출력·의존관계를 한 장의 흐름도로 정리해 둔다.
- 지식 관리용 세션과 코딩용 세션을 시간대별로 분리하는 구체적 일일 스케줄(예: 오전 지식 관리 / 오후 코딩)을 수립하고 토큰 잔량 기준 중단선을 설정한다.
❓ 열린 질문
- 프론트매터만으로 분류·연결을 수행할 때, 메모 본문에만 존재하는 미세한 뉘앙스나 숨은 연결이 누락될 위험은 어느 정도인가? 이 보완을 위해 주기적 전수 린트만으로 충분한가?
- 메모가 수백~수천 개로 확장되었을 때 프론트매터 스캔 자체의 토큰 비용도 선형 증가하는데, 이 시점에서는 벡터 DB나 임베딩 기반 검색을 병행하는 것이 필수적인가?
- "자기 말로 써야 이해한 것"이라는 루만의 철학과, LLM이 초안을 작성하고 인간이 정제하는 방식 사이의 긴장을 어떻게 구조적으로 해소할 것인가? 퍼머넌트 노트에서 인간 직접 작성 비율의 최소 기준이 필요한가?