컨텍스트 윈도우 (Context Window) 들여다보기
AI 모델이 한 번의 대화에서 동시에 처리할 수 있는 입력·출력 토큰의 총량입니다. 컨텍스트 윈도우 크기에 따라 한 번에 던질 수 있는 자료의 분량과 대화 길이가 결정됩니다.
이 글은 앤트로픽이 운영하는 platform.claude.com/docs의 컨텍스트·토큰 관련 자료를 한국 입문자가 보기 편하게 정리한 글입니다. 수치는 2026년 4월 기준 공식 문서를 그대로 옮겼습니다.
🤔 왜 긴 PDF를 통째로 못 받을 때가 있을까요?
두꺼운 PDF를 AI에 올리면 어떤 모델은 한 번에 받고, 어떤 모델은 "분량을 줄여서 다시 올려달라"고 합니다. 같은 자료인데 결과가 다릅니다.
이 차이는 모델의 컨텍스트 윈도우 크기에서 옵니다. 컨텍스트 윈도우는 AI가 한 번에 처리할 수 있는 자료의 양을 정하는 한계선입니다. 이 개념을 이해하면 어떤 모델을 골라야 할지가 분명해집니다.
🔑 컨텍스트 윈도우, 한마디로
컨텍스트 윈도우(Context Window)는 AI 모델이 한 번의 대화에서 동시에 처리할 수 있는 입력·출력 토큰의 총량입니다.
토큰은 모델이 글을 잘라 보는 단위입니다. 영어는 보통 한 단어가 1~2 토큰이고, 한국어는 글자에 따라 1~3 토큰까지 다양합니다. 모델은 입력된 모든 토큰을 한 번에 보면서 답을 만들기 때문에, 입력이 컨텍스트 윈도우를 넘어서면 더 받을 수 없습니다.
📏 토큰, 단어로 환산하면
영어와 한국어 환산은 다음과 같이 정리할 수 있습니다.
- 1 토큰: 영어 약 0.75단어, 한국어 약 0.4글자
- 1,000 토큰: 영어 약 750단어, 한국어 약 400~600자
- 100K 토큰: 영어 약 7만 5천 단어(중편 소설 한 권), 한국어 약 단행본 1/3
- 200K 토큰: 한국어 단행본 절반~한 권 분량
- 1M 토큰: 한국어 단행본 한 권에서 두 권 사이
이 환산을 머릿속에 두면 자료 분량과 모델 한도를 빠르게 비교할 수 있습니다.
📊 Claude 모델별 컨텍스트 (2026년 4월 기준)
Claude 모델 패밀리 클래스에서 자세히 다뤘지만, 컨텍스트 관점만 다시 정리하면 다음과 같습니다.
| 모델 | 컨텍스트 윈도우 | 한국어 환산 |
|---|---|---|
| Claude Opus 4.7 | 1M 토큰 | 단행본 1~2권 |
| Claude Sonnet 4.6 | 1M 토큰 | 단행본 1~2권 |
| Claude Haiku 4.5 | 200K 토큰 | 단행본 절반~1권 |
Opus와 Sonnet은 같은 1M 토큰을 가집니다. 단행본 한 권을 통째로 입력해도 잘라 보낼 필요가 없는 규모입니다.
🪟 컨텍스트가 작동하는 방식
대화가 길어질수록 다음과 같은 일이 일어납니다.
- 입력 + 출력 모두 컨텍스트에 누적됨: 사용자의 질문, AI의 답, 다시 사용자의 추가 질문이 모두 같은 컨텍스트에 쌓입니다.
- 첨부 자료도 토큰 사용: PDF·이미지·표를 업로드하면 그 내용이 토큰으로 변환되어 컨텍스트에 들어갑니다.
- 한도에 가까워지면 앞부분이 흐릿해짐: 모델은 컨텍스트의 모든 위치를 균등하게 보지 않습니다. 한도에 가까워질수록 앞부분 자료의 정확도가 떨어지는 경향이 있습니다.
대화가 길어졌는데 답이 점점 흐려진다면 컨텍스트가 한도에 차고 있다는 신호입니다.
⚙️ 컨텍스트를 잘 다루는 4가지 방법
1. 새 대화 시작하기
- 작업이 바뀌면 같은 대화에 이어 붙이지 말고 새 대화를 엽니다.
- 같은 컨텍스트에 너무 많은 주제를 섞으면 답 품질이 떨어집니다.
2. 자료를 미리 요약하기
- 매우 긴 자료를 그대로 던지지 말고, 먼저 요약을 받은 뒤 요약을 다시 입력에 쓰는 두 단계 흐름이 효율적입니다.
3. 핵심만 골라 첨부하기
- 100쪽 PDF에서 필요한 부분이 5쪽이라면, 5쪽만 따로 잘라 첨부합니다.
4. 모델 골라 쓰기
- 짧은 작업은 Haiku, 긴 자료는 Sonnet/Opus로 분기합니다. 200K 토큰으로 충분한 작업에 1M 모델을 쓸 필요는 없습니다.
💼 컨텍스트 윈도우가 결정적인 시나리오
1. 두꺼운 자료 분석
- 회의록 1년치, 책 한 권, 논문 모음 같은 자료를 통째로 던지려면 1M 컨텍스트가 필요합니다.
2. 코드베이스 전체 검토
- 회사 코드베이스 전체를 한 번에 읽혀서 리팩터링·취약점 검토를 시킬 때 컨텍스트가 클수록 일관된 답이 나옵니다.
3. 멀티턴 대화 워크플로
- 같은 자료를 두고 단계별로 작업할 때(요약 → 분석 → 결론 → 슬라이드 변환), 컨텍스트가 작으면 앞 단계 자료가 잘려 결과 품질이 떨어집니다.
프롬프트 엔지니어링 기본에서 다룬 다섯 요소도 컨텍스트 안에서 함께 살아 있어야 효과가 납니다.
📋 30초 요약
-
컨텍스트 윈도우는 AI가 한 번에 처리하는 토큰 총량입니다. 입력·출력·첨부 자료가 모두 같은 컨텍스트에 누적됩니다.
-
Claude Opus 4.7과 Sonnet 4.6은 1M 토큰(단행본 1~2권), Haiku 4.5는 200K 토큰(단행본 절반~1권)입니다(2026년 4월 기준).
-
새 대화 시작·자료 미리 요약·핵심만 첨부·모델 골라 쓰기 네 가지가 컨텍스트 관리의 표준 방법입니다. 모델 패밀리 클래스의 직무별 가이드와 함께 보면 어떤 모델로 어떤 작업을 보낼지가 분명해집니다.
📚 참고 자료
- Claude 모델 개요: https://platform.claude.com/docs/en/about-claude/models/overview
- 토큰·가격 안내: https://platform.claude.com/docs/en/about-claude/pricing
- Anthropic Academy: https://www.anthropic.com/learn
Claude Sonnet 4.6의 컨텍스트 윈도우 1M 토큰은 한국어 기준 대략 어느 정도 분량일까요?
연관 개념
MCP (Model Context Protocol) 이해하기
AI 애플리케이션이 외부 시스템(데이터·도구·워크플로)과 연결되는 오픈소스 표준 규격입니다. Anthropic이 제안했고 다른 AI 회사들도 채택해 "AI를 위한 USB-C 포트"로 불립니다.
훅 (Hooks) 알아보기
Claude Code가 특정 행동을 하기 전·후에 자동으로 실행되는 명령입니다. 파일 수정 직후 자동 포맷, 커밋 직전 lint 실행 같은 자동 검사·자동 작업을 만들 때 씁니다.
서브에이전트 (Subagents) 알아보기
한 작업의 부분을 따로 나눠 처리하는 보조 에이전트입니다. 주력 에이전트가 작업 전체를 조율하고, 서브에이전트들이 코드 검토, 자료 조사, 테스트 작성 같은 부분 작업을 동시에 처리해 결과를 합칩니다.
관련 인사이트
클로드 코드를 가장 잘 쓰는 사람은 이렇게 쓴다고 합니다
2026년 4월 24일 SNS에서 화제가 된 클로드 코드 헤비 유저의 6가지 고민과, 대다수 일반 사용자의 사용법을 친절하게 비교했습니다. 헤비 유저를 그대로 따라가지 않아도 되는 이유와, 입문자가 자기 속도로 시작하는 4주 흐름을 정리했습니다.
Ultraplan, Auto 모드, bypass 모드의 차이와 사용 맥락을 정리했습니다
Claude Opus 4.7 출시와 함께 Claude Code에 Ultraplan과 Auto 모드가 추가되면서 --dangerously-skip-permissions(bypass 모드)와 어떻게 다른지 헷갈리는 분이 많습니다. 공식 문서 기준 3가지 실행 방식의 차이, 플랜별 가용성, 그리고 일상 작업에서 어떤 조합을 써야 하는지 정리했습니다.
정말 클로드 코드를 Pro플랜에서 쓸 수 없을까요?
2026년 4월 22일 Anthropic이 Claude Code를 Pro 플랜에서 잠시 제외했다가 가격 페이지를 복구한 사건을 둘러싸고 혼란이 큽니다. 공식 해명과 커뮤니티가 추측하는 배경, 기존 Pro 구독자의 실제 영향, 그리고 입문자가 어떻게 시작해야 할지를 팩트체크 기준으로 정리했습니다.
