Class/Claude 기초, AI를 제대로 쓰는 첫걸음/컨텍스트 윈도우 (Context Window) 들여다보기
초급

컨텍스트 윈도우 (Context Window) 들여다보기

AI 모델이 한 번의 대화에서 동시에 처리할 수 있는 입력·출력 토큰의 총량입니다. 컨텍스트 윈도우 크기에 따라 한 번에 던질 수 있는 자료의 분량과 대화 길이가 결정됩니다.

동의어:Context Window컨텍스트 길이토큰 한도

이 글은 앤트로픽이 운영하는 platform.claude.com/docs의 컨텍스트·토큰 관련 자료를 한국 입문자가 보기 편하게 정리한 글입니다. 수치는 2026년 4월 기준 공식 문서를 그대로 옮겼습니다.

🤔 왜 긴 PDF를 통째로 못 받을 때가 있을까요?

두꺼운 PDF를 AI에 올리면 어떤 모델은 한 번에 받고, 어떤 모델은 "분량을 줄여서 다시 올려달라"고 합니다. 같은 자료인데 결과가 다릅니다.

이 차이는 모델의 컨텍스트 윈도우 크기에서 옵니다. 컨텍스트 윈도우는 AI가 한 번에 처리할 수 있는 자료의 양을 정하는 한계선입니다. 이 개념을 이해하면 어떤 모델을 골라야 할지가 분명해집니다.

🔑 컨텍스트 윈도우, 한마디로

컨텍스트 윈도우(Context Window)는 AI 모델이 한 번의 대화에서 동시에 처리할 수 있는 입력·출력 토큰의 총량입니다.

토큰은 모델이 글을 잘라 보는 단위입니다. 영어는 보통 한 단어가 1~2 토큰이고, 한국어는 글자에 따라 1~3 토큰까지 다양합니다. 모델은 입력된 모든 토큰을 한 번에 보면서 답을 만들기 때문에, 입력이 컨텍스트 윈도우를 넘어서면 더 받을 수 없습니다.

📏 토큰, 단어로 환산하면

영어와 한국어 환산은 다음과 같이 정리할 수 있습니다.

  • 1 토큰: 영어 약 0.75단어, 한국어 약 0.4글자
  • 1,000 토큰: 영어 약 750단어, 한국어 약 400~600자
  • 100K 토큰: 영어 약 7만 5천 단어(중편 소설 한 권), 한국어 약 단행본 1/3
  • 200K 토큰: 한국어 단행본 절반~한 권 분량
  • 1M 토큰: 한국어 단행본 한 권에서 두 권 사이

이 환산을 머릿속에 두면 자료 분량과 모델 한도를 빠르게 비교할 수 있습니다.

📊 Claude 모델별 컨텍스트 (2026년 4월 기준)

Claude 모델 패밀리 클래스에서 자세히 다뤘지만, 컨텍스트 관점만 다시 정리하면 다음과 같습니다.

모델컨텍스트 윈도우한국어 환산
Claude Opus 4.71M 토큰단행본 1~2권
Claude Sonnet 4.61M 토큰단행본 1~2권
Claude Haiku 4.5200K 토큰단행본 절반~1권

Opus와 Sonnet은 같은 1M 토큰을 가집니다. 단행본 한 권을 통째로 입력해도 잘라 보낼 필요가 없는 규모입니다.

🪟 컨텍스트가 작동하는 방식

대화가 길어질수록 다음과 같은 일이 일어납니다.

  • 입력 + 출력 모두 컨텍스트에 누적됨: 사용자의 질문, AI의 답, 다시 사용자의 추가 질문이 모두 같은 컨텍스트에 쌓입니다.
  • 첨부 자료도 토큰 사용: PDF·이미지·표를 업로드하면 그 내용이 토큰으로 변환되어 컨텍스트에 들어갑니다.
  • 한도에 가까워지면 앞부분이 흐릿해짐: 모델은 컨텍스트의 모든 위치를 균등하게 보지 않습니다. 한도에 가까워질수록 앞부분 자료의 정확도가 떨어지는 경향이 있습니다.

대화가 길어졌는데 답이 점점 흐려진다면 컨텍스트가 한도에 차고 있다는 신호입니다.

⚙️ 컨텍스트를 잘 다루는 4가지 방법

1. 새 대화 시작하기

  • 작업이 바뀌면 같은 대화에 이어 붙이지 말고 새 대화를 엽니다.
  • 같은 컨텍스트에 너무 많은 주제를 섞으면 답 품질이 떨어집니다.

2. 자료를 미리 요약하기

  • 매우 긴 자료를 그대로 던지지 말고, 먼저 요약을 받은 뒤 요약을 다시 입력에 쓰는 두 단계 흐름이 효율적입니다.

3. 핵심만 골라 첨부하기

  • 100쪽 PDF에서 필요한 부분이 5쪽이라면, 5쪽만 따로 잘라 첨부합니다.

4. 모델 골라 쓰기

  • 짧은 작업은 Haiku, 긴 자료는 Sonnet/Opus로 분기합니다. 200K 토큰으로 충분한 작업에 1M 모델을 쓸 필요는 없습니다.

💼 컨텍스트 윈도우가 결정적인 시나리오

1. 두꺼운 자료 분석

  • 회의록 1년치, 책 한 권, 논문 모음 같은 자료를 통째로 던지려면 1M 컨텍스트가 필요합니다.

2. 코드베이스 전체 검토

  • 회사 코드베이스 전체를 한 번에 읽혀서 리팩터링·취약점 검토를 시킬 때 컨텍스트가 클수록 일관된 답이 나옵니다.

3. 멀티턴 대화 워크플로

  • 같은 자료를 두고 단계별로 작업할 때(요약 → 분석 → 결론 → 슬라이드 변환), 컨텍스트가 작으면 앞 단계 자료가 잘려 결과 품질이 떨어집니다.

프롬프트 엔지니어링 기본에서 다룬 다섯 요소도 컨텍스트 안에서 함께 살아 있어야 효과가 납니다.

📋 30초 요약

  1. 컨텍스트 윈도우는 AI가 한 번에 처리하는 토큰 총량입니다. 입력·출력·첨부 자료가 모두 같은 컨텍스트에 누적됩니다.

  2. Claude Opus 4.7과 Sonnet 4.6은 1M 토큰(단행본 1~2권), Haiku 4.5는 200K 토큰(단행본 절반~1권)입니다(2026년 4월 기준).

  3. 새 대화 시작·자료 미리 요약·핵심만 첨부·모델 골라 쓰기 네 가지가 컨텍스트 관리의 표준 방법입니다. 모델 패밀리 클래스의 직무별 가이드와 함께 보면 어떤 모델로 어떤 작업을 보낼지가 분명해집니다.

📚 참고 자료

퀴즈

Claude Sonnet 4.6의 컨텍스트 윈도우 1M 토큰은 한국어 기준 대략 어느 정도 분량일까요?

학습 진행

7 / 8
About the Author
Author
HI!

마케팅을 데이터로 설명하는 사람.
복잡한 상황을 이해 가능한 형태로 정리합니다.

GA4GTM퍼널분석
더 알아보기