S-Reborn World
⌘K

LLM의 컨텍스트 윈도우, 의사처럼 이해하기

LLM의 컨텍스트 윈도우는 의사가 한 번에 펼쳐 볼 수 있는 진료 기록의 양과 같다.

LLM(Large Language Model)은 대화할 때 한 번에 처리할 수 있는 텍스트의 양이 정해져 있다. 이 한계를 컨텍스트 윈도우(Context Window) 라고 부르며, 단위는 토큰(token) 이다.

토큰은 단어와 비슷하지만 정확히 같지는 않다. 대략적으로: 영어: 1단어 ≈ 1~1.5토큰 한국어: 1단어 ≈ 2~4토큰 A4 1장 분량 ≈ 약 500~800토큰

GPT-4o의 컨텍스트 윈도우는 128,000토큰, Claude 3.5는 200,000토큰이다. 숫자가 클수록 더 긴 맥락을 한 번에 처리할 수 있다.

외래 진료를 생각해 보자. 환자가 들어왔을 때 우리가 참고할 수 있는 자료는: 현재 증상 (오늘의 주訴) 과거력, 투약력 최근 검사 결과 이전 외래 기록

하지만 진료실 책상 위에 동시에 펼쳐 놓을 수 있는 서류의 양은 유한하다. 10년치 기록을 한꺼번에 다 볼 수 없는 것처럼, LLM도 한 번의 대화에서 처리할 수 있는 텍스트 양이 정해져 있다.

1. 긴 논문 요약 요청 시 주의

논문 전문(full text)은 보통 5,000~15,000단어다. 한국어 번역 포함 시 토큰이 급증한다. 컨텍스트가 초과되면 LLM은 뒷부분을 자동으로 잘라낸다. 결론(Discussion/Conclusion) 이 누락될 수 있다.

→ 실전 팁: 논문을 통째로 붙여넣기보다 Abstract + Methods + Results만 먼저 요약 요청하고, 필요 시 Discussion을 별도로 요청한다.

2. 긴 대화가 이어질 때 품질 저하

컨텍스트 윈도우가 꽉 차면 가장 오래된 대화부터 삭제된다. 초반에 준 중요한 지시사항("당신은 가정의학과 전문의입니다...")이 사라진다.

→ 실전 팁: 중요

글 10 · 카테고리 1 ·
Doctor AI Series

임상 현장에서 AI를 안전하게 이해하고 활용하기 위한 의사를 위한 실무 교육