대용량 파일 구조 인식 청킹 및 컨텍스트 주입
Loads large files into context using structure-aware chunking while preserving original content. Use when you need to analyze big codebases or documents that exceed context limits.
/plugin marketplace add m16khb/claude-integration/plugin install context-management@claude-integration<file_path> [task_instruction]claude-haiku-4-5-20251001대용량 파일을 원문 그대로 컨텍스트에 주입합니다.
Input: $ARGUMENTS
├─ 원문 그대로 컨텍스트에 주입 (요약 아님)
├─ 구조적 경계 존중 청킹
├─ MCP Memory 연동 (선택적)
└─ 사용자 자유 작업 지원
PARSE $ARGUMENTS:
├─ FILE_PATH = 파일 경로
├─ TASK = 작업 지시 (선택)
└─ VALIDATE: 파일 존재 + 텍스트 파일 확인
ls -lh "{FILE_PATH}"
wc -l < "{FILE_PATH}"
file "{FILE_PATH}"
MCP memory-service 설치 시 관련 메모리 자동 로드:
언어별 AST 경계 탐지:
case "$EXT" in
py) grep -n "^class \|^def " "{FILE_PATH}" ;;
ts|js) grep -n "^export \|^class \|^function " "{FILE_PATH}" ;;
go) grep -n "^func \|^type " "{FILE_PATH}" ;;
md) grep -n "^# \|^## " "{FILE_PATH}" ;;
*) grep -n "^$" "{FILE_PATH}" ;;
esac | head -50
| 설정 | 값 | 설명 |
|---|---|---|
| Chunk size | 800줄 | 원문 보존 최대화 |
| Overlap | 20줄 | 컨텍스트 연속성 |
| Max chunks | 15 | 대용량 지원 |
ALGORITHM:
├─ 800줄 이하: 단일 청크
└─ 800줄 초과: 경계점 기준 분할 + 오버랩
FOR each chunk:
PRINT "===== 📄 청크 {i}/{total} [라인 {start}-{end}] ====="
Read(file_path, offset=start, limit=end-start+1)
END FOR
╔═══════════════════════════════════════════╗
║ 📁 파일 컨텍스트 로딩 완료 ║
╠═══════════════════════════════════════════╣
║ 파일: {FILE_PATH} ║
║ 크기: {TOTAL_LINES}줄 ║
║ 청크: {chunk_count}개 ║
╠═══════════════════════════════════════════╣
║ 📌 원문 그대로 로드 완료 ║
║ 자유롭게 작업을 진행하세요. ║
╚═══════════════════════════════════════════╝
IF TASK provided:
AskUserQuestion:
- 작업 진행
- 추가 파일 로드
- 다른 작업
- 완료
ELSE:
EXIT (사용자 자유 작업)
| Error | Response |
|---|---|
| File not found | Glob으로 유사 파일 제안 |
| Binary file | "바이너리 지원 안 함" |
| Token overflow | 청크 크기 50% 감소 재시도 |
| Empty file | "빈 파일" 알림 |
상세 알고리즘은 agent-docs/ 참조: