AI 에이전트란 — 스스로 판단하고 행동하는 AI
…
한줄 요약
챗봇은 물으면 답하고, 에이전트는 목표를 주면 스스로 계획하고 실행한다.
본문
챗봇 vs 에이전트
지금까지 우리가 쓰던 AI(ChatGPT, Claude)는 챗봇이다.
[챗봇]
사용자: "고혈압 환자에게 ARB 처방하려는데 주의사항 알려줘"
AI: "ARB 처방 시 주의사항은... (답변)"
→ 끝. 다음 질문을 기다림.
[에이전트]
사용자: "이 환자의 혈압 관리를 최적화해 줘"
AI: 1. 환자 차트에서 현재 약물/검사 결과 조회
2. 최신 가이드라인에서 목표 혈압 확인
3. 현재 약물의 적절성 평가
4. 약물 변경이 필요하면 대안 제시
5. 다음 추적 검사 일정 제안
6. 결과를 요약해서 보고
→ 여러 단계를 스스로 계획하고 실행
핵심 차이:
| 챗봇 | 에이전트 | |
|---|---|---|
| 입력 | 구체적 질문 | 목표/과제 |
| 동작 | 1회 응답 | 다단계 자율 실행 |
| 도구 사용 | 없음 (텍스트만) | 검색, 계산, API 호출 등 |
| 기억 | 대화 내 맥락만 | 장기 기억 가능 |
| 판단 | 사용자가 모든 결정 | AI가 중간 결정을 자율적으로 |
에이전트의 구조
에이전트는 4가지 요소로 구성된다:
┌─────────────────────────────┐
│ AI 에이전트 │
│ │
│ [두뇌] LLM (추론/계획) │
│ ↓ │
│ [기억] 단기/장기 메모리 │
│ ↓ │
│ [도구] 검색, 계산, API 등 │
│ ↓ │
│ [행동] 계획 → 실행 → 평가 │
└─────────────────────────────┘
1. 두뇌 (LLM)
- 상황을 파악하고 다음 행동을 계획
- “이 환자는 현재 ACEi를 쓰고 있고, 칼륨이 5.2니까 먼저 칼륨 수치를 확인해야겠다”
2. 기억 (Memory)
- 단기: 현재 작업의 맥락 (대화 히스토리)
- 장기: 이전 작업 결과, 사용자 선호도 저장
3. 도구 (Tools)
- 웹 검색, 데이터베이스 조회, 계산기, 파일 읽기/쓰기
- 의료: EMR 조회, CDSS 연동, 논문 검색, 약물 DB 조회
4. 행동 루프 (Action Loop)
관찰 → 생각 → 행동 → 관찰 → 생각 → 행동 → ... → 완료
이걸 ReAct (Reasoning + Acting) 패턴이라고 부른다.
MCP — 에이전트의 “만능 어댑터”
MCP(Model Context Protocol) 는 AI 에이전트가 외부 도구와 통신하는 표준 규격이다.
USB-C가 충전기, 모니터, 외장하드를 하나의 포트로 연결하듯, MCP는 AI가 다양한 시스템에 하나의 방식으로 연결할 수 있게 해준다.
[MCP 없이]
AI ─── 커스텀 API ─── EMR
AI ─── 다른 API ─── 논문 DB
AI ─── 또 다른 API ─── 약물 DB
→ 각각 다르게 연동해야 함
[MCP로]
AI ─── MCP ─── EMR
├── 논문 DB
├── 약물 DB
└── 가이드라인 DB
→ 하나의 표준으로 모두 연결
의료에서 에이전트의 가능성
1. 진료 전 준비 에이전트
환자가 예약되면:
- 이전 진료 기록 요약
- 최근 검사 결과 추이 분석
- 현재 복용약 상호작용 체크
- 오늘 확인해야 할 항목 체크리스트 생성 → 의사가 환자를 만나기 전에 1분 브리핑
2. 임상시험 매칭 에이전트
특정 질환 환자에게:
- 환자의 진단/상태 파악
- 등록 가능한 임상시험 검색 (ClinicalTrials.gov)
- 포함/제외 기준 대조
- 적합한 임상시험 목록 제시
3. 만성질환 관리 에이전트
당뇨 환자의 장기 관리:
- 정기 검사 일정 알림
- HbA1c 추이 모니터링
- 목표 미달 시 약물 조정 제안
- 합병증 스크리닝 일정 관리
4. 의학 교육 에이전트
레지던트 교육:
- 케이스 시나리오 생성
- 학습자의 답변 분석
- 부족한 부분 파악 후 추가 문제 출제
- 관련 논문/가이드라인 자동 제공
에이전트의 한계와 위험
| 위험 | 설명 | 대응 |
|---|---|---|
| 자율성 과신 | 잘못된 판단을 스스로 실행 | Human-in-the-loop (의사 승인 단계) |
| 연쇄 오류 | 초기 환각이 이후 단계에 전파 | 각 단계마다 검증 포인트 |
| 책임 소재 | AI가 자율 결정한 결과의 법적 책임 | 최종 결정은 반드시 의사가 |
| 개인정보 | 여러 시스템 접근 시 정보 유출 위험 | 접근 권한 최소화, 감사 로그 |
핵심 원칙: 에이전트는 “제안”하고, 의사가 “승인”한다.
자율주행차도 Level 5 (완전 자율)에 도달하지 못했듯, 의료 AI 에이전트도 당분간은 의사의 감독 하에서 보조 역할로 운영되어야 한다.
핵심 정리
- 에이전트 = 목표를 주면 스스로 계획·실행하는 AI (챗봇의 진화형)
- ReAct 패턴: 관찰→생각→행동의 반복으로 복잡한 과제 수행
- MCP: AI가 외부 도구와 연결되는 표준 프로토콜
- 의료에서는 Human-in-the-loop 원칙이 필수
임상 적용
| 활용 | 현재 가능 여부 | 기대 시점 |
|---|---|---|
| 진료 전 브리핑 | 일부 가능 (수동 설정) | 1~2년 |
| 임상시험 매칭 | 프로토타입 존재 | 2~3년 |
| 만성질환 관리 | 연구 단계 | 3~5년 |
| 완전 자율 진료 보조 | 불가 | 10년+ |
관련 글
- 파인튜닝 vs RAG — 의료 AI를 맞춤화하는 두 가지 방법
- RAG란 무엇인가 — 외부 지식을 LLM에 연결하는 법
- AI 환각 — LLM은 왜 거짓말을 하는가
- 진료실에서 AI를 쓰는 7가지 방법
- AI 에이전트가 의료를 바꾸는 방법 — 2026년 현재 ↗
© S-Reborn clinic | s-reborn-blog.pages.dev