빠른 흐름
답을 바로 단정하지 말고 아래 형식으로 답해줘.
1. 핵심 주장
2. 그 주장에 대한 근거
3. 불확실하거나 추가 확인이 필요한 부분
4. 내가 직접 확인해야 할 자료검증 흐름
그럴듯함과 참은 다르다 — 환각이 생기는 구조적 이유
ChatGPT는 확률적으로 자연스러운 다음 토큰을 생성한다. 이 과정은 문장을 유창하게 만들지만, 유창함이 사실 정확성을 보장하지는 않는다. 특히 수치, 날짜, 인명, 문헌 제목처럼 정밀한 정보는 그럴듯한 형태로 조합되어도 실제 존재하지 않는 내용일 수 있다. "검색한 결과"처럼 보이는 답변도 모델이 패턴에서 재구성한 것일 수 있으므로 출처 확인이 필요하다.
다음 주장 뒤에 "근거 있음 / 추가 확인 필요" 중 하나를 표시해줘.
보고서 본문에 없는 내용은 추측하지 말고,
가능하면 관련 표현을 짧게 인용해줘."생성"과 "확인"을 분리하면 오류 검출이 쉬워진다
프롬프트를 두 단계로 나누면 환각을 줄이는 데 효과적이다. 첫 단계에서는 초안만 생성하게 하고, 두 번째 단계에서 각 주장의 근거를 따로 요청한다. 이렇게 분리하면 모델 스스로 불확실한 항목을 드러내고, 사용자도 어느 부분을 외부 자료로 검증할지 범위를 좁힐 수 있다.
1단계: 이 보고서의 핵심 논지를 5개로 정리해줘.
2단계: 위 논지 각각에 대해, 보고서 원문 어느 부분을 근거로 했는지 표시해줘.
근거가 명확하지 않은 항목은 "추정"으로 표시해줘.범위를 문서 내부로 제한하면 추측 영역이 줄어든다
모델에게 "이 문서 안에서만 답해줘"라고 제한하면 학습 데이터에서 끌어온 외부 지식이 섞이는 문제를 억제할 수 있다. 이 방식은 문서 분석, 계약서 검토, 정책 요약처럼 특정 자료만을 근거로 삼아야 하는 작업에서 특히 유용하다. 모델이 문서 밖의 정보를 쓰고 싶을 때는 반드시 "문서에 없는 내용"이라고 명시하게 만들면 된다.
이 문서 밖의 지식은 사용하지 말고,
첨부 문서에 있는 내용만으로 답해줘.
문서에 없는 내용이 필요하면 "문서 외 정보"라고 표시해줘.최신 정보와 수치는 모델 단독으로 검증할 수 없다
ChatGPT의 학습 데이터에는 컷오프 시점이 있으므로, 최근 발표된 수치, 정책, 연구 결과는 모델이 정확히 알고 있다고 가정해서는 안 된다. 수치 정확성이 중요한 작업은 웹 검색, 원문 문서, 공식 발표 자료로 재검토해야 한다. 모델이 확신에 찬 어조로 답했더라도 그것이 최신 사실임을 보장하지는 않는다.
초안 생성과 검증을 나누는 기준
- 아이디어 초안 만들기: 생성 단계
- 각 주장 근거 대조하기: 검증 단계
- 최신 수치 확인하기: 외부 자료 재검토 단계언제 다시 확인할까
| 상황 | 적합한 선택 |
|---|---|
| 문서 기반 분석 | 범위를 문서 내부로 제한, 인용 요청 |
| 수치·날짜·인명 포함 | 외부 자료로 재검토 |
| 초안은 맞지만 확신이 부족할 때 | 생성 단계와 근거 점검 단계를 분리 |
| 확신이 필요한 주장 | "근거 있음 / 추가 확인" 레이블 요청 |
| 단정형 오류가 걱정될 때 | 불확실성 표시 의무화 |
공식 참고: Projects in ChatGPT, ChatGPT Overview
주의할 점
"왜 그런지 설명해줘"만 반복하면 자신감 있는 오답이 더 길어질 수 있습니다. 검증 단계에서는 창의성보다 근거 추적 가능성을 먼저 요구하는 편이 안전합니다. 모델이 길게 설명할수록 오류도 함께 확장될 수 있으므로, 근거를 짧게 끊어 확인하는 습관이 중요합니다. 초안 생성과 검증 요청을 한 번에 섞으면 어느 단계에서 오류가 생겼는지 분리하기 어려워집니다.
실패 예시
- 답변이 불안한데도 "왜 맞는지 더 자세히 설명해줘"만 반복함
- 결과: 같은 오답이 더 길고 자신감 있게 확장될 수 있음
- 대응: 설명을 늘리기보다 근거 문장, 출처, 추가 확인 필요 항목을 분리해 요청한다참고 링크
1 sources