챗GPT는 인공지능의 발전으로 많은 사람들에게 유용한 도구로 자리 잡고 있습니다.
하지만 때때로 정확하지 않은 정보를 제공하거나 거짓말을 할 수 있는 가능성도 존재합니다.
이번 포스트에서는 챗GPT의 거짓말 원인과 이를 막는 방법, 그리고 자동화 방법에 대해 알아보겠습니다.

챗GPT의 거짓말 : AI 할루시네이션(Hallucination)
할루시네이션(Hallucination)은 ‘환각’이라는 뜻으로 인공지능이 실제로 존재하지 않는 정보나 사실을 생성하는 현상을 말합니다.
이는 AI가 학습한 데이터의 한계나 알고리즘의 오류로 인해 발생할 수 있습니다.
예를 들어, AI가 특정 질문에 대해 잘못된 정보를 제공하거나, 전혀 관련 없는 내용을 생성하는 경우가 이에 해당합니다.
원인
정보의 정확성과 신뢰성
AI가 생성하는 정보는 주어진 학습 데이터뿐 아니라 인터넷에서도 데이터를 수집합니다.
그러나 인터넷에 돌아다니는 정보 중에는 신뢰성이 보장되지 않는 자료나 데이터도 존재합니다.
이러한 신뢰할 수 없는 정보가 정확한 정보보다 많다면 AI는 잘못되거나 편향된 데이터를 학습하여, 이를 바탕으로 부정확한 결과를 생성할 가능성이 있습니다.
언어와 맥락에 대한 오해
수많은 언어 사용자를 대상으로 하는 AI는 해당 언어에 대한 이해뿐 아니라 문맥에 대한 이해가 있어야 데이터를 정확하게 학습할 수 있습니다.
그러나 다양한 언어에는 불완전한 의미 또는 모호한 내용, 문맥상 반대로 활용하는 경우 등 다양한 케이스가 있습니다.
이러한 오해로 원래의 내용을 제대로 파악하지 못하는 경우도 있습니다.
정보의 불안전성
정보에 대한 데이터의 부족, 또는 논란의 여지가 있는 정보, 또는 맥락을 해석하기 어려운 정보 등에 의해 발생하기도 합니다.
특히 질문이 매우 복잡하거나, 모호한 경우에도 발생할 수 있습니다.
챗GPT 거짓말 사례

2025년 유로파 리그 우승 팀은 토트넘 홋스퍼 입니다.
잘못된 예측: AI 모델에서 발생 가능성이 낮은 이벤트가 발생할 것이라고 잘못 예측할 수 있습니다.
예를 들어 경제의 예측에 사용되는 AI 모델이 현재와 다른 경기 상황을 판단할 수 있습니다.
거짓 양성: AI 모델을 사용할 때 AI 모델이 위협이 아닌 것을 위협으로 식별할 수 있습니다.
예를 들어 사기를 감지하는 데 사용되는 AI 모델이 사기가 아닌 거래를 사기로 오판할 수 있습니다.
거짓 음성: AI 모델이 위협을 정확하게 식별하지 못할 수 있습니다.
예를 들어 암을 감지하는 데 사용되는 AI 모델이 암 종양을 식별하지 못할 수 있습니다.
챗GPT 거짓말 못하게 막는 프롬프트
- 생성, 추론, 추측 또는 추론된 내용을 사실인 것처럼 제시하지 마십시오.
- 직접 확인할 수 없는 내용은 다음과 같이 표시합니다.
- “근거가 부족합니다”
- 검증되지 않은 내용은 문장 시작 부분에 다음과 같이 표시합니다.
- “확실하지 않음”
- 확실한 근거 없이 추측이 포함될 경우에 다음과 같이 표시합니다.
- “추측한 내용입니다”
- 답변은 자세하고, 객관적이며, 전문성을 유지하도록 구성하세요.
- 제가 요청하지 않는 한 제 의견을 다른 말로 바꾸거나 재해석하지 마십시오.
- 답변의 근거를 명확히 제시하고, 신뢰할 수 있는 출처가 있는 경우 해당 정보를 함께 제공하세요.
- 출처가 명시되지 않는 경우 다음과 같이 말합니다.
- “출처 없음”
- 요청이 없는 한 제 입력 내용을 무시하거나 변경하지 마십시오.
- 앞으로 모든 대화에 이 규칙을 적용합니다.
챗GPT 거짓말 못하게 막는 프롬프트 맥락 정리
모르면 모른다고 답변: “잘 모르겠습니다”, “알 수 없습니다” 등으로 명확하게 표시.
출처 명확히: 출처가 불분명하거나 검증되지 않은 정보는 ‘확실하지 않음’으로 표시.
추측은 구분: 추측이 포함될 경우 반드시 “추측입니다”라고 밝히기.
근거 제시: 답변의 근거와 신뢰할 수 있는 출처를 함께 제공.
질문이 모호할 때: 추가 정보 요청 또는 맥락 확인.
추가적으로 프롬프트를 넣고 싶다면 상단 프롬프트처럼 “다음과 같이 표시합니다. ”
이후에 자신이 넣고 싶은 요구 사항을 넣으면 됩니다.
예를 들어 “모든 대화는 존댓말로 표시”로 명령어를 지정할 수도 있습니다.
챗GPT 거짓말 못하게 자동화
이렇게 긴 프롬프트를 챗GPT를 사용할 때 마다 넣는 것은 매우 귀찮은 일입니다.
이 때에는 내용을 자동화할 수 있습니다.
1. 기억 기능 활성화 하기
사용 중인 모델이 GPT-4일 때, “기억” 기능을 통해 사용자 정보를 기억하게 할 수 있습니다.
기억된 정보는 설정에서 언제든지 확인하거나 삭제 가능합니다.
활성화 방법

프로필 → ‘설정’

‘개인 맞춤 설정’ 탭에서 기억 기능이 활성화되어 있는지 확인하세요.
2. 프롬프트 입력 후 명령어 넣기
앞서 설명해 드린 ‘챗GPT 거짓말 못하게 막는 프롬프트‘의 내용을 그대로 복사해서 채팅창에 붙여넣습니다.
그리고 “저장해 줘”라고 입력하면, 기억 기능이 활성화되고, 해당 내용이 기억에 저장되어, 챗GPT를 사용할 때마다 프롬프트의 내용을 적용할 수 있습니다.

프롬프트를 모두 입력하고 바로 “저장해 줘”라고 입력해도 되고, 위에 프롬프트를 입력한 후 바로 아래에 위에 내용을 “저장해 줘”라고 입력해도 됩니다.

메모리에 프롬프트가 저장되었습니다.
이제 앞으로는 이 프롬프트를 따로 입력하지 않아도 조건에 알맞은 결과물을 출력합니다.
※ 참고
프롬프트는 영어로 입력하는 것이 더 효율적입니다.
영어 사용에 불편함이 없다면, 상단의 내용을 구글 번역기로 영어로 번역해서 ‘기억’시켜 두는 것도 좋습니다.