정보관리기술사/인공지능
AI 환각현상과 RAG 기술
알로그
2025. 5. 9. 23:31
반응형
AI 환각현상(Hallucination)과 해결책 RAG(Retrieval-Augmented Generation)
인공지능이 아무리 똑똑해 보여도, 가끔 전혀 사실이 아닌 정보를 그럴듯하게 말하는 경우가 있습니다.
이처럼 AI가 거짓 정보를 실제처럼 생성하는 현상을 "AI 환각(Hallucination)"이라고 부릅니다.
환각 문제의 개념과, 이를 해결하기 위한 핵심 기술 RAG (Retrieval-Augmented Generation)에 대해 알아보겠습니다.
1. AI 환각현상(Hallucination)이란?
AI 환각이란, 언어 모델이 존재하지 않는 정보나 틀린 사실을 진짜처럼 말하는 현상입니다.
이것은 AI가 의도적으로 거짓말을 하는 것이 아니라, 내부에 저장된 지식을 바탕으로 확률적으로 가장 그럴듯한 문장을 만들어내기 때문입니다.
✔ 대표적인 환각 예시
입력환각 | 응답 예시 |
테슬라의 CEO는 누구야? | "트럼프입니다." (틀림) |
1990년 노벨 AI 수상자는? | "존 스미스가 받았습니다." (존재하지 않는 인물) |
논문 출처 알려줘 | "Journal of AI, 2017" (없는 논문 생성) |
✔ 왜 환각이 발생할까?
- (데이터) 지식의 한계: 모델은 훈련 시점 이후의 정보를 알 수 없음
- (검증) 정보 검증 불가: 외부 지식에 실시간 접근하지 않음
- (모델) 확률적 생성 메커니즘: “가장 자연스러운 문장”을 만드는 것이 목표이지, “가장 정확한 정보”가 목표는 아님
2. RAG (Retrieval-Augmented Generation) 기술이란?
RAG는 이러한 환각을 줄이기 위한 기술로, 언어 모델이 외부 지식 저장소(예: 문서, 데이터베이스)에서 실시간으로 관련 정보를 검색한 후, 그 내용을 바탕으로 답변을 생성하는 방식입니다.
✔ 핵심 개념 요약
RAG = 검색(Retrieval) + 생성(Generation)
→ "모르면 검색해서 답하자"는 AI의 구조적 개선
3. RAG의 작동 절차 (6단계 요약)
- 질문 입력: 사용자가 자연어로 질문
- 질문 임베딩: 의미를 숫자 벡터로 변환
- 문서 검색: 벡터 DB에서 유사 문서 검색
- 문서 선택/정제: 관련 문서를 압축 정리
- 응답 생성: 검색 결과 기반으로 LLM이 답 생성
- 응답 출력: 최종 결과 제공 (+ 출처 가능)
4. 일반 vs RAG 비교
항목 | 일반 LLM | RAG 기반 LLM |
정보 출처 | 내부 학습된 데이터 | 외부 실시간 문서 |
정확도 | 환각 가능성 높음 | 높은 신뢰도 유지 |
최신 정보 반영 | 불가능 | 가능 |
출처 제시 | 어려움 | 명확한 출처 제공 가능 |
5. RAG 기술의 활용 사례
- 기업용 사내 지식 검색 챗봇
- 의료 분야 문헌 기반 진단 지원
- 법률 문서 분석 및 조문 응답
- 실시간 뉴스 기반 질문 응답 서비스
반응형