윤리/안전중급
Hallucination
할루시네이션 · Hallucination
LLM이 사실이 아닌 정보를 마치 사실인 것처럼 생성하는 현상
상세 설명
Hallucination (할루시네이션)
LLM의 가장 심각한 문제 중 하나입니다.
종류
- Factual: 존재하지 않는 사실 생성
- Logical: 논리적 모순 생성
해결 방안
- RAG: 외부 지식 기반 활용
- Fine-tuning: 정확한 데이터로 재학습
- Fact-checking: 생성된 정보 검증
- Temperature 낮추기: 창의성 감소, 일관성 증가
태그
#안전성#신뢰성#문제