챗GPT1 LLM간 할루시네이션 비교 (세종대왕이 맥북프로를 던진 사건) 할루시네이션은 우리 말로 환각이라고 한다. 소위 사람들이 AI가 거짓말한다고 하는게 할루시네이션이다. 환각은 모델이 모르고 있는 정보에 대해서 물어볼때 발생하는 것 같다. deeplearning.ai에서 upstage 강의를 들어보면 pretraining 과정에서 모델이 접하지 못한 정보에 대해서는 모델이 전혀 모른다는 이야기를 한다. 그래서 모델의 지식을 개선시키려면 pretraining 과정이 필수적이라고 한다. 모델이 지식은 없지만 말은 할 줄 아니 사용자의 질문에 대해서 부정확한 답변을 그럴듯한 문장으로 만들어내는 이유는 pretraining 과정에서 제대로 학습을 못한 정보이기 때문이라고 생각한다. 개인적으로 찾은 2가지 할루시네이션을 모델 별로 비교해보는 실험을 해보려고 한다.바로! 세종대왕.. 2024. 9. 16. 이전 1 다음