본문 바로가기

환각2

챗GPT의 거짓말을 막아보자 (RAG, 환각 줄이기) 챗GPT 3.5 버전에서 나타나는 환각 현상을 줄이기 위해 RAG를 간단하게 만들어 봤다. langchain을 이용해서 답변을 개선하는 방법을 테스트해봤다. (colab에서 작업하다가 jupyter로 옮겼다. 계속 노트북이 멈추는 문제가 생겨서... colab 이나 주피터나 사용 방법은 대동소이 하기 때문에 크게 어렵지 않다고 생각함.)Anaconda에서 jupyter 사용하는 방법 영상: https://youtu.be/1oQCRniWDy0?si=8pPRJFG9RK6lBUzKJupyter 사용 방법: https://youtu.be/NJaZuqt839I?si=dgFA5T5LTIkB2G4W  langchain에서 openAI API를 사용하기 위한 라이브러리를 먼저 설치해주고 테스트해봤다.저번 포스팅부터 테.. 2024. 9. 17.
LLM간 할루시네이션 비교 (세종대왕이 맥북프로를 던진 사건) 할루시네이션은 우리 말로 환각이라고 한다. 소위 사람들이 AI가 거짓말한다고 하는게 할루시네이션이다. 환각은 모델이 모르고 있는 정보에 대해서 물어볼때 발생하는 것 같다. deeplearning.ai에서 upstage 강의를 들어보면 pretraining 과정에서 모델이 접하지 못한 정보에 대해서는 모델이 전혀 모른다는 이야기를 한다. 그래서 모델의 지식을 개선시키려면 pretraining 과정이 필수적이라고 한다. 모델이 지식은 없지만 말은 할 줄 아니 사용자의 질문에 대해서 부정확한 답변을 그럴듯한 문장으로 만들어내는 이유는  pretraining 과정에서 제대로 학습을 못한 정보이기 때문이라고 생각한다. 개인적으로 찾은 2가지 할루시네이션을 모델 별로 비교해보는 실험을 해보려고 한다.바로! 세종대왕.. 2024. 9. 16.