XAI1 속내를 알 수 없는 AI 속내를 절대로 드러내지 않는 사람. 무슨 꿍꿍이인지 알 수가 없다. 신뢰할 수가 없다. 전문가들이 AI를 불신하는 이유도 비슷하다. 모델이 왜 그렇게 답변을 했는지 의도를 파악하기가 어렵기 때문이다. 인공지능 모델을 블랙박스 모델이라고도 한다. 왜 그렇게 추론을 했는지 알기가 어렵기 때문이다. QSAR 모델에서도 마찬가지다. 모델이 어떤 물질을 독성이 있다고 예측을 했다. 왜 그렇게 예측을 했는지 근거가 있다면 좋을텐데, 근거가 없다면? 믿을 수가 없다. 화학물질로 실험을 하면 물질의 활성이나 독성을 확인할 수 있다. 하지만 실험 결과가 일치하지 않는 경우도 생긴다. 실제로 세포 실험에서는 독성을 했는데, 동일한 물질이 동물 실험에서는 독성이 나타나지 않는 경우도 빈번하게 있다. 이럴 때는 결과가 불일치.. 2024. 11. 21. 이전 1 다음