전체 글54 노벨화학상 받은 AI? 잘 사용하지 않는 이유... 노벨화학상을 받은 알파폴드 (AlphaFold). 관련 분야에 있다보니 질문을 가끔 받는다. 근데 사실 잘 모른다. 나는 알파폴드를 사용할 일이 거의 없기 때문이다. 그렇지만 알파폴드가 왜 중요한 연구인지는 이해하고 있다. 모델 세부 내용을 잘 모르고 있을 뿐. 알파폴드는 단백질의 구조를 예측해준다. 단백질 서열을 입력하면 3차원 구조를 만들어준다. 단백질은 아미노산 (amino acid)로 구성되어 있다. 이 아미노산의 순서를 단백질 서열이라고 한다. 아미노산에 대한 것은 위키피디아를 보면 설명이 잘 되어 있으니 아래 링크를 보시면 된다.https://ko.wikipedia.org/wiki/%EC%95%84%EB%AF%B8%EB%85%B8%EC%82%B0 아미노산 - 위키백과, 우리 모두의 백과사전위키.. 2024. 11. 23. AI는 어떻게 악용될 수 있을까? '공기의 연금술'이라는 책을 최근에 읽었다. 공기에서 비료를 만들어내는 기술로 노벨화학상을 수상한 두 과학자의 이야기다. 공기에서 비료를? 공기에는 엄청난 양의 질소가 있다. 과자봉지 속에 채워져있는 기체도 질소다. 공기 중에 남아도는 질소는 비료의 주성분이다. 책 초반에는 어떤 과학자의 연설로 시작한다. 인구수는 계속 증가하는데 지구에서 생산 가능한 식량은 얼마 안되기 때문에 큰 위험이 도래할 거라는 경고문이다. 비료 생산의 원료들이 고갈되어 가고 있었기 때문이다. 그러한 배경에서 과학자들이 공기 중에서 얼마든지 구할 수 있는 질소로 비료를 만들기 위한 노력을 했다. 공기로부터 비료를 만들어내면서 식량 부족 문제 자체가 해소되었다. 공기를 '황금'으로 바꾼 것과 같은 엄청난 발견이었다. 이러한 기술의 .. 2024. 11. 22. 속내를 알 수 없는 AI 속내를 절대로 드러내지 않는 사람. 무슨 꿍꿍이인지 알 수가 없다. 신뢰할 수가 없다. 전문가들이 AI를 불신하는 이유도 비슷하다. 모델이 왜 그렇게 답변을 했는지 의도를 파악하기가 어렵기 때문이다. 인공지능 모델을 블랙박스 모델이라고도 한다. 왜 그렇게 추론을 했는지 알기가 어렵기 때문이다. QSAR 모델에서도 마찬가지다. 모델이 어떤 물질을 독성이 있다고 예측을 했다. 왜 그렇게 예측을 했는지 근거가 있다면 좋을텐데, 근거가 없다면? 믿을 수가 없다. 화학물질로 실험을 하면 물질의 활성이나 독성을 확인할 수 있다. 하지만 실험 결과가 일치하지 않는 경우도 생긴다. 실제로 세포 실험에서는 독성을 했는데, 동일한 물질이 동물 실험에서는 독성이 나타나지 않는 경우도 빈번하게 있다. 이럴 때는 결과가 불일치.. 2024. 11. 21. 그래서 AI가 얼마나 정확한건데? 정확도. 중요하다. 평가하는 방법? 모델이 하는 일마다 다르다. QSAR 모델은? 실험 값과 예측 값을 비교해야 된다. 즉 실험값이 없으면 정확도 또한 판단할 수 없다는 뜻. 정확도를 파악하고 싶다면? 정답지 먼저 준비하는 것이 우선이다. OECD QSAR validation guideline 4번째 원칙. 모델의 정확도를 투명하게 공개할 것! 이 원칙은 굉장히 중요하고, 요즘엔 이렇게 안 하는 사람이 없다. 하지만 1900년대 후반이나 2000년대 초반에 발표된 QSAR 논문을 보면 모델 정확도를 공개하지 않은 경우가 있다. 그 당시에는 잘 몰라서 그랬나보다. 검증은 어떻게 해야 할까? VEGA의 간 독성 예측 모델의 QMRF 문서를 보자. 먼저 internal validation과 external v.. 2024. 11. 20. AI 얼마나 정확해요? AI 답변에 실망한 사람이 적지 않다. 챗GPT가 처음 출시되었을 때는 답변에 놀랐지만,, 황당한 답변, 말도 안되는 헛소리 등등. 말도 안되는 결과에 실망한 사람들이 많다. 전문적인 분야. 사실성이 중요한 내용. 이런 경우에는 챗GPT를 사용하기 꺼려하거나 기피하는 경우를 보게 된다. 화학물질에 사용되는 QSAR 모델도 AI 기술이 사용되고 있지만, 불신이 많다. 모델 개발한 사람에 따르면 정확도가 80%라고 한다. 그런데 사용하는 사람이 관심있는 화학물질 2개 정도 예측을 해봤더니 다 틀렸다. 그러면 개발한 사람이 80%라고 주장해도, 사용한 사람 입장에서 이 모델의 정확도는 0%. 이렇게 사용자 경험이 안 좋은 경우 다시 사용할 생각도 안 한다. 아무리 편하고 빠르게 답변을 얻을 수 있다고 해도, .. 2024. 11. 19. AI가 안전하다고 판단한 화학물질? 정말 안전할까? AI가 예측해준 결과를 믿어도 될까? 환각 현상이 난무하는데... 챗GPT를 상당 기간 사용해본 분들은 한 두번쯤 경험해봤을 것이다. 말도 안되는 답변이 나오는 경우를 심심치 않게 본다. 독성 예측 모델이라고 다를까? 다르지 않다. 이 녀석들도 안전한 물질인데 위험하다고 하기도 하고, 반대로 위험한 물질인데 안전하다고 답변을 할 때도 있다. 챗GPT 답변은 검색해서 찾아보기라도 하면 되지... 화학물질에 대한 예측 결과는 실험을 해봐야 한다. 한달 걸리는 실험도 있고, 반년 걸리는 실험도 있고, 2년 걸리는 실험도 있다... 이렇게 하지 않고도 모델의 답변 신뢰도를 알아낼 수 있는 방법은 없을까?답은 데이터에 있다. 모델을 훈련할 때 사용한 데이터를 바탕으로 모델의 예측 결과를 분석해보는 것이다. 이 내.. 2024. 11. 18. 이전 1 2 3 4 5 6 7 ··· 9 다음