본문 바로가기
TECH & SCIENCE

AI 진단의 한계, 아직은 ChatGPT가 의사를 대신할 수는 없다

by 아이디어박람회 2024. 8. 2.
반응형

AI, 특히 ChatGPT에 의존하는 사람들이 늘어나고 있다. 글 작성부터 프로그래밍까지 다양한 분야에서 생성 AI의 활용도가 증가하고 있다. 그러나 모든 분야에서 AI의 도움을 받을 수 있는 것은 아니다. 특히 의료 분야에서는 AI의 한계가 명확하게 드러나고 있다.

 

 

의사의 역할을 대신하기에는 아직 무리

 

최근 PLOS ONE에서는 ChatGPT가 의사의 역할을 할 수 있는지 평가하기 위해 150개의 사례 연구를 통해 테스트를 진행했다. 연구진은 환자의 병력, 임상 검사 데이터, 엑스레이 사진 등을 ChatGPT에 제공하고, 실제로 의사의 진단 능력을 테스트했다. 하지만, 그 결과는 실망스러웠다. ChatGPT가 정확한 진단과 치료법을 도출한 사례는 겨우 49%에 불과했다. 환자의 상태에 대해 정확히 설명할 수 있었던 경우도 전체의 52%에 그쳤다.

 

기대와 현실의 차이

 

 

사실, 이번 연구에 앞서 ChatGPT는 미국 의사 자격 시험(USMLE)을 성공적으로 통과한 바 있다. 이로 인해 많은 사람들이 실제 진단에서도 뛰어난 성과를 기대했지만, 현실은 그렇지 않았다. 중대한 증상을 놓치거나, 적절한 치료법을 제안하지 못하는 등, AI가 의사로서의 역할을 완벽히 수행하지 못한 사례가 다수 있었다.

 

최신 버전이라면 가능할까?

 

이번 테스트는 ChatGPT 3.5 버전을 사용하여 진행되었다. 더 최신 버전이라면 더 나은 성과를 보일 가능성도 있다. 하지만 현재로서는 AI가 의사의 역할을 완벽히 대체하기에는 한계가 있다. 의료 분야는 높은 수준의 전문 지식과 경험이 요구되며, 환자의 생명과 직결되는 만큼 작은 실수도 큰 문제가 될 수 있다.

 

다른 분야에서도 한계

 

 

의료 분야뿐만 아니라, 다른 분야에서도 AI의 한계는 존재한다. 예를 들어, 프로그래밍 분야에서도 ChatGPT는 종종 실수를 저지른다. 코드 작성이나 오류 수정에서 발생하는 문제는 예상보다 많다. 그러나 AI가 전혀 쓸모가 없는 것은 아니다. 환자의 감정에 공감하며 이메일을 작성하는 분야에서는 인간 의사보다 더 뛰어난 성과를 보인다는 평가도 있다.

 

AI는 보조 도구로 활용 AI의 발전은 우리의 삶을 편리하게 만들고 있지만, 아직 모든 분야에서 완벽하게 활용되기에는 한계가 있다. 특히 의료 분야에서는 AI를 보조 도구로 사용하고, 최종적인 진단과 치료는 전문가의 판단을 따르는 것이 바람직하다. 아직은 AI는 우리가 더 나은 결정을 내릴 수 있도록 돕는 도구로서의 역할을 수행할 때 가장 큰 가치를 발휘할 수 있다.

 

VIA

반응형