▶ 데이터 쌓여 연구 늘었지만
▶ 징후 못 찾고 블랙박스 여전
인공지능(AI)이 발전하면서 정신질환 진단에 활용 가능성을 모색하는 다양한 연구가 진행되고 있다. 임상 데이터가 상당히 축적된 덕분이다. 그러나 AI는 어디까지나 보조 수단일 뿐이라는 게 전문가들의 공통된 견해다.
지난 3월 미국 듀크대 의대는 청소년들의 정신건강 악화 시기를 AI로 예측하는 연구를 했다. 연구진은 5년간 아이들 1만1,000여 명을 대상으로 심리사회적 평가와 뇌 발달 평가를 한 자료를 활용해 인공신경망을 구축했고, 이를 바탕으로 소아 환자의 감정과 증상에 대한 응답을 분석했다. 연구진이 만든 모델은 1년 안에 질병이 악화하는 환자를 정확도 84%로 식별해냈다.
서울 보라매병원 정신건강의학과에서도 지난 6월 거대언어모델(LLM)을 이용해 환자의 우울과 자살 위험을 예측하는 연구를 했다. 연구진은 2016~2021년 병원을 방문한 18~39세 환자 1,064명의 문장완성검사(SCT)를 바탕으로 챗GPT와 제미나이 등 최신 모델들을 훈련시켰다. SCT는 임상심리치료 현장에서 환자를 진단하기 위해 쓰는 심리 검사다.
예를 들어 ‘나의 좋은 점은 OO다’ ‘나에게 가장 문제가 되는 것은 OO다’ 등 문장의 빈칸에 어떤 답을 하느냐에 따라 우울 정도를 판단하는 것이다. 연구결과 LLM은 우울·자살 위험을 높은 정확도로 예측했고, 학습을 거듭할수록 정확도도 개선됐다.
단 이를 의료 현장에 적용하기엔 한계가 많다. AI는 환자의 답변만 봐서는 알 수 없는 징후들을 포착하지 못하기 때문이다. 보라매병원 연구에서 AI의 자살 위험 예측 정확도가 우울보다 떨어진 것도 이 때문이다. 또 AI가 어떤 과정을 거쳐 진단을 했는지도 ‘블랙박스’에 갇혀 있다. 노경진 보라매병원 교수는 “위험도가 매우 높은 환자를 선별하는 도구 정도는 되겠지만, AI는 여전히 불완전하다”라며 “최종 진단은 사람의 몫”이라고 강조했다.
각국 정부도 정신건강 의료 행위에 AI 적용을 규제하는 조치를 마련하고 있다. 독일 정부는 올해 개정한 의료기기법에 AI 의료기기와 정신건강 챗봇을 고위험 의료기기로 규정하고 엄격한 임상시험과 인증을 거쳐야 한다는 내용을 담았다. 프랑스와 네덜란드도 정신건강 관련 AI의 안전성과 보안성을 강화하기 위해 법을 개정하고 있다.
<
신혜정 기자>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x