
제약·바이오
생성형 AI, 의료에 적용했더니···"보안 침해 확률 81%"
대규모언어모델(LLM)을 의료 분야에 적용할 경우 발생할 수 있는 개인정보 유출 문제를 확인하기 위해 의도적 악성 공격을 시행한 결과 보안침해 확률이 최대 81%에 달하는 것으로 나타났다. 서울아산병원 심장내과 김영학 교수와 아산생명과학연구원 빅데이터연구센터 전태준 박사팀은 이같은 내용의 연구결과를 8일 공개했다. 이번 결과는 글로벌 의사들의 임상치료 교과서로 불리는 NEJM(New England Journal of Medicine)의 자매지인 'NEJM A