최근 국내 연구팀의 조사 결과, 의료용 인공지능 모델이 악의적인 공격에 취약하다는 사실이 드러났습니다. 이러한 공격은 사용자가 인공지능에 잘못된 정보를 제공하도록 유도하는 방식으로, 심각한 의료적 결과를 초래할 수 있는 우려가 제기되고 있습니다.
연구팀은 챗지피티(ChatGPT)를 포함한 주요 AI 모델들이 이러한 공격에 대해 얼마나 취약한지를 분석했습니다. 조사 결과, 일부 사용자는 임산부에게 태아 기형을 유발할 수 있는 약물을 추천하는 등의 잘못된 정보에 쉽게 노출될 수 있음을 확인했습니다. 이는 인공지능이 제공하는 정보의 신뢰성을 저하시킬 뿐 아니라, 잘못된 의료 상담이 실제 환자에게 미치는 영향을 고려할 때 매우 심각한 문제로 다가옵니다.
이 연구는 인공지능이 사용자에게 보다 안전하고 신뢰할 수 있는 정보를 제공하기 위해 개선이 필요하다는 점을 강조하고 있습니다. AI 기술이 발전하면서 의료 분야에서도 활용도가 증가하고 있는 만큼, 이와 같은 보안 취약성을 보완하기 위한 철저한 검토가 필요할 것입니다. 앞으로 이러한 연구 결과가 의료 인공지능의 안전성을 높이는 데 기여할 수 있기를 기대합니다.