AI와 알고리즘의 건강관리 규제: 무엇이 필요한가?
도입부
최근 몇 년 동안, 인공지능 (AI)와 알고리즘은 건강관리 분야에서革命적인 변화를 가져왔습니다. 그러나 이러한 기술의 급속한 발전에도 불구하고, 규제의 격차가 여전히 존재합니다. 예를 들어, 미국에서는 AI를 활용한 의료 기기들이 Dramatically 증가하고 있습니다. 1995年に最初のAIを搭載した医療機器(PAPNET Testing System)が承認された以来、現在までにFDAは約1,000個のAIを搭載した医療機器を承認했습니다。하지만、これらのツールが臨床リスクスコアを生成する際の規制体制が不足していることが問題となっています。
이 글에서는 MIT와 Equality AI, ボストン大学の研究チーム이 제기한 건강관리에서 AI와 알고리즘의 규제 필요성에 대해 깊이 들어가보겠습니다.
건강관리에서 AI의 역할
####臨床決策支援ツールの重要性
의사는 환자의 치료 계획을 결정할 때 다양한 변수를 평가해야 합니다. 예를 들어, 특정 의료 절차의 성공 확률은 얼마인지, 환자가 심각한 증상을 개발할 위험이 있는지, 언제 다시 검사를 받아야 하는지 등이 있습니다. 이러한 결정 과정에서 AI는 큰 역할을 합니다.
- 클리닉 리스크 스코어: 클리닉 리스크 스코어는 환자의 상태를 평가하여 다음 단계의 치료 계획을 결정하는 데 사용됩니다. 이러한 스코어는 일반적으로 간단한 모델과 몇 가지 변수를 기반으로 합니다. 그러나 이러한 스코어도 데이터셋의 질과 선택된 변수에 따라 편향을 가질 수 있습니다 [1].
AI의 잠재적 문제점
AI는 건강관리에서 많은 잠재력을 가지고 있지만,同時に問題も存在します。
- 편향과 공정성: AI 알고리즘은 데이터셋의 편향을 반영할 수 있습니다. 예를 들어, 특정 인구집단에 대한 데이터가 부족하거나 편향된 경우, 알고리즘도 그에 따라 편향될 수 있습니다. 이는 건강관리에서 공정성을 해칠 수 있습니다 [2].
규제의 필요성
새로운 규정의 등장
2024년 5월, 미국 보건복지부의 민권국 (OCR)은 Affordable Care Act (ACA) 하에 새로운 규정을 발표했습니다. 이 규정은 인종, 색상, 국적, 연령, 장애, 성별 등에基づく 차별을 금지하는 내용을 포함합니다. 특히, "환자 치료 결정 지원 도구"라는 새로운 용어가 도입되었으며, 이는 AI와 비자동화 도구 모두를 포함합니다 [3].
규제의 격차
현재, 클리닉 리스크 스코어를 생성하는 클리닉 결정 지원 도구에 대한 규제가 부족합니다. 미국의 의사들 중 65%가 월간으로 이러한 도구를 사용하여 환자의 다음 단계를 결정하고 있지만, 이러한 도구에 대한 규제는 미흡합니다 [4].
전문가의 의견
Marzyeh Ghassemi의견
MIT 전기공학 및 컴퓨터과학부 (EECS)의 마르제흐 가세미 교수는 "이 규정은 중요한 발전입니다. 그러나 비-AI 알고리즘과 임상 결정 지원 도구에도 평등을 추구하는 개선을 요구해야 합니다"라고 강조했습니다. 가세미 교수는 또한 MIT의 압둘 라티프 자메엘 클리닉 สำหร기계학습 및 건강 (Jameel Clinic), 컴퓨터 과학 및 인공지능 연구소 (CSAIL), 및 의료공학 및 과학연구소 (IMES)와 관련이 있습니다 [5].
Isaac Kohane의견
하버드 의과대학의 생의학 정보학 과장인 아이작 코하네 교수는 "클리닉 리스크 스코어는 AI 알고리즘보다 투명하지만, 데이터셋과 선택된 변수에 따라 편향될 수 있습니다. 이러한 스코어도 AI와 같은 기준에 따라 평가되어야 합니다"라고 언급했습니다 [6].
향후 전략
규제 회의
2025년 3월, Jameel Clinic은 다시 한번 규제 회의를 개최할 예정입니다. 지난 해의 회의는 세계各地의 규제자, 산업 전문가, 및 교수들 간의 논의와 논쟁을 촉발했습니다. 이러한 회의는 건강관리에서 AI의 규제에 대한 중요한 논의를 진행할 것입니다 [7].
투명성과 공정성
Equality AI의 CEO인 마이아 하이타워는 "클리닉 결정 지원 도구의 규제는 전자 의료 기록에 내장된 도구의 普及와 광범위한 임상 사용으로 인해 큰 도전을 겪고 있습니다. 그러나 투명성과 차별 금지를 보장하기 위해 이러한 규제는 필수적입니다"라고 강조했습니다 [8].
결론
건강관리에서 AI와 알고리즘의 사용은 계속 증가할 것입니다. 그러나 이러한 기술의 잠재적 문제점을 해결하기 위해 규제의 격차를 메우는 것이 중요합니다. 새로운 규정과 규제 회의를 통해 건강관리에서 AI와 알고리즘의 사용을更加公正하고 투명하게 만들 수 있을 것입니다.
추가 자료
- 연구 논문: "Settling the Score on Algorithmic Discrimination in Health Care" [https://ai.nejm.org/doi/full/10.1056/AIp2400583]
- MIT 뉴스: "AI in health should be regulated, but don’t forget about the algorithms, researchers say" [https://news.mit.edu/2024/ai-health-should-be-regulated-dont-forget-about-algorithms-1212]
- 규제 회의: "Regulatory Conference on AI in Health" [https://www.aihealthgov.mit.edu/]
FAQ
Q: 건강관리에서 AI의 사용은 어떻게 규제되어야 합니까?
A: 건강관리에서 AI의 사용은 투명성과 공정성을 보장하기 위해 규제되어야 합니다. 이는 새로운 규정과 규제 회의를 통해 달성될 수 있습니다.
Q: 클리닉 리스크 스코어는 어떻게 평가되어야 합니까?
A: 클리닉 리스크 스코어는 데이터셋과 선택된 변수에 따라 편향될 수 있으므로, AI와 같은 기준에 따라 평가되어야 합니다.
Q: 향후 건강관리에서 AI의 규제는 어떻게 진행될 것인가?
A: 향후 건강관리에서 AI의 규제는 규제 회의와 새로운 규정 등을 통해 진행될 것입니다. 이러한 노력은 건강관리에서 AI와 알고리즘의 사용을更加公正하고 투명하게 만들기 위해 중요합니다.