בינה מלאכותית (AI) משנה את פני תחום הבריאות והמדע בקצב מהיר, עם יישומים מהפכניים באבחון רפואי, ניתוח נתונים, ומחקר מדעי. מערכות AI עוזרות לרופאים באבחון מדויק ומהיר יותר, מקלות על עומסי העבודה ומפחיתות טעויות אנוש. עם זאת, לצד ההתקדמות המהירה, עולות שאלות משפטיות ואתיות מורכבות. מאמר זה יבחן את האתגרים המרכזיים הניצבים בפני המשפטנים והמחוקקים בתחום ה-AI הבריאותי ובכלל זה ניתן להזכיר את עניין איסוף נתונים נרחב ללא הסכמה מדעת, המהווה אתגר מרכזי בתחום הפרטיות הקשור
לאופן שבו נאספים הנתונים לצורך תפעול מערכות הבינה המלאכותית. חשוב לדעת כי מערכות אלו זקוקות לכמויות עצומות של מידע על מטופלים, כולל נתונים רפואיים רגישים כמו היסטוריה רפואית, תוצאות בדיקות, נתוני דימות ופרטים אישיים נוספים. יאמר בזהירות כי לרוב, נתונים אלה נאספים ממערכות רפואיות שונות מבלי שמטופלים מבינים לגמרי את היקף השימוש במידע שלהם או מסכימים לכך באופן מדעת. יוער כי חוקי פרטיות כמו ה-GDPR באירופה מחייבים מוסדות רפואיים לקבל את הסכמת המטופלים לשימוש בנתוניהם, אך לעיתים קרובות המטופלים אינם מודעים למהות השימוש בנתונים אלו ולאופן בו הם מעובדים.
אחריות מקצועית וטעויות באבחון רפואי מבוסס AI
מערכות בינה מלאכותית משתמשות לעיתים במידע גנטי או ביומטרי כדי לספק אבחנות רפואיות מדויקות. אבל במקרים בהם מערכת AI מבצעת טעות בזיהוי או ניתוח הנתונים, יכולה להתעורר בעיה של “זיהוי שגוי”. כלומר, בינה מלאכותית יכולה לקשר נתונים רפואיים מסוימים לאדם הלא נכון, או ליצור המלצות רפואיות על סמך מידע מוטעה. במקרים כאלו, הפרטיות של המטופל נפגעת פעמיים: גם בטעויות זיהוי וגם בכך שמידע פרטי רגיש מתפרסם או נחשף שלא כהלכה.
בעולם הרפואה, טעויות עלולות לעלות בחיי אדם או לגרום לנזק חמור למטופלים. כשמערכות AI מעורבות באבחון וטיפול רפואי, עולות שאלות חדשות לגבי אחריות משפטית. כאשר הבינה המלאכותית מבצעת טעות באבחון או בטיפול, מי נושא באחריות? האם זה המוסד הרפואי שהטמיע את המערכת? המפתחים או היצרנים של האלגוריתם? או אולי הרופאים שהשתמשו בו?
החקיקה הנוכחית במרבית המדינות אינה מתמודדת ישירות עם אחריות של מערכות בינה מלאכותית, דבר המחייב עדכונים בחוקים. לדוגמה, חוקי הרשלנות המקובלים אינם בהכרח מותאמים למצבים בהם מכונה מקבלת החלטות רפואיות. שאלה נוספת היא האם יש להחיל רגולציה על פיתוח האלגוריתמים עצמם, כך שיהיו חייבים בבדיקות איכות וביקורת שוטפת כדי למנוע טעויות.
פרטיות מטופלים ושימוש בנתונים אישיים
שיתוף מידע בין גופים עלול לייצר סיכון לדליפת מידע. שיתוף כאמור בין גופים רפואיים שונים הוא חלק בלתי נפרד מהאופן בו מערכות בינה מלאכותית משתפרות ומספקות שירותים מותאמים. עם זאת, שיתוף מידע זה טומן בחובו סיכונים משמעותיים לפרטיות, כאשר דליפות מידע או התקפות סייבר עלולות לחשוף מידע רגיש של מטופלים. למשל, כאשר מערכת בינה מלאכותית מאומנת על מידע ממספר בתי חולים, כל פגיעה באבטחת המידע של מערכת אחת יכולה להוביל לגישה לנתונים מכלל המוסדות המשתתפים בשיתוף הנתונים.
AI עושה שימוש רחב היקף בנתונים רפואיים כדי ללמוד ולהשתפר. איסוף ועיבוד הנתונים האישיים של מטופלים מעורר שאלות משפטיות רבות בנוגע לפרטיות ולהגנה על מידע. למשל, האם ניתן לשמור או להשתמש במידע אישי לצרכי מחקר ולמידה של כלי בינ”מ והאם יש צורך בקבלת הסכמה מפורשת מצד המטופלים?
רגולציות כמו ה-GDPR*- רגולציות אלה מספקות כלים לשמירה על פרטיות המידע, אך הן מתמקדות בעיקר במידע דיגיטלי כללי ולא במידע רפואי רגיש. גם בישראל, חוק הגנת הפרטיות מחייב ארגונים לשמור על המידע האישי בצורה מאובטחת, אך יש צורך בהחמרת אכיפת החוקים ובפיתוח רגולציות ספציפיות לשימוש ב-AI במערכת הבריאות. על המחוקקים להגדיר בצורה ברורה את הגבולות לשימוש במידע, במיוחד כאשר מדובר במערכות למידת מכונה המשתמשות במידע אישי לשיפור ביצועיהן.
אתיקה ומדיניות רגולטורית בבינה מלאכותית רפואית
מעבר לנושאים המשפטיים, עליית הבינה המלאכותית בתחום הרפואה מעוררת גם דאגות אתיות. מה קורה כאשר מערכת AI מייצרת המלצות טיפוליות שאינן תואמות את ההבנה האנושית? עד כמה נדרש מהאדם לסמוך על המכונה? והאם יש חשש ממעבר לטיפולים ללא התערבות אנושית כלל? סוגיות אתיות אלו מחייבות תהליך פיקוח רגולטורי ברור והדוק, במיוחד כאשר השימוש בבינה מלאכותית הופך נפוץ יותר בבתי חולים ומכוני מחקר. כדי להתמודד עם חששות אלו, יש להבטיח שכל מערכת בינה מלאכותית המשמשת ברפואה תעבור תהליכי אישור ובדיקה מקיפים, הכוללים בדיקות אתיות ואבטחת איכות, כמו גם שקיפות באשר לאופן הפעולה של המערכות. האתגר המשפטי כאן הוא לא רק יצירת חוקים מתאימים אלא גם יישומם והבטחת האכיפה שלהם.
לסיכום יאמר כי, בינה מלאכותית בתחום הבריאות מביאה עמה פוטנציאל אדיר לשיפור שירותי הבריאות והמדע, אך במקביל יש להתמודד עם אתגרים משפטיים ואתיים מורכבים. מחוקקים, רופאים ומפתחי טכנולוגיות חייבים לשתף פעולה כדי להבטיח שהטכנולוגיה תשרת את האנושות בצורה בטוחה ואחראית, תוך שמירה על זכויות הפרט ועל סטנדרטים אתיים גבוהים. זהו קרב מתמשך בין קידמה טכנולוגית לשמירה על האיזון בין זכויות האדם והחברה. יאמר כי לצורך פיקוח על השימוש במידע יש צורך ברגולציה חדשה, למרות שקיימים חוקים המסדירים את השימוש בנתונים רפואיים, ההתקדמות הטכנולוגית המהירה מצריכה רגולציה חדשה. כיום, החקיקה איננה תמיד מספיקה כדי להתמודד עם כל הבעיות שמעלה השימוש בבינה מלאכותית בתחום הבריאות. מערכות AI זקוקות לפיקוח נוסף, שיבטיח שהן לא ינצלו לרעה את כוחן. הכוונה היא לא רק למניעת דליפות מידע אלא גם למניעת שימוש במידע למטרות מסחריות ללא הסכמת המטופלים.
——————————————
* רגולציית GDPR באירופה (General Data Protection Regulation) היא אחת מהרפורמות המשמעותיות ביותר בתחום ההגנה על פרטיות נתונים אישיים. ה-GDPR נכנס לתוקף במאי 2018 ונועד להגן על פרטיותם של תושבי האיחוד האירופי, תוך מתן שליטה רבה יותר על אופן השימוש במידע האישי שלהם. הרגולציה מחייבת שקיפות ושמירה על זכויות המשתמשים, כולל הסכמה מדעת לעיבוד נתונים, הזכות להישכח, והגבלות על עיבוד מידע למטרות ספציפיות בלבד. כמו כן, ה- GDPR מטיל חובות אבטחת מידע מחמירות ודורש דיווח על פריצות בתוך 72 שעות. הפרת הרגולציה עלולה לגרור קנסות כבדים של עד 20 מיליון יורו או 4% מהמחזור העולמי, דבר שהוביל לאכיפה מוגברת ושיפור הגנת הפרטיות באירופה.
————————————–
המאמר נכתב למטרות מידע בלבד ואין לראות בו ייעוץ מקצועי, ו/או המלצה ו/או ייעוץ משפטי מכל סוג שהוא. למרות המאמצים לספק מידע מדויק ועדכני, ייתכן וחלק מהפרטים ישתנו עם הזמן או יתעדכנו לאור פיתוחים טכנולוגיים חדשים. הקוראים מוזמנים לבצע מחקר נוסף או לפנות לאנשי מקצוע בתחום לצורך קבלת ייעוץ מותאם אישית. הכותבת ו/או האתר אינם אחראים לשום נזק שייגרם כתוצאה מהסתמכות על התכנים במאמר זה.