You are currently viewing בינה מלאכותית, אפליה ואנחנו

בינה מלאכותית, אפליה ואנחנו

מהפכת הבינה מלאכותית (להלן: “בינה מלאכותית, “בינ”מ”, “AI”), כבר בעיצומה וכמו כל מהפכה, היא נותנת לנו משהו אבל גם לוקחת מאיתנו משהו. הבינה המלאכותית כאן כדי להישאר, לפחות לפי האופן בו היא נכנסת לחיינו בצעדי ענק ומכריחה את כל מי שרוצה להישאר בעניינים להתעדכן וללמוד ולהתנסות ביכולותיה. הבינה המלאכותית הופכת להיות חלק מחיינו, היא חושבת בשבילינו, מנסחת, מציירת, יוצרת סרטים והכל לפי ההנחיות שלנו. המונח שטבע מרשל מקלוהן, “המדיום הוא המסר”, מתעורר שוב לחיים ויתר שאת. הבינה המלאכותית היא המסר. כל מה שידעתם על עולם העבודה כמעט בכל תחום עומד להשתנות. תידרשו לדעת איך ליצור דיאלוג מובנה ונכון עימה, כדי למקסם את המידע שתקבלו מהבינה, באשר תהיה. בכל קורס בינה מלאכותית ידגישו בפניכם כי התוצרים תלויים באופן בו תנסחו את השאלות שלכם, תדייקו את הדרישות שלכם ולא תתנו לה לרצות אתכם או לייצר עבורכם תכנים או נתונים שאינם אמיתיים, רק כדי להיות “העובדת המצטיינת” במשרד/ארגון/עסק. מסתבר שהבינה נוהגת לרצות אותנו.

השלכות משפטיות: אפליה בבינה מלאכותית בתחום דיני העבודה יכולה להוביל להפרות של חוקי שוויון ואיסור אפליה בעבודה.

בהשראת סדנת בינה מלאכותית לעורכי דין וההיכרות עם האתגרים הרבים העומדים בפתחינו, ניסיתי לאתגר את הבינה המלאכותית ולשאול אותה מה היא חושבת על נושא האפליה בבינה מלאכותית. המאמר שלהלן מציג את המקורות העיקריים לאפליה, האתגרים המרכזיים, ההשלכות החברתיות והמשפטיות, ומציע כמה פתרונות אפשריים לפי ראות עיניה של הבינה להתמודדות עם האתגר. זאת לפי הנחיות שלי. נראה שהיא “רוצה” לדבר על האתגרים אשר בפתח ועל העובדה שאסור לקבל את התכנים אשר היא מייצרת עבורנו כמובן מאליו ויש לבדוק ולנתח ולערוך, בדיוק כפי שניסיתי לדייק במאמר זה. במהלך העבודה על המאמר היו לנו כמה מקרים שבהם הבינה הציגה לי פסקי דין דימיוניים ורק כאשר שאלתי אותה, היא “הודתה” בכך ואף התנצלה וחזרה והתנצלה ואף ניסתה להסביר את החלטתה לספק לי פסק דין “דימיוני”. זה היה נחמד ומשעשע והבנתי כי עלינו לעבוד בשיתוף פעולה מלא ובשקיפות ולעודד אחת את השניה לבקש ולשאול ולא לוותר, לומר את האמת ולא לנסות לרצות.

מקורות האפליה בבינה מלאכותית

בעידן הזה, שבו כלי הבינה מלאכותית (AI) הופכים לחלק בלתי נפרד מחיינו, עולה גם סוגיה מטרידה: האפשרות כי שימוש במערכות בינה מלאכותית לצורך גיוס עובדים לעבודה  עלול לייצר אפליה. ניתן לומר כי  סוגיית האפליה בבינה מלאכותית דורשת תשומת לב מיוחדת. בינה מלאכותית (AI)  מסייעת כיום במגוון תהליכים בניהול משאבי אנוש, אשר בעבר היו מתבצעים על ידי אנשי מקצוע בתחומם כגון מעבר על קורות חיים, ניהול ראיונות עבודה, הערכות ביצועים ועוד. עם זאת, לצד הסיוע עובדה זו הטכנולוגיה עלולה להיות חשופה להטיות וליצור אפליה אם אינה מתוכננת או מפוקחת כראוי. כך שאם שלחתם קורות חיים, אבל לא קיבלתם זימון לראיון, למרות שכל הנתונים שלכם מצביעים על התאמתכם לתפקיד יכול להיות שלא עברתם את הסינון הראשוני שלא נעשה על ידי אדם, אלא על ידי כלי בינ”מ.

שימוש במערכות בינ”מ נרחבות ומסייעות בקבלת החלטות קריטיות בתחומים רבים ובהם חברות תעסוקה, חברות אשראי, חברות הייטק חברות ביטוח ואת מערכת המשפט החל מהשלב הראשון של פגישה עם הלקוח ועד הגשת כתב התביעה וניהול כל הליכי המשפט כולל צפי לתוצאותיו. אך מה קורה כאשר מערכות אלו בשל תכונותיהן הטכנולוגיות עלולות להפלות לכאורה על בסיס מגדר, גזע, גיל או מאפיינים אחרים בקבלה לעבודה ניתן לומר כי הבינה המלאכותית מציבה אתגרים רבים וביניהם חברתיים ומשפטיים.

ביקשתי מהבינה המלאכותית לבדוק עבורי את הגורמים העלולים ליצור אפליה בהליכים של קבלה לעבודה, למשל וליצור אפליה ולהלן התוצאות שקיבלתי: המידע ערוך והובא לדפוס על ידי, על מנת לפשט את הדברים אבל יצויין כי הבינה המלאכותית תוך עיסוק בנושא זה למעשה “כותבת” על עצמה, וזה בבחינת “הדבר מעיד על עצמו”. ניתן לומר אף, כי הבינה מבצעת רפלקציה על ביצועיה, אינה מתעלמת מחסרונותיה ומאירה את האתגרים העומדים בפניה.

ההשלכות החברתיות והמשפטיות והעמקת פערים חברתיים ואתגרים משפטיים חדשים

תכנון לא מותאם: כאשר המפתחים אינם לוקחים בחשבון את כל קבוצות האוכלוסייה בעת תכנון המערכת, היא עלולה להפעיל שיקולים מפלים מבלי שהתכוונו לכך. למשל, תכנון שמבוסס על קבוצות מסוימות בלבד עשוי להעדיף או לפגוע בקבוצות אחרות.

ניתן לומר כי האפליה במערכות AI אינה בהכרח תוצר של כוונה מיוחדת, אלא לרוב נובעת ממספר גורמים:

  1. הטיות בנתוני אימון: לצורך הדוגמה, אם הנתונים שעליהם מאומנת המערכת מכילים הטיות היסטוריות, המערכת עלולה לשכפל ואף להגביר הטיות אלו. לצורך העניין, נתונים הקשורים לאפלייה מגדרית, גזעית או אתנית ואפליית נשים על בתרבויות שונות, ונתונים הכוללים הטיות הסטוריות או חברתיות ושזורים בהם תיאוריות מגדריות והלכה למעשה במתרחש בפועל בכל הנוגע לשכר, הדרת נשים ועוד, ה-AI עלול להמשיך ולהנציח את ההטיות הללו.

2. אלגוריתמים מוטים: לעתים, האלגוריתמים עצמם מתוכננים באופן שמעדיף קבוצות מסוימות על פני אחרות.

3. תכנון לא מותאם: כאשר המפתחים אינם לוקחים בחשבון את כל קבוצות האוכלוסייה בעת תכנון המערכת, היא עלולה להפעיל שיקולים מפלים מבלי שהתכוונו לכך. למשל, תכנון שמבוסס על קבוצות מסוימות בלבד עשוי להעדיף או לפגוע בקבוצות אחרות.

4. חוסר גיוון בצוותי פיתוח: כאשר צוותי הפיתוח אינם מגוונים מספיק, הם עלולים שלא להבחין בהטיות מסוימות.

5. פרשנות שגויה של נתונים: לעתים, המערכת מפרשת נתונים באופן שיוצר אפליה, גם אם הנתונים עצמם אינם מוטים.

6. שקיפות וחוסר הבנה: כאשר משתמשים במערכות AI לקבלת החלטות חשובות כמו גיוס או קידום, לעיתים קשה להבין כיצד המערכת קיבלה את ההחלטות. חוסר השקיפות יכול להוביל לכך שאפליה תתרחש מבלי שתהיה דרך להבחין בה.

7. השלכות משפטיות: אפליה בבינה מלאכותית בתחום דיני העבודה יכולה להוביל להפרות של חוקי שוויון ואיסור אפליה בעבודה. במקרים שבהם עובדים או מועמדים לעבודה מרגישים שהמערכת פגעה בהם בצורה לא הוגנת, הם עשויים להגיש תביעות משפטיות נגד המעסיק או יצרן המערכת. השאלה את מי אפשר לתבוע? את מפתחי הבינ”מ או את מי שמשתמש בה? או שמא את שניהם.

אתגרים העיקריים, כמו קושי בזיהוי והוכחת אפליה

תכנון כוללני – בעת תכנון המערכת, יש לקחת בחשבון מגוון רחב של קבוצות אוכלוסייה כדי למנוע אפליה של קבוצות מסוימות.

הבינ”מ אליהם פניתי  כדי לברר את הסוגייה מודעת לאתגרים העומדים בפניה והיא מונה את האתגרים העיקריים:

1. זיהוי האפליה: בניגוד לאפליה אנושית, אפליה במערכות AI קשה יותר לזיהוי, במיוחד כאשר האלגוריתמים מורכבים ו”קופסה שחורה”.

2. הוכחת האפליה: גם כאשר יש חשד לאפליה, הוכחתה מבחינה משפטית מאתגרת, בעיקר בשל מורכבות הטכנולוגיה.

3. תיקון האפליה: תיקון מערכות AI מוטות דורש לא רק שינויים טכניים, אלא גם התמודדות עם הטיות חברתיות עמוקות.

4. איזון בין שקיפות להגנה על קניין רוחני: חברות טכנולוגיה מתנגדות לעתים קרובות לחשיפת האלגוריתמים שלהן, מה שמקשה על פיקוח ציבורי.

5. רגולציה מתאימה: קצב ההתפתחות המהיר של טכנולוגיות AI מקשה על יצירת רגולציה אפקטיבית ועדכנית.

המלצות ופתרונות שמציעה הבינ”מ על מנת להימנע מאליה במערכות בינה מלאכותית

בחינה ובקרה מתמשכת – מעסיקים צריכים לבצע בדיקות תקופתיות של מערכות ה-AI שלהם כדי לזהות ולתקן הטיות אפשריות.

שקיפות והסבר – חשוב להבטיח שהחלטות המתקבלות על ידי מערכות AI יהיו שקופות ומוסברות בצורה שניתן יהיה להבין את הלוגיקה שמאחוריהן.

תכנון כוללני – בעת תכנון המערכת, יש לקחת בחשבון מגוון רחב של קבוצות אוכלוסייה כדי למנוע אפליה של קבוצות מסוימות.

התמודדות עם אתגרים משפטיים חדשים – המערכת המשפטית נדרשת להתמודד עם שאלות חדשות של אחריות, הוכחה ופיצוי במקרים של אפליה על ידי AI.

צורך בחקיקה חדשה – ייתכן שיידרשו חוקים חדשים וספציפיים להתמודדות עם אפליה במערכות AI.

הגברת המודעות והכשרה של מפתחי AI בנושאי אתיקה והוגנות.

הבטחת ייצוג מגוון בצוותי פיתוח של מערכות AI.

פיתוח ושימוש בכלים לבדיקת הוגנות של מערכות AI לפני הטמעתן.

עידוד חברות לחשוף יותר מידע על האלגוריתמים שלהן, תוך שמירה על איזון עם הגנה על קניין רוחני.

פיתוח מסגרות רגולטוריות גמישות שיכולות להתאים עצמן לשינויים טכנולוגיים מהירים.

אפליה בבינה מלאכותית מציבה אתגרים משמעותיים בפני החברה, מערכת המשפט, ותעשיית הטכנולוגיה.

השלכות חברתיות ומשפטיות

הבינ”מ מתייחסת לפי בקשתי גם להשלכות חברתיות ומשפטיות וטוענת כי יתכנו מספר תרחישים בהמשך למתואר ובכלל זה מתייחסת לשלושה נושאים עיקריים:

1. העמקת פערים חברתיים: אפליה ב-AI עלולה להעמיק פערים קיימים ולחזק דעות קדומות.

2. פגיעה בזכויות אדם: החלטות מפלות של מערכות AI עלולות לפגוע בזכויות בסיסיות כמו שוויון הזדמנויות בעבודה ועוד

3. אובדן אמון ציבורי: חשיפת מקרי אפליה ב-AI עלולה לפגוע באמון הציבור בטכנולוגיה ובחברות המפתחות אותה.

ניסיתי לאתגר את הבינה המלאכותית עם חיפוש פסיקה עדכנית בנושא, שכן הפסיקה בענייני בינ”מ עדיין בחיתוליה, ואכן למרות שהבינ”מ מצאה עבורי פסיקה, היא הודתה בפני לאחר ששאלתי שוב ושוב האם הפסיקה אמיתית, כי הפסיקה דימיונית, זאת לאחר שחיפשתי את המקור ולא מצאתיו – אפקט הבינה המרצה – זוכרים?

בכל זאת ולאחר כמה בקשות לחיפוש פסקי דין עם דגש על אמיתיים שפורסמו, מצאה עבורי הבינ”מ פסיקה אחת וטענה כי אמיתית. ואכן בדקתי ומצאתי סימוכין (לינק מצורף לכתבה שפורסמה בעניין).

מדובר בפסק דין משנת 2021 EEOC v. Automated Hiring Solutions, ממנו עולה כי הנציבות האמריקאית לשוויון הזדמנויות בתעסוקה (EEOC) תבעה את חברת Automated Hiring Solutions בשל אפליה במיון מועמדים באמצעות מערכת בינה מלאכותית. התביעה טענה כי החברה השתמשה במערכת AI לקבל החלטות על קבלת מועמדים לעבודה, אך המערכת יצרה הטיות נגד מועמדים מקבוצות מוחלשות כמו אפרו-אמריקאים ונשים.

בית המשפט קיבל את טענות EEOC, וקבע כי החברה הפרה את חוקי התעסוקה האוסרים אפליה. הוא הדגיש כי על חברות המשתמשות במערכות AI לבדוק היטב את השפעתן על תהליכי המיון והקבלה לעבודה, ולהבטיח שאינן מפלות קבוצות מוגנות. בנוסף, בית המשפט פסק פיצויים כספיים משמעותיים לטובת העובדים שנפגעו, והורה לחברה להפסיק את השימוש במערכת ה-AI המפלה ולאמץ נהלים חדשים להבטחת הוגנות בתהליכי הקבלה.

פסק דין זה מדגיש לפי הבינה המלאכותית, את החובה המשפטית של מעסיקים להבטיח שמערכות AI שבשימושם אינן יוצרות אפליה בדיני עבודה, ומהווה תקדים חשוב בתחום זה.

לסיכום טוענת הבינ”מ, אפליה בבינה מלאכותית מציבה אתגרים משמעותיים בפני החברה, מערכת המשפט, ותעשיית הטכנולוגיה. התמודדות עם סוגיה זו דורשת גישה רב-תחומית, המשלבת מומחיות טכנולוגית, משפטית, ואתית. ככל שמערכות AI הופכות למרכזיות יותר בחיינו, כך גוברת החשיבות של הבטחת הוגנותן ושוויוניותן. זהו אתגר מורכב, אך הכרחי לעתיד צודק וקהילתי יותר.

————————————

המאמר נכתב למטרות מידע בלבד ואין לראות בו ייעוץ מקצועי, ו/או המלצה ו/או ייעוץ משפטי מכל סוג שהוא. למרות המאמצים לספק מידע מדויק ועדכני, ייתכן וחלק מהפרטים ישתנו עם הזמן או יתעדכנו לאור שינויי חקיקה. הקוראים מוזמנים לבצע מחקר נוסף או לפנות לאנשי מקצוע בתחום לצורך קבלת ייעוץ מותאם אישית. הכותב ו/או האתר אינם אחראים לשום נזק שייגרם כתוצאה מהסתמכות על התכנים במאמר זה.

אין במאמר זה, כולל הפניה ללינק המצורף אליו, משום המלצה לפעולה/אי פעולה כלשהיא. כל העושה שימוש בתכני מאמר זה, עושה זאת על אחריותו האישית. בכל מקרה שהוא יש להתייעץ עם עו”ד מוסמך/ת.

ט.ל.ח.