ביטוח הוא עניינו של הערכת סיכונים ומדיניות תמחור שתואמים. מכיוון שאף שני אנשים אינם דומים זה לזה, פירוש הדבר להתייחס לאנשים שונים באופן שונה. אך כיצד לפלח אנשים מבלי להפלות באופן לא הוגן ?

 

למרבה המזל, אף מבטח לא ישתמש מעולם בחברות ב”מעמד מוגן “(גזע, מין, דת …) כגורם תמחור. זה לא חוקי, לא מוסרי ולא רווחי. אבל למרות שזה נשמע כמו סוף העניין, זה לא.

 

קח את ‘ציון האשראי’ מגוון הגן שלך. ציוני האשראי נגזרים מ נתונים אובייקטיביים שאינם כוללים גזע , והם חזויים ביותר להפסדי ביטוח . מה לא לאהוב? אכן, מרבית הרגולטורים מאפשרים שימוש בציוני ביטוח מבוססי אשראי, ובארה”ב אלה יכולים להשפיע על הפרמיות שלך עד 288% . אבל מסתבר שיש משהו לא לאהוב: ציוני אשראי גם הם חזויים מאוד בצבע העור, ומשתמשים בתוקף כמתנה למירוץ . מסיבה זו, קליפורניה, מסצ’וסטס ומרילנד אינן מאפשרות תמחור ביטוח על סמך ציוני אשראי.

 

אנשים סבירים עשויים להיות מסכימים אם ציוני האשראי מפלים באופן הוגן או לא הוגן – ואנחנו יכולים לקיים את הוויכוח הזה מכיוון שכולנו יכולים לסובב את הראש סביב השאלה העומדת בפנינו. ציוני אשראי הם מספר בן שלוש ספרות, הנגזר מנוסחה סטטית השוקלת 5 גורמים המסבירים את עצמם .

 

אבל בעידן של נתונים גדולים ובינה מלאכותית, כל זה יכול להשתנות. AI מוחץ את בני האדם בשחמט, למשל, מכיוון שהוא משתמש באלגוריתמים ששום אדם לא יכול היה ליצור, ואף אחד מהם לא מבין לחלוטין. ה- AI מקודד הוראות משלו מורכבות להפליא, באמצעות מיליארדי נתונים כדי להכשיר את מנוע למידת המכונה שלו. בכל פעם שהיא מנגנת (והיא משחקת מיליוני פעמים ביום), המכונה לומדת והאלגוריתם מתרחש.

 

מה קורה כאשר יכולות אלו רותמות לצורך הערכת סיכון ותמחור ביטוח?

 

רבים חוששים שמערכות “קופסא שחורה” כאלו יחמירו את המצב, וייצרו את סוג הפרוקסי למירוץ שעושה ציוני אשראי, אך מבלי לתת לנו את היכולת לבחון ולווסת אותם. אם חמישה גורמים מחקים את הגזע ללא היכרות, הם אומרים, דמיין כמה זה יהיה גרוע יותר בעידן הגדול של הנתונים!

 

אבל אמנם קל להיות אזעקה, אך סביר יותר שלמידת מכונה ונתונים גדולים יפתרו את ‘בעיית ציוני האשראי’ מאשר לחבר אותה. אתה מבין, בעיות שמתעוררות תוך שימוש בחמישה גורמים אינם מכפילים את במיליוני נתונים – הם מחולקים על ידיהם.

 

כדי להבין מדוע, בואו נחשוב על תהליך השימוש בנתונים לפלח – או ‘להבחין’ – כמתפתח בשלושה שלבים.

 

 

שלב 1:

 

בשלב 1 כל האנשים מתייחסים אליהם כאילו הם זהים. כולם מייצגים את אותו סיכון, ולכן הם מחויבים באותה פרמיה (ליחידת כיסוי). זה היה דבר שבשגרה בביטוח עד המאה ה -18.

 

 

שלב 1 נמנע מהפלייה על רקע גזע, אתניות, מין, דת או כל נושא אחר לצורך העניין, אך זה לא הופך את זה להוגן, מעשי, או אפילו חוקי.

 

בעיה אחת עם שלב 1 היא שאנשים שקולניים יותר ונזהרים יותר נאלצים לסבסד את האנשים חסרי המחשבה והחסר זהירות. החצנת העלויות של התנהגות מסוכנת אינה מהווה מדיניות טובה ואינה הוגנת כלפי אלה שתומכים בחשבון.

 

בעיה נוספת היא שהיא כבר לא ניתנת לעבודה, מכיוון שאנשים שהם סיכונים טובים מהממוצע יחפשו מחירים נמוכים במקום אחר – מה שישאיר את המבטח עם פרמיות ממוצעות, אך לקוחות מסוכנים מהממוצע (בעיה המכונה ‘בחירה שלילית’ ‘).

 

לבסוף, כוונות מיטביות, על אף שלב 1 מתאימה להגדרת ספר הלימוד החוקי של “אפליה בלתי הוגנת.” החוק מורה כי בכפוף ל”מגבלות מעשיות “, מחיר הוא” מפלה לא הוגן “אם זה” לא מצליח לשקף ברמת דיוק סבירה את ההבדלים בהפסדים הצפויים. “במילים אחרות, במסגרת המבטחים של” המעשיים “, על המבטחים לחייב כל אדם בשיעור שהוא פרופורציונלי לסיכון שלהם.

 

מה שמביא אותנו לשלב 2.

 

שלב 2:

 

בשלב 2 רואים את האוכלוסייה מחולקת לתת-קבוצות לפי פרופיל הסיכון שלהם. תהליך זה הוא מונע נתונים ונטול פניות, אולם ככל שהנתונים בסיסיים יחסית, הקבוצות גסות יחסית. שלב 2 – באופן כללי – משקף את מצב הענף כיום, והוא רחוק מלהיות אידיאלי.

 

 

מיון עם נתונים מוגבלים מייצר מעט יחסית קבוצות גדולות ושתי בעיות גדולות.

 

הראשון הוא שהקבוצות עשויות לפרוק שיעורים מוגנים. קח דוגמא מין למגדר. תאר לעצמך, אם תרצה, שנשים הן – בממוצע – סיכונים טובים יותר מגברים (נניח שציון הסיכון הממוצע לאישה הוא 40, בסולם 1-100, ו 60 לגברים). אנו עדיין מצפים מ- נשים רבות להיות סיכונים תת-ממוצעים, ו- גברים רבים יהיו טובים מהממוצע.

 

 

אם כי הקבוצות הגסות עשויות להיות תקינות סטטיסטית, שלב 2 עלול להעניש גברים בסיכון נמוך על ידי זפת לכל הגברים באותה 1945.

 

הבעיה השנייה היא – גם אם הקבוצות אינן מייצגות מעמדות מוגנים – עדיין חברי הקבוצה חייבים לשלם יותר (ליחידת סיכון) מאשר בני ארצם הפחות אחראיים. זה מה שקורה כשאתה מטיל שיעור אחיד על קבוצה לא אחידה. כפי שראינו, זוהי ההגדרה של ספר הלימוד של ‘אפליה בלתי הוגנת’, שאנו סובלים כרע הכרחי, שנולד מ’מגבלות מעשיות ‘. אך המגבלות המעשיות של פעם מתפוררות, ויש מילה בת ארבע אותיות ל”רוע הכרחי “. ‘זה כבר לא נחוץ …

 

מה שמביא אותנו לשלב 3.

 

שלב 3:

 

שלב 3 ממשיך במקום בו מסתיים שלב 2: פירוק קבוצות מונוליטיות לתתי-קבוצות מורכבות.

 

 

זה עושה זאת בקנה מידה אדיר, תוך שימוש בנתוני סדרי גודל גדולים יותר, אשר למידת מכונות נופלת כדי לייצר ציוני סיכון מורכבים מאוד משתנים. התוצאה היא שהקבוצות הגסות של ימינו מצטמצמות ללא רחם, עד שבסופו של דבר – כל אדם הוא “קבוצה של אחת.” קיבוץ שבשלב 2 עשוי להוות פרוקסי עבור ‘גברים’, ומבקש כ- ’60 ‘, הוא עכשיו נראה כסדרה של אנשים, חלקם עם ציון סיכון של 90, ואחרים בני 30 וכן הלאה. סדרה זו עדיין ממוצעת ציון של 60 – אך למרות שממוצע זה עשוי להיות מיושם על כל הגברים בשלב 2, היא חלה על אף אחד מהם מהם בשלב 3.

 

בשלב 3 קבוצות גדולות מתפוררות תחת משקל הנתונים וכוח המוחץ של המכונה. הביטוח נותר עדיין עניין של איגום פרמיות לתשלום תביעות, אולם כעת כל אחד תורם לבריכה ביחס ישיר לסיכון שהם מייצגים – ולא את הסיכון שמייצגת קבוצה גדולה של אנשים דומים במקצת. על ידי חיוב של כל אדם זהה, ליחידת סיכון , אנו מתייחסים באי-השוויון, הלא-חוקיות והסכנה המוסרית של לחייב את הקפדן לשלם עבור חסרי-הרשלנות, ולקבץ אנשים בדרכים שגורמות גזע, מין , או דת. זה כמו שאמרנו: בעיות שמתעוררות תוך שימוש בחמישה גורמים אינם מכפילים את במיליוני נתונים – הם מחולקים על ידיהם.

 

 

הביטוח יכול לאלף את AI

 

מעודד לדעת שלשלב 3 יש פוטנציאל להפוך את הביטוח ליותר הוגן, אך כיצד נוכל לבקר את האלגוריתם כדי להבטיח שהוא אכן עומד בהבטחה זו? חלה התקדמות מסוימת לקראת “הסברים” בלמידת מכונות, אך ללא שקיפות אמיתית בתיבה השחורה ההיא, כיצד נבדוק את חוסר המשואות של תפוקותיה?

 

על פי תוצאותיהם.

 

אבל עלינו לדרוך בעדינות ולבדוק את האינטואיציות שלנו בדלת. מפתה לומר שאלגוריתם שמאשים נשים יותר מגברים, או אנשים שחורים יותר מאנשים לבנים, או יהודים יותר מגויים – מפלה לא הוגן. זו המסקנה המתבקשת, המסורתית, ובשלב 3 – סביר להניח שהיא תהיה הלא נכונה.

 

נניח שאני יהודי (אני), והחלק מהמסורת שלי כרוך בהדלקת חבורת נרות לאורך כל השנה (זה כן). בביתנו אנו מדליקים נרות כל ליל שבת, כל ערב חג, ונשרוף כמאתיים נרות במשך 8 לילות של חנוכה. לא יהיה זה מפתיע אם אני, ואחרים כמוני, היינו סיכון גבוה יותר לשריפה מהממוצע הארצי. אז אם ה- AI מחייב יהודים, בממוצע , יותר מאשר לא-יהודים בביטוח אש, האם זה מפלה לא הוגן?

 

זה תלוי.

 

זו בהחלט תהיה בעיה אם היותך יהודי, כשלעצמו, יביא לפרמיות גבוהות יותר בין אם אתה סוג הדלקת נרות של יהודי או לא . לא כל היהודים הם דלקת נרות נלהבת, ואלגוריתם שמתייחס לכל היהודים כמו ‘היהודי הממוצע’, ניתן לבוז. עם זאת, זוהי בעיה שלב 2.

 

אלגוריתם שלב 3 שמזהה את נטייה של אנשים להדלקת נרות, וגובה מהם יותר את הסיכון שנטייה זו מייצגת , היא בהחלט הוגנת. העובדה שחיבה כזו לנרות מופצת באופן לא אחיד באוכלוסייה, ומרוכזת יותר בקרב יהודים, פירושה שבממוצע , יהודים ישלמו יותר. זה לא אומר שאנשים חייבים יותר בגין היותם יהודים.

 

קשה להפריז בחשיבות ההבחנה הזו. לכל הפרות ארבע רגליים, אך לא כל הדברים עם ארבע רגליים הם פרות.

 

 

התוצאה היא שעצם העובדה שאלגוריתם מטען יהודים – או נשים, או אנשים שחורים – יותר בממוצע אינה הופכת אותו למפלה בלתי הוגן. שלב 3 אינו מכיל ממוצעים. במשותף עם ד”ר מרטין לותר קינג, אנו חולמים לחיות בעולם בו אנו נשפטים על פי תוכן אופינו. אנו רוצים להעריך אותנו כ- אנשים , ולא בהתייחסות לסמנים הגזעיים, המגדריים או הדתיים שלנו. אם ה- AI מתייחס אלינו כאל בני אדם, אז זה יהיה הוגן. אם אני מחייבת יותר בגין הרגל הדלקת הנרות שלי, זה כמו שהוא אמור להיות, גם אם ההתנהגות שאני מחייבת אותה נפוצה באופן לא פרופורציונאלי בקרב יהודים. ה- AI מגיב לחיבתי לנרות (שזה גורם סיכון אמיתי), ולא לשייכותי השבטית (שאינה).

 

אז אם תמחור דיפרנציאלי אינו הוכחה לתמחור לא הוגן, מה זה? איזו ‘תוצאה’ הוא הסימן המעיד על אפליה בלתי הוגנת בשלב 3?

 

יחסי אובדן דיפרנציאלי.

 

“יחס ההפסד הטהור” הוא היחס בין הדולרים ששולמו בתביעות של חברת הביטוח, לדולרים שהיא גובה בפרמיות. אם חברת ביטוח גובה מכלל הלקוחות שיעור יחסי לסיכון שהם מהווים, יחס זה אמור להיות קבוע בכל בסיס הלקוחות שלהם. אנו צפויים לראות תנודות בקרב אנשים פרטיים, בוודאי, אך ברגע שנצבור אנשים לקבוצות גדולות – אומרים לפי מין, מוצא אתני או דת – החוק של מספרים גדולים צריך להיכנס פנימה, ועלינו לראות יחס הפסד עקבי בין קבוצות כאלה. אם זה המקרה, זה עשוי לרמוז כי גם אם קבוצות מסוימות – בממוצע – משלמות יותר, שיעורים גבוהים יותר אלה הם הוגנים, מכיוון שהם מייצגים תשלומי תביעות גבוהים יחסית. מערכת הוגנת – על פי חוק – אם כל אחד מאיתנו משלם ביחס ישיר לסיכון שאנו מייצגים. זה מה שבחן המבחן ‘ULR (Uniform Loss Ratio)’ המוצע. זה מציב את הביטוח במצב מעוררת קנאה של יכולת לשמור על כנות ה- AI באמצעות מבחן פשוט, אובייקטיבי ונוהל בקלות.

 

אפשר כמובן שחברת ביטוח תגבה פרמיה הוגנת, אך לאחר מכן יש הטיה בכל הנוגע לתשלום תביעות. היופי במבחן ה- ULR הוא שהטיה כזו תיחשף בקלות. במילים פשוטות, אם לקבוצות מסוימות יש יחס אובדן נמוך יותר מהאוכלוסייה בכלל, זה היה מסמל שיש בהן יחס לא הוגן. שיעוריהם גבוהים מדי ביחס לתשלום שהם מקבלים.

 

 

ULR עוזר לנו להתגבר על דאגה גדולה נוספת עם AI. למרות שלמכונות אין הטיות אינן מובנות, הן יכולות לרשום הטיות . דמיין למשל שהמכונה מגלה שגם אנשים שנעצרים נוטים יותר להישדד. אין לי מושג אם זה המקרה, אבל זה לא יהיה תגלית מזעזעת. הפעלות קודמות במשטרה יהפכו, בהיפותטי, לגורם לגיטימי בהערכת פרמיות ביטוח הנכס. עד כה, כה אובייקטיבי.

 

הבעיה מתעוררת אם חלק מהקצינים העוצרים הם מוטים בעצמם, ומובילים – למשל – לשיעור גבוה של אנשים שחורים שנעצרים ללא סיבה טובה. אם זה היה המקרה, אלגוריתם הדירוג היה יורש את ההטיה הגזעית של בני האדם: אדם לא היה משלם יותר דמי ביטוח בגין היותו שחור, כשלעצמה , אבל הם היו משלמים יותר עבור נעצר – וה הסיכוי ש- שיתרחש לאנשים שחורים.

 

למרות שהדוגמה שלי היפותטית, הבעיה היא ממש אמיתית. מודאגים מהטיות המועברות בירושה של AI, אנשים רבים מביאים נשמעות נסיגה. עם זאת, התגובה הטובה יותר היא להשמיע את ההתקדמות.

 

אתם מבינים, מכונות יכולות להתגבר על ההטיות המזהמות את נתוני האימונים שלהן אם הן יכולות לכייל ללא הרף את האלגוריתמים שלהם מול נתונים בלתי משוחדים . בביטוח, ULR מספק צפון אמיתי כזה. על פי בדיקת ה- ULR, ה- AI היה קובע במהירות כי “נעצר” אינו ניבא באותה מידה לטענות ברחבי האוכלוסייה. ככל שמצטברים נתונים, קבוצת ‘נעצר’ הייתה מחלקת-משנה, מכיוון שהאיחוד האירופי יגלה שעבור אנשים מסוימים שנעצרים פחות מנבא טענות עתידיות מאשר לאחרים. האלגוריתם יתקן את עצמו, תוך התאמת משקלו של נתון זה כדי לפצות על הטיה אנושית.

 

(כאשר מערכת מואשמת בהטיה, ההגנה המופעלת על-ידי מנהלת משהו כמו: “אבל אנחנו אפילו לא אוספים מין, גזע, דת או העדפה מינית.” התמרמרות כזו אינה במקומה כפליים. כפי שניתן לראות, ניתן לפגוע במערכות ללא ידיעה ישירה על גורמים אלה. אחרת, הדרך הטובה ביותר למערכות מכויל ULR לנטרל הטיה היא לדעת את הגורמים הללו.

 

בשורה התחתונה: בעיות המתעוררות תוך שימוש בחמישה גורמים אינם מכפילים את במיליוני נתונים – הם מחולקים על ידי .

 

המכונות מגיעות. נראה עסוק.

 

שלב 3 עדיין לא קיים, אבל זה עתיד שעלינו לחבק ולהתכונן אליו. זה מחייב את חברות הביטוח לארגן מחדש את מסע הלקוחות שלהם כדי להיות דיגיטלי לחלוטין, ולהשיב מחדש את המערכות והתהליכים שלהן על מצע AI. בתחומי שיפוט רבים זה גם דורש חשיבה מחודשת על אופן הסדרת תמחור הביטוח. אימוץ מבחן ה- ULR יהיה צעד גדול קדימה. באירופה, המסגרת הרגולטורית עשויה להיות מוכנה לשלב -3 עם ציוצים קלים. בארה”ב, תהליך הגשת שיעורי בטבלת הכפל הפשוטה והסטטית לבחינת אנוש אינו מתרחש כאשר אנו עוברים משלב 2 ל -3. לכל הפחות, על הרגולטורים לאפשר לטבלאות בדיקה אלה לכלול עמודה עבור שחור מבחן ULR יבטיח כי אלה לעולם לא יגרמו נזק רב מתועלת, ואילו גורם תמחור נוסף זה יאפשר לטכנולוגיות מתפתחות להועיל למבטחים ולמבוטחים כאחד.

 

נעים לפגוש אותך

 

כשאנחנו פוגשים מישהו בפעם הראשונה, אנו נוטים לגוש אותם עם אחרים שאיתם הם חולקים קווי דמיון עם פני השטח. זה טבע אנושי וזה יכול להיות לא הוגן. ברגע שאנו לומדים יותר על אותו אינדיבידואל, פסקי הדין השטחיים מקווים מקווים להערכה מבוססת ראיות. זו התקדמות מבורכת והיא מופעלת על ידי מודיעין ונתונים.

 

מה שהבינה והנתונים עשו למען האנושות לאורך ההיסטוריה שלנו, בינה מלאכותית ונתונים גדולים יכולים להתחיל לעשות עבור ענף הביטוח. זה לא רק אפשרי יותר ויותר כעניין של טכנולוגיה, זה גם רצוי כעניין של מדיניות. יתר על כן, מכיוון שהוא ייצג יתרון תחרותי עצום, הוא גם בלתי נמנע ברובו. מי שלא מצליח לאמץ את החיתום המדויק ותמחורו של שלב 3 ייבחר בסופו של דבר לרעה מחוץ לעסקים.

 

ביטוח הוא עניינו של הערכת סיכונים ומדיניות תמחור שתואמות. מכיוון שאף שני אנשים אינם דומים זה לזה, פירוש הדבר להתייחס לאנשים שונים באופן שונה. בפעם הראשונה בהיסטוריה אנו עומדים על יכולתנו לעשות זאת בדיוק .

 

שיתוף ב facebook
שיתוף ב whatsapp
שיתוף ב twitter
שיתוף ב linkedin
שיתוף ב telegram
שיתוף ב email

תגובות פייסבוק

תגובות חשבון וורדפרס

כתיבת תגובה