בינה מלאכותית – AI4IA

עיצוב תוכנית ביקורת מתקדמת באמצעות BENCHMARKING

מבוא והצהרה 

מעולם לא בדקתי בינה מלאכותית של ארגון (AI – Artificial Intelligence), אך כתרגיל החלטתי לסקור מידע וספרות מקצועית דיגיטלית. כפועל יוצא עיצבתי, ואני מפרט להלן, מודל מתקדם-חדשני לביקורת פנימית על מחזור הטמעת בינה מלאכותית בארגון. מסקנה משנית של התרגיל ולא פחות חשובה: איתור מידע מקצועי מחוץ לארגון (Benchmarking) הוא כלי רב עוצמה להשבחת הביקורת הפנימית.

מהי בינה מלאכותית (AI)?

תהליך ולאחר מכן מוצר שבו מנסים לדַמות ו"להלביש" את יכולות החשיבה, הניתוח וקבלת ההחלטות האנושית על אמצעים טכנולוגיים. היתרונות: בינה מלאכותית פועלת במהירות, באחידות לוגית ועל מגוון עצום של נתונים. על בסיס הנתונים שחוזרים ומתעדכנים ועל בסיס הלוגיקה הפנימית שלה, הבינה המלאכותית מסיקה מסקנות, מקבלת אוטונומית החלטות לוגיות ומשנה כללים. המטרה: לייצר כלי חדשני לניתוח מורכב באמצעות עיבוד וניתוח "ים" של נתונים, ומהם לחלץ תובנות, דרכי פעולה, תהליך קבלת החלטות טוב יותר, חדשנות ארגונית, זריזות בניתוח מידע ותגובה, ולבסס ולהרחיב את כושר התחרות והשרידות הארגונית בעולם כאוטי.

מצד שני, בהליכים כאלה ישנם סיכונים: בינה מלאכותית היא תוצר של קוד שנכתב על ידי מפתחים ונשען במידה רבה על הניסיון והשיפוט שלהם. המפתחים עלולים לטעות, ואי הוודאות שלהם יכולה להוביל לאי דיוק מכיוון שקשה להקיף ולהכיל את כל מרכיבי המציאות. כפועל יוצא, בינה מלאכותית עלולה, באמצעות המערכת הלוגית שלה, להסיק מסקנות מוטעות ולאורך זמן ההטיה יכולה להתעצם ולהיות חמורה יותר כל עוד לא ערים לכך ומתקנים את הנדרש. כמו כן, בינה מלאכותית שצריכה לקבל החלטות לגבי בני אדם – לקוחות, עובדים, ספקים – עלולה להיות מפלה ולא אתית.

חיסרון נוסף: ככל שההיגיון הפנימי של המערכת מורכב ולא שקוף דיו, הרי שהארגון, על מנהליו ועל עובדיו, ייטה לקבל כל תוצאה כאמת מוחלטת – ללא ערעור ותוך דחיית הלקוח הנפגע כי "המחשב החליט". לדוגמה: מערכת AI למתן הלוואות ומשכנתאות שכוללת בין היתר נתונים מגדריים, נטיות מיניות, מגזר, מקום מגורים, גיל, מוצא ההורים, שנת עלייה וכדומה, עשויה באמצעות הלוגיקה הפנימית של האלגוריתם לייצר מבלי משים אפליה קבוצתית ואישית. הדבר נכון לכל ארגון העוסק בקבלת החלטות באשר לבני אדם, כגון אוניברסיטאות הממיינות סטודנטים ללימודים במקצועות יוקרתיים, תהליכי קבלת עובדים בתחומים מאוד מבוקשים, וכדומה.

מודל של תוכנית ביקורת לבחינת מערכת בינה מלאכותית

להלן מודל ארגוני ובו שלבים, שיטות ותהליכים להקמה, הטמעה, תפעול ובקרת מערכות בינה מלאכותיות. באשר לביקורת הפנימית, סביר שבדיקה לפי המודל, רצוי בזמן אמת, תהווה למעשה תוכנית ביקורת מתקדמת – על מוקדיה ורכיביה.

הצורך להקים ועדה מתמדת – דירקטוריון\הנהלה לנושא בינה מלאכותית

השלב הארגוני המקדמי הוא להקים ועדה (ועדת דירקטוריון/הנהלה). המטרה: ללמוד את הנושא, לקבוע כיוון אסטרטגי לארגון, ולעסוק בסיכונים וביתרונות, בסוגיות אתיות, בקביעת יעדים בדבר שילוב בינה מלאכותית ובמימון של התוכנית.

במעלה הדרך סביר שגוף כזה או גוף מִשנה יהיה אחראי גם על ההנעה והמעקב אחר יישום אסטרטגיית בינה מלאכותית ברחבי הארגון.

בהתחשב ברגישות ובהשפעה הרבה של מערכות בינה מלאכותית על הארגון, צריכה להיות מעורבוּת וחברות בוועדה מקרב ההנהלה הבכירה של החברה. המטרה: להבטיח העלאה רוחבית של ידע מקצועי נאות ויצירת סיעור מוחות. ראוי שהמשתתפים יהיו מדיסציפלינות שונות: מערכות מידע (IT), סיכונים, משאבי אנוש, משפטים, ציות וגורמי אתיקה, גורמי שיווק, יזמי חדשנות וכדומה.

ניתוח מידע מחוץ לארגון וקבלת ייעוץ

במסגרות הללו יש ללמוד, קרוב לזמן אמת, מהנעשה בעולם (Benchmarking) ,שכן ההתפתחויות הטכנולוגיות הן דינמיות. כמו כן יש לוודא קיומן של רגולציות או טיוטות של רגולציה כדי להביאן בחשבון מבעוד מועד.

בכך לא די: עקב החדשנות המתמדת, היעדר ניסיון מוקדם בארגון והסיכונים הכרוכים בכך (תדמית, תביעות ייצוגיות, אפליה, הגנת הפרטיות, רגולציה, יישום טכנולוגיה חדשנית ובקרת התוצאות), רצוי אף לרכוש שירותי ייעוץ בתחומים רלוונטיים.

צורך להגדיר את יעדי הבינה המלאכותית, את השימושים שייעשו במערכת ואת העקרונות האתיים

אסטרטגיית ה-AI צריכה להתחיל בקביעת סדר העדיפויות הארגוני. צוות המשימה של AI צריך להחליט:

אילו יתרונות הארגון שואף להשיג: אילו תהליכים או חלקים של הארגון רצוי להפוך למעין אוטומטיים, ומהו סדר העדיפויות הנכון.

להתחיל ולתכנן אסטרטגיית יישום של בקרות: תחילה היכן שהארגון כבר החל בהפעלת תהליכים וטכנולוגיות של בינה מלאכותית.

להגדיר עקרונות אתיים: הגדרה כבר בשלב מוקדם של התהליך, תאפשר ליישם גישה אתית בפרויקטים של בינה מלאכותית וגם תעצב אמות מידה להערכה של שימושים. עקרונות אתיים יסייעו גם במגעים עם לקוחות, ספקים, רגולטורים ובעלי עניין אחרים.

הערכת סיכוני בינה מלאכותית

ברגע שהארגון כבר גיבש את דעתו לגבי מה רצוי שה-AI יעשה ובאילו תחומים ויחידות, הגיע הזמן להעריך את הסיכונים הפוטנציאליים לארגון, ללקוחות ולבעלי עניין אחרים.

יש לשים לב לכך שבעולם המערבי, ובמיוחד באיחוד האירופי, כבר מתגבשת רגולציה – טיוטת חקיקה ותקנות. מטרות הרגולציה הן להאיץ שימוש בבינה מלאכותית כדי לייצר חדשנות, פריצות דרך וקבלת החלטות טובה יותר. כתוצאה מכך ניתן להשיג גם יתרונות כלכליים, טכנולוגיים, רפואיים, ביטחוניים, חברתיים ואפילו שלטוניים. בה בעת הרגולציה באה להקטין סיכונים חברתיים חוקיים: להגן על הפרטיות, למנוע אפליות, למנוע חריגות מחקיקות קיימות, ולמנוע סיכונים ביטחוניים וארגוניים כגון סיכוני סייבר. לכן עוד בטרם התבססה רגולציה, על הארגון להעריך ולייצר הגנות על מגוון רחב של משתנים אתיים הנכללים בעיבוד הנתונים.

שלב תחילי – הטמעת בינה מלאכותית באמצעות ניסוי (פיילוט)

גישת ההטמעה הנפוצה והזהירה היא להתחיל באמצעות פרויקט פיילוט, רצוי בחלק פחות רגיש בארגון, וכך להפיק לקחים. הגישה מועילה מכיוון שהיא יכולה להקטין מראש את ההשקעה העתידית ולהתמודד עם הסיכונים עוד לפני שפועלים ליישום רחב.

הגדרת מבנה ארגוני, תפקידים ואחריות

על הארגון לבנות מבנה ארגוני ולהגדיר סמכויות ואחריות בדגש על "בעלי אחריות" (כמו בעולם הסיכונים) שאחראים לתפעול הנתונים ולטיוב שלהם (ראו להלן).

תיעוד (Documentation)

מערכות ה-AI צריכות להיות מתועדות כדי לספק מידע כיצד הן פועלות ועל אילו נתונים הן מסתמכות, וכדי לשחזר נתונים עקב תקלות ו\או לייצר תחקיר על כשלים.

תקשורת, הדרכות, נהלים

יש לערוך הדרכות, להכיר לעובדים את הטכנולוגיה וההפעלה, ולשים לב גם לסיכונים הכרוכים באיכות הניתוחים של אותן מערכות.

בהדרכות, וגם בתפעול השוטף, יש לבנות ולחדד את הצורך ביצירת ספקנות מקצועית וחובת התייעצות והעלאת דילמות תקשורת. זאת דרישה שיש לבססה לא רק בנהלים אלא אף בתרבות הארגונית.

כמובן שאת ההליכים הללו יש ללוות בנהלים, לומדות, ימי עיון ורענון.

 

ניטור: הצורך המתמשך באימות (טסטים), בקרה על תחזוקה נתונים, התפעול והאסטרטגיה

  1. הדגשים תפעוליים

הדגש באימות ובקרת תחזוקת נתונים הוא להבטיח שהפיתוח והיישום יהיה נכון, צודק, אתי, חוקי ולא מפלה. בהתאם, כל רכיבי היישום טכנולוגי (תשומות, עיבוד, פלטים ודוחות) צריכים להיות כפופים לאימות. העיקרון חל על יישום טכנולוגי שהארגון פיתח בעצמו ועל יישומים שנרכשו או פותחו על ידי ספקים או יועצים.

סביר שבמעלה הדרך הכניסו בתכנון המקורי תובנות חדשות ועוד שינויים לוגיים, כולל באשר לנתונים. לכן יש להמשיך ולבצע באופן שיטתי ומקיף בדיקות אימות (טסטים) וניטור גם לאחר שהבינה המלאכותית כבר מיושמת. זאת על מנת לוודא שכל ההרחבות הלוגיות, החשיפות החדשות, שינויים בפעילויות ובנתונים, פיתוח מחדש, שינויים בהקשר של לקוחות או בתנאי השוק, נבדקו ונוטרו קרוב לזמן אמת, או להתריע שהם עדיין מחייבים התאמה, פיתוח מחדש או החלפה.

אימות כרוך במידה של אי תלות, עצמאות ובידול מאלה שעסקו בפיתוח וביישום. בדרך כלל האימות נעשה על ידי צוות אחר שאינו אחראי לפיתוח. מצד שני ובגישה מעשית, חלק מעבודת האימות עשויה להיעשות בצורה היעילה ביותר דווקא על ידי מפתחי היישום ועל ידי משתמשים. אולם חיוני שעבודת אימות כזו תהיה כפופה לבקרה של גורם בלתי תלוי שיבצע פעילויות נוספות כדי להבטיח אימות נאות. תהליך האימות ואיכותו מחייבים סקירה ביקורתית על ידי גורמים אובייקטיביים ובעלי ידע בבקרה על הפעולות שננקטו, כדי לטפל בבעיות שזוהו על ידי אותם גורמים.

מקורות מידע נוספים המצביעים על צורך בניטור: תלונות של לקוחות ו\או עובדים, וכן מידע מהתקשורת, מרגולציה שמתהווה ומספרות מקצועית.

  1. דגשים אסטרטגיים

ככל שהארגון לומד וצובר ניסיון בטכנולוגיית AI, סביר שגם אסטרטגיית הבינה המלאכותית של הארגון תתפתח, ולכן יש לחזור ולהפעיל בדיקות על האסטרטגיה ומימושה, כפי שכבר פורטו לעיל.

כמו כן, יש לבחון מבחינה מערכתית את המועילוּת של המערכת כדי לקבוע אם היא משיגה את היעדים העסקיים. יש להשוות תפוקות מצופות מהיישום לתוצאות בפועל, וכן להשוות את התפוקות והדיוק לקבוצת בקרה בתקופה שקדמה ליישום ה-AI לעומת תוצאות בפרק הזמן שבו כבר הופעל ה-AI.