מלמידת מכונה למכונת כסף
ארגוני אנטרפרייז לא ממהרים לאמץ טכנולוגיות חדשות כמו למידת מכונה או למידה עמוקה, ולא סתם - ישנם סיכונים במימוש פרויקטי AI ● כיצד ניתן לסייע לארגון להימנע מלהשאיר כסף על הרצפה, וליהנות מהאפשרויות הגלומות בשימוש במודלים חכמים?
ארגוני אנטרפרייז לא ממהרים לאמץ טכנולוגיות חדשות. בטח לא כשזה מגיע למושגים כמו למידת מכונה (ML), או למידה עמוקה (DL), תתי-תחום של בינה מלאכותית (AI) בהם המחשב מצליח לבצע משימה על ידי קוד ולאחר מכן משפר את עצמו תוך כדי פעולתו. ולא סתם. ישנם סיכונים במימוש פרויקטים בתחום ה-AI. כשנכנסים ליישום כזה אנו יודעים מה אנחנו רוצים להשיג, אבל התוצאה לא מובטחת. למשל, אנחנו רוצים למצוא דפוסים חדשים או אנומליות, אבל אולי הן לא קיימות, או שיכול להיות שהנתונים עליהם רוצים להתבסס בעייתיים או לא איכותיים. אולי אפילו אסור לנו להשתמש בהם מבחינה רגולטורית.
היבט נוסף מורכב לפרויקטים כאלה הוא תחושת חוסר השליטה וחוסר הוודאות בשימוש ביישומים ה"חושבים בעצמם" ונראים לנו כמו "קופסה שחורה". החשש שהתוצאות לא מהימנות, לא נכונות או יובילו לטעויות עסקיות, ואפילו לתביעות, פשוט מונע את יישום הפרויקט מלכתחילה. האמת היא שגם תמיד קל לנו יותר לקבל טעויות אנוש ולהפנות לשם את האצבע בהקשרים של אחריות ואשמה.
אז מה בכל זאת אפשר לעשות כדי לא להשאיר כסף על הרצפה, ולאפשר לארגונים אלו ליהנות מהאפשרויות הגלומות בשימוש במודלים חכמים? הרבה!
אחת הדרכים להפחית ולגדר את הסיכונים, בכל הנוגע לפרויקטים של למידת מכונה או למידה עמוקה, היא לקבל את העובדה שאכן יש מורכבות וסיכון, להבין את האלמנטים והרכיבים המאתגרים וכחלק ממתודולוגיית העבודה להגדיר נקודות החלטה ונקודות יציאה. אלה יאפשרו מצד אחד למזער את ההשקעה ומצד שני למצוא חלופות (FallBack).
היבט נוסף המאפשר להפחית סיכונים נוגע בהיבטי הפיתוח האג'ילי. פיתוח אג'ילי הוא באז שתופס חזק בשנים האחרונות וכולם רוצים להיות שם, אבל הוא לא תמיד בא בהלימה עם תהליכי העבודה בארגונים גדולים. ארגון אנטרפרייז משול לא אחת לספינה גדולה, בעוד פיתוח של מודלים בתחום למידת המכונה חייב להיות דינמי, במעגלי התפתחות מהירים ותדירים. לכן, כדאי להגדיר פרויקטים מסוג זה באופן שונה ולטפל בהם באופן נפרד, עם מתודולוגיה המתאימה להם – והכל יד ביד בצוותים משותפים עם המשתמשים בפועל.
המודל שלומד מתוך הנתונים מאמץ וממשיך הטיות
דרך אחרת להתחיל להשתמש בתפישות של בינה מלאכותית, היא לחשוף את הנהלות הארגונים והמשתמשים העסקיים לתחום בצורה חדשנית: סדנאות מדליקות שמאפשרות להם הצצה והבנה של מודלים בתחום, דוגמאות לאופן מימוש פרויקטים בנושא, הצגת מקרי מבחן דומים מהארץ ומהעולם, ואפילו ירידה לדוגמאות של אלגוריתמים. בדרך זו אנו גם מפיגים את החששות וגם מקדמים את היכולת לחשוב על רעיונות עסקיים חדשניים למימוש.
מענה לסיכונים העסקיים הנוגעים לנכונות תוצאות המודל, ניתן דרך בניית מנגנונים אוטומטיים לתיקוף שוטף של המודל. בנוסף, נבנים מנגנונים על מנת להתמודד עם היבטים רגישים יותר, כמו ההוגנות והאתיות של המודל. מה הבעיה? שבחיים האמיתיים ההתנהגות האנושית שלנו היא לא תמיד הוגנת, והיא עלולה להיות מוטה בהקשרים של אוכלוסיות שונות (למשל מגדר ומגזר), דבר המוביל לכך שבנתונים עצמם יש הטיות. וכך, המודל שלומד מתוך הנתונים מאמץ וממשיך את אותן ההטיות. ההתמודדות מגיעה דרך איתור ההטיות האפשריות ויצירת מערך בקרות לבחינה אוטומטית ומתמשכת עליהן.
שימוש נכון במודלים של למידת מכונה ולמידה עמוקה מביא לפריצות דרך עסקיות ומאפשר לארגון להשיג מהר יותר וטוב יותר את מטרותיו. אל תתנו לאתגרים שמלווים יישום כזה להפריע לכם ולמנוע מכם את כל הפלוסים שיש בהם. פשוט טפלו בהם בצורה מושכלת.
הכותבת היא מנהלת חטיבת פרויקטים במטריקס BI, זרוע ה-BI והביג דטה של מטריקס
תגובות
(0)