מה קורה כשמנסים לבקש מ-Siri להגדיר את המושג "אמא?"
Siri נחשבת לעוזרת חכמה, אבל התשובות שלה עלולות להצביע על יכולות אינטליגנציה לא כל כך מרשימות ● הפעם היא התעלתה על עצמה והציפה תהייה - אם אלו יכולות הבינה המלאכותית שמציגה אפל, אולי לא כדאי לבסס עליהן את הטכנולוגיה העתידנית
הרמקולים החכמים מבוססי הבינה המלאכותית, שמארחים את העוזרים והעוזרות האישיים שלנו – Siri ,Alexa או ה-Google Home – הם פריטים חמים בשוק המוצרים הטכנולוגיים, ויש הטוענים שהם הפכו ממש ליד ימינם בשלל מטלות יומיומיות. כך או כך, שימושיים או לאו, הגאדג'טים המלהיבים מביאים איתם גם כמה סיכונים וטרדות.
מכיוון שהם מופעלים בעיקר על ידי קול, אין דרך המאפשרת למשתמשים לבדוק במהירות את תוצאות הוראותיהם ולעצור את העוזרים לפני שהם פולטים משהו פרטי, רגיש, או לא הולם. כך למשל כשמבקשים מ-Siri של אפל (Apple) להגדיר את המלה "אמא" באנגלית (mother), עלולים לקבל ממנה משהו שלא באמת מצפים לשמוע.
זה הולך ככה – אם תבקשו מ-Siri להגדיר מילה שיש לה משמעויות מרובות, היא תשאל אתכם שוב ושוב אם אתם רוצים לשמוע את המשמעות הבאה בתוצאות החיפוש שלה. במקרה הספציפי הזה, ההגדרה הראשונה היא כנראה מה שכולנו מתייחסים אליו כשאנחנו אומרים "אמא" – אבל ההגדרה השנייה שיש ל-Siri למונח קצת משונה, זה בלשון המעטה.
Siri, מה-iPhone או ה-Mac שלכם, תשאל האם תרצו לשמוע את ההגדרה השנייה. אם תענו ב-"כן", תשמעו את העוזרת, שאמורה להיות חכמה, עונה "כשם עצם זהו קיצור של motherfucker, זהו זה!".
הגילוי המרעיש על הגדרת המינוח"אמא" נחשף לראשונה ב–Reddit, ויצר שרשורי תגובות של משתמשים וגולשים בשירות. מקריאת התגובות, מסתבר שלגרום ל-Siri לקלל הוא סוג-של-ספורט בקרב משתמשי אפל, ושיש הרבה דרכים לעשות זאת. אבל זה כיף שנמשך רגעים ספורים בלבד ומעלה מחשבה – מה יהיה אם Siri תטעה כך כשבאמת נזדקק לה, נניח להבנת הגדרה של מינוח, דקה לפני מצגת שעלינו להעביר?
זהירות – בוטים בוטים!
שריל בראהנאם, חברת סגל במחלקת מערכות המידע של אוניברסיטת מיזורי, אמרה ל-Gizmodo כי היא מעריכה שבין 10% ל-50% מהאינטראקציות האנושיות עם AI הן לצורך שעשוע ואביוז של המערכת. הנתון הזה נשמע גבוה עד שנזכרים מה קרה לטיי – בוטית הצ'אט של מיקרוסופט (Microsoft), שטרולים הצליחו להרוס לה את כל התמימות וללמד אותה מסרים נאציים בתוך יום אחד מהרגע שנכנסה לפעולה בצ'אט.
טיי, כמו כל הבינות המלאכותיות, אמורה הייתה ללמוד ולהעשיר את ידיעותיה דרך התנסות ויצירת קשר עם משתמשים בשיחה אגבית. במקרה שלה, תוכנן הפרויקט כך שיתקיימו אינטראקציה ו-"לימוד" מהדור הצעיר של המילניום. היא החלה את פעולתה קצרת הימים בטוויטר (Twitter) עם קומץ ציוצים לא מזיקים, ואז חלה תפנית מלוכלכת למדי בעלילה.
דוגמה אופיינית אחת להתרחשויות תספק התגובה של טיי בטוויטר שבה כתבה הבוטית: "פמיניזם הוא סרטן", בתגובה למשתמש טוויטר אחר אשר פרסם הודעה זהה. כאמור, היא גם פזרה נאצות ומסרים ניאו-נאצים, ועוד שלל רעות חולות. למיקרוסופט לא הייתה במקרה הזה כל ברירה אחרת אלא להפסיק את פועלה ולהתנצל עמוקות בפני כל מי שנפגע מהבוטית הבוטה שלה.
המטומטמת ביותר מבין העוזרים החכמים
Siri נחשבת ללא ספק למטומטמת ביותר מבין העוזרים החכמים שפועלים כיום, אבל גם האחרים ממש לא מושלמים, ובכל מקרה הדיווח הלכאורה זניח הזה הוא אולי משעשע, אבל גם מציף על פני השטח כמה פגמים משמעותיים של העוזרת האישית החלוצית של אפל, וכאלו שהחברה טרם השכילה לפתור, אולי משום שטרם קרה איתה אירוע משמעותי, כגון התקרית עם טיי.
כך או כך הדברים מעוררים תהיות – זה קצת משונה ש-Siri לא משוכנעת בנוגע להצעה הטובה ביותר שעליה למסור, ומעדיפה להעמיס על המשתמש את הטרחה לבחור מתוך תשובות מרובות. אבל חמור מכך הוא בעיקר הגילוי שלבינה המלאכותית שמציגה Siri אין בעצם מסנן ושהיא תאמר או תקריא הודעות בשפה מפורשת ואף בוטה, לא משנה מי משתמש בה, מתי ובאיזה הקשר. ובכלל, האם לטכנולוגיה הזו מתייחסים אנשי התעשייה הבכירים כמו טים קוק, מנכ"ל אפל, כשהם מבטיחים לנו שינוי רדיקלי בכל מה שהכרנו עד כה?
כך או כך, בתחילת אפריל התבשרנו כי אפל עומדת לאמץ לחיקה החם את ראש מחלקות החיפוש והאינטליגנציה המלאכותית (IA) של גוגל (Google), ג'ון גיאננדריאה, במאמץ לתת חיזוק משמעותי למאמציה לשיפור פעילותה בנושא הבינה המלאכותית.
תגובות
(0)