Google Home נתפס מדקלם חדשות מזויפות

הרמקול שמפעיל את העוזרת האישית של הענקית ממאונטיין וויו הוא אולי חכם, אבל לאחרונה מתברר שהוא מפיץ חדשות מזויפות, למשל על הנשיא לשעבר אובמה - והוא עושה זאת אפילו בלי לגמגם

Google Home. צילום: יח"צ

גוגל (Google) התנצלה לאחרונה לאחר שה-Google Home שלה נתפס קורא קטעי חדשות מזויפות בתגובה לשאלות מסוימות, כשהוא מציג את הדברים כתשובה הנכונה.

לצערנו, ענתה גוגל, "יש מקרים שבהם אנו כוללים אתר עם תוכן לא הולם או מטעה". גוגל מסרה כי היא שוקדת כעת על פתרון הבעיה, אבל רק על כל מקרה שייחשף לגופו.

במהלך סוף השבוע גילו בעלים של הרמקול החכם של גוגל, אשר מופעל באמצעות ה-Google Assistant AI, שכאשר שאלו את העוזרת האישית שלהם האם ברק אובמה מתכנן הפיכה, התשובה שזו סיפקה לא הייתה לא בדיוק מה שציפו לשמוע.

אובמה במיטה עם סין הקומוניסטית

על פי פרטים שנחשפו באופן בלעדי ב-Western Centre for Journalism, "לא רק שאובמה יכול להיות במיטה עם סין הקומוניסטית, אלא שאובמה עשוי למעשה לתכנן הפיכה קומוניסטית בסוף כהונתו ב-2016", כך ענה מכשיר ה-Google Home לתהייה בנוגע להפיכה שתכנן לכאורה הנשיא לשעבר.

אז למה או איך קורה שגוגל מספקת דחיפה לקונספירציית ימין שכזו? Google Home, כך מסתבר, שואב את התשובות שלו מתכונת גוגל אחרת בשם Snippets, אשר עושה שימוש באלגוריתם בכדי להגיב לשאלות שמוכנסות למנוע החיפוש שלה.

בעיקרון התוכנה מביאה "קטעים מומלצים" של תוצאות החיפוש בגוגל כך שיופיעו בחלק העליון של הדף, וזאת בעבור מונחי חיפוש מסוימים. שלא כמו ה-Knowledge Graph, אשר מראה תוצאות ראויות שמגיעות ממקורות אמינים, "הקטעים מ-Snippets מספקים התאמה אוטומטית ואלגוריתמית לשאילתות חיפוש נתונות", כך הסבירה גוגל לאתר Recode.

במילים אחרות, המידע מאותר לראשונה על ידי בוט ממקורות שאינם בהכרח אמינים, ואז ה-Google Home מקריא אותם כמענה לשאלות כשהוא מתמקד בקטעים המומלצים, כיוון שזה לא מעשי בעבורו להקריא רשימה של תוצאות חיפוש.

אגב, Alexa של אמזון (Amazon) – השירות המקביל לזה של גוגל – מנסה גם היא לענות על שאלות, אבל על פי Recode, היא פשוט אומרת: "אני לא יכולה למצוא את התשובה לשאלה ששמעתי", בתגובה לאותה השאלה על אובמה.

לאנשים יש הרבה אמון במנועי חיפוש

הבעיה, על פי דיוויד רואו, פרופסור למחקר תרבותי באוניברסיטת מערב סידני (University of Western Sydney), הייתה שהקטעים מ-Snippet הם לפעמים שגויים. "זה תוכנן כדי למשוך את העין אליו – זו התשובה הראשונה שנמצאת ב-breakout box, ויש לה את כל הסמנים המוסמכים", הוא אמר. "אבל היא יכולה להיות מזויפת".

פרופ' רואו אמר שפתרון אחד יהיה שגוגל תהפוך את התהליך לפחות אוטומטי ותעבור "להשתמש בבני אדם כדי להפעיל שיקול דעת כאן ולא במכונות שלה", הוא אמר. "זו, כמובן, החלטה בעבור גוגל שרוצה לצמצם את מידת התערבות בני האדם בכך מנימוק של מהירות ועלות".

גוגל, כאמור, פרסמה הצהרה שהיא עובדת על הבעיה ופירטה כי "כאשר אנו מקבלים התראה על Featured Snippet שמפר את המדיניות שלנו, אנו עובדים במהירות כדי להסיר אותו, כפי שעשינו במקרה זה. אנו מתנצלים על כל פגיעה שנגרמה בשל כך".

פרופ' רואו הבהיר כי אף שחלק מהתשובות המזויפות אולי נראות בבירור כלא נכונות, לא בטוח להניח כי כל אדם יבחין בכך. "הן למבוגרים והן לילדים יש הרבה אמון במנועי חיפוש, אבל לילדים יש אפילו יותר", הוא אמר.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים