על רקע הביקורות והחקירות: פייסבוק משיקה כלי "למאבק בתוכן שנאה"
החברה, שבאחרונה נחשף בתקשורת שהיא לא עושה מספיק להסרת תכני שנאה מהרשת החברתית, השיקה טכנולוגיה שלטענתה עושה בדיוק את זה ● האם הפעם היא אמנם תוריד דרמטית את השיח הפוגעני, או שזה עוד צעד למירוק המצפון?
פייסבוק סובלת בחודשים האחרונים משורה של ביקורות וחקירות על פעולותיה, או חוסר פעולותיה, בנושאים כגון תכני השנאה הרבים שמפורסמים בה, והחשיפות שהיא יודעת על השפעות מזיקות שיש בפלטפורמות שלה ולא עושה כלום כדי למגר ואף לצמצם אותן. על רקע זה, ככל הנראה, היא שינתה את שמה למטא, והערב (ד') היא עושה צעד נוסף ומשיקה כלי שלדבריה, נועד על מנת להיאבק בתוכן השנאה.
החברה הכריזה על מערכת בינה מלאכותית חדשה שלטענתה, תסייע לה להתמודד טוב יותר עם התכנים הפוגעניים שמפורסמים בפלטפורמות שלה. בינתיים מטא ניסתה אותה רק על פייסבוק ואינסטגרם, אבל לא על ווטסאפ ומסנג'ר, שהן אפליקציות מוצפנות מקצה לקצה. הטכנולוגיה החדשה זכתה לכינוי FSL (ר"ת Few Shot Learner), ובמטא-פייסבוק אומרים שהיא תקצר משמעותית את הזמן שנדרש כדי לגלות ולהסיר תכני שנאה – ממספר חודשים, לדבריהם, לכמה שבועות.
"נוצר צוואר בקבוק משמעותי"
הביקורת על הפצת תכני השנאה ברשתות החברתיות, ובמיוחד בפייסבוק, מובעת כבר כמה שנים, אבל בחודשים האחרונים היא תפסה תאוצה בעקבות החשיפות של פרנסיס האוגן, עובדת לשעבר בחברה. האוגן הדליפה לוול-סטריט ג'ורנל ולאמצעי תקשורת נוספים עשרות אלפי מסמכים פנימיים בחברה, שלדבריה מראים שהיא מודעת לכך שאינסטגרם היא פלטפורמה ממכרת ופוגעת בדימוי הגוף של נערות – ולא עושה שום דבר כדי לטפל בכך.
בנוסף, מהמסמכים עולה כי מארק צוקרברג, מנכ"ל החברה, היה מודע לכך שהפלטפורמה שימשה להגברת דיבור השנאה, וזאת על אף שהעיד אחרת לגמרי כשהתייצב לחקירה בפני הקונגרס האמריקני. האוגן אמרה בראיון לתוכנית היוקרתית 60 דקות כי "בפייסבוק ידעו שאם הם ישנו את האלגוריתם כדי שיהיה בטוח יותר, אנשים יבלו פחות זמן באתר, הם ילחצו על פחות מודעות, והחברה תרוויח פחות כסף".
עוד ניתן ללמוד מהמסמכים שבניגוד לטענתה של פייסבוק שכלי הבינה המלאכותית שלה מסיר כ-90% מתכני השנאה שמפורסמים ברשת החברתית, הנתון עומד על 5% בלבד. עכשיו אומרים בחברה שנוצר צוואר בקבוק משמעותי, מאחר שכדי שמערכת הבינה המלאכותית הנוכחית שהחברה משתמשת בה תזהה תכני שנאה, צריך לתייג אלפי ואף מיליוני דוגמאות על מנת לאמן אותה. לעומת זאת, ציינו, מערכת ה-FSL זקוקה למעט מאוד נתוני אימון כדי ללמוד האם התכנים עומדים בתנאי השימוש של הפלטפורמה או לא.
טכנולוגיית ה-FSL היא טכנולוגיה משלימה, שעוזרת למערכות האחרות שבהן פייסבוק משתמשת כדי לזהות תכני שנאה. בחברה ציינו שהמטרה של FSL, לאורך זמן, היא לשפר את הביצועים של כל מערכות הבינה המלאכותית שלה, תוך שימוש באותו בסיס ידע ושדרה אחת משותפת כדי להתמודד עם סוגים שונים ורבים של הפרות. הכלי אגם אמור לעזור לקביעת המדיניות, לתיוג ותהליכי עבודה של חקירת התכנים ולגשר על הפער בין תובנה אנושית לכלי לימוד מכונה.
קורנליה קרפצ'ה, מנהלת מוצר בצוות הבינה המלאכותית של מטא, אמרה שהיא מאמינה ש-FSL יהיה כלי שיעזור לחברה באופן פנימי, במיוחד בהכשרת בוחני התכנים. זאת, מאחר שהוא "יכול לעזור להביא דוגמאות מדויקות במהירות רבה יותר". לדבריהם, המטרה של הטכנולוגיה היא להיות לצד בוחני התוכן האנושיים, ולא להחליף אותם.
הטכנולוגיה שעומדת מאחורי FSL פותחה בעיקר בארצות הברית, אבל בחברה אומרים שהיא תוצאה של מחקר גלובלי, שיצא לדרך כבר לפני יותר משנתיים, ומבוסס על הרבה מאוד טכנולוגיות ומתודות. לפי אנשי פייסבוק, הטכנולוגיה תומכת ביותר מ-100 שפות – גם בעברית.
תגובות
(0)