טיפלתם בתמונות עם פוטושופ? AI של אדובי למדה לזהות זאת

חדשות למחליקי הקמטים, מקצרי האפים או מגדילי העיניים באמצעות תוכנת עריכת התמונות פוטושופ - החברה שהביאה לעולם את היכולות "לטפל" בתמונות היא גם זו שלימדה כעת בינה מלאכותית לזהות את המניפולציות הללו ● המטרה: מלחמה בפייק ניוז

ערכתם תמונה בפוטושופ? אותה חברה שהביאה אל כולנו את היכולות לעיבוד תצלומים ו"טיפול" בהם לצרכינו היא גם זו שלימדה כעת בינה מלאכותית לזהות זאת ואף להחזיר את התצלום למראהו המקורי.

כולנו כבר יודעים כי טכנולוגיה עשויה לקדם את העולם ולתרום לו המון יתרונות חיוביים, אבל במקביל גם די ברור כבר שהיא יכולה לשמש את מי שמעוניינים לרמות ולשקר אחרים באופן מתוחכם למדי.

למשל, לאחרונה למדנו על טכנולוגיית הדיפ-פייק (זיוף עמוק), שנשענת על יכולות בינה מלאכותית המאפשרות חיבור צילומים לכדי סרטונים שבוראים מציאות שקרית, אבל נראים אותנטיים במיוחד. סרטון שבו נראה לכאורה מארק צוקרברג, מנכ"ל פייסבוק, מדבר על היותו אדם השולט במיליארדים על ידי צבירת דטה שלהם התגלה כמזויף ועורר רעש רב בשבוע שעבר. במקרה הזה מדובר אם כן בטכנולוגיה שמאפשרת משחק במציאות ושינויה, והיא ושכמותה תופסות תאוצה כיום, ומעוררות חששות שביכולתן להפוך את תופעת הפייק ניוז לאפילו יותר מורכבת ומאיימת.

סיוע בהאטת התפשטות חדשות מזויפות באינטרנט

אדובי מקווה לעזור להאט את ההתפשטות של חדשות מזויפות באמצעות כלים שידעו לזהות מניפולציות שנעשו על תמונות. החברה עבדה עם מדענים באוניברסיטת ברקלי בכדי לפתח רשת עצבית שיכולה לזהות תמונות מזויפות שעברו עיבוד ושינוי, ולשחזר לאחור את המראה המקורי שלהן.

ל-אדובי – שהביאה לעולם את תוכנת העריכה הגרפית שלה, פוטושופ, כבר ב-1987 ושכעת מוכרת את גרסת 2019 Photoshop CC החדישה ביותר של היישום – יש כבר כמה תכונות בפוטושופ, שנועדו למנוע מאנשים להשתמש ביכולת עיבוד התמונות למען מטרות מפוקפקות. לדוגמה, כלי זיהוי התמונות חוסמים את האפשרות לבצע מניפולציה על שטרות כסף. קבצי תמונה שבהם מופיעים שטרות לא ייפתחו כלל בפוטושופ, כך שהאפשרות לשנות את האימג'ים של הכסף באמצעות התוכנה לא קיימת.

אבל, באופן טבעי, לא ניתן למנוע מאנשים לפתוח קבצים הכוללים פרצופים, אלא שכעת הכלי שפיתחו אדובי וברקלי יהיה מסוגל לגלות האם מישהו "טיפל" בפנים שמופיעים בתמונות, וכיצד.

פוטושופ. צילום: BigStock

פוטושופ. צילום: BigStock

איך עובד הפיתוח ומדוע הוא חשוב?

הכלי מזהה שנעשה שימוש ב-Face Aware Liquify של פוטושופ – אמצעי שמאפשר טיפול עדין ופשוט בפניו של אדם בתמונה. הזיהוי מסתמך על Convolutional Neural Network, שכבר אומנה על בסיס דוגמאות של דיוקנאות שנערכו בפוטושופ, בתוך עריכת היכרות עם אותן תמונות לפני השינוי.

לפני שנבדק הדיוק של הרשת העצבית, אדובי בחנה עד כמה מצליחים בני אדם, אם בכלל, לזהות שתמונות עובדו ושונו באמצעות תוכנת העריכה. החברה הראתה תמונות פנים שונות ששונו וכאלו שנותרו אותנטיות למספר מתנדבים אנושיים, וביקשה מהם להצביע כל התמונה המזויפת. משתתפי הניסוי הצליחו בזיהוי הזויף רק ב-53% מהפעמים, וזאת כששתי התמונות הוצבו לפניהם בו-זמנית ובידיעה שאחת אינה מקורית.

לעומתם, הבינה המלאכותית שאומנה לאתר מניפולציות בתמונות הצליחה באופן פנומנלי עם 99% דיוק בביצועיה. כלי האיתור החדשני מדגיש אזורים של התמונה שנראה כאילו ששונו, ויודע, כאמור, להחזיר את העריכה למצבים הקודמים של התמונה. מאחר שהאימון מבוסס על כלי קיים של אדובי, הבינה המלאכותית יכולה ממש לבטל את העריכות ולהגיע לתוצר קרוב מאוד לתמונה המקורית.

אין ספק שהחידוש של אדובי הוא צעד ראשון ומרשים במאבק בפייק ניוז ובשאר אלמנטים של מידע מטעה ומוליך שולל שמציף כיום את האינטרנט. למשל, באמצעותו נוכל לראות פחות דוגמניות מושלמות להחריד, שתצלומיהן המעובדים מציבים רף בלתי אפשרי של ממש לאידיאל היופי של נערות רבות בימינו.

אבל יש לזכור כי כיום קיימות דרכים רבות ליצור אימג'ים מזויפים. הכלי של אדובי מוגבל כרגע רק לזיהוי עיבודי תמונה שמבוצעות באמצעות מסנן face liquify בתוכנת פוטושופ, שהיא בהחלט אחת הנפוצות בשימוש לצורך ביצוע "שיפורים" בתצלומים, אבל ממש לא היחידה.

תידרש ככל הנראה עוד עבודה רבה בכדי ליצור בינה מלאכותית שתכיר את כל טכניקות העיבוד והשינוי של תמונות בתכונות השונות המשמשות לשם כך, ולבטח כזו שתדע לזהות מניפולציות מורכבות יותר, כמו סרטוני דיפ-פייק, אבל לפחות התקדמנו מעט בזכות הפיתוח האחרון.

 

 

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים