גוגל לא תשתמש בבינה מלאכותית בעבור אמצעי לחימה
אחרי שורת לחצים הענקית ממאונטיין וויו בוחרת להפגין מנהיגות אחראית ● פרסמה שורה של עקרונות יסוד בנוגע לטכנולוגיה החדשנית שינחו את עבודתה בתחום בעתיד ושם הודיעה על כוונתה להימנע כליל מחיבור בין AI לכלי לחימה
גוגל (Google) הודיעה ביום ה' האחרון כי לא תשתמש בבינה מלאכותית לכלי נשק או "למטרה או באופן ישיר במתקנים המזיקים לאנשים". את הדברים ניתן ללמוד משורה של עקרונות שניסחה החברה בעבור טכנולוגיות מתקדמות אלה, שכוללות למידת מכונה ו-AI.
הנסיגה של הענקית משילוב AI ואמצעי לחימה החלה בהודעה של גורמים מטעם גוגל, שבאה בתחילת החודש, ושבישרה לעולם כי הענקית לא תחדש חוזה להמשך פרויקט Maven עם משרד ההגנה האמריקני. מדובר במיזם שבו שקדו מדענים על הוספת בינה מלאכותית לרחפנים, לצורך פענוח תצלומי אוויר.
הפסקת שיתוף הפעולה המתכוננת עם הפנטגון לא הגיעה יש מאין, אלא היא תולדה של לחץ מסיבי פנימי בחברה – ההחלטה באה בעקבות התנגדות חזקה בקרב עובדי ענקית הטכנולוגיה, כשבמחצית מאי נודע אף שכמה מהם התפטרו ושאלפים אחרים מהם חתמו על עצומת מחאה כנגד השתתפות גוגל בפרויקט של משרד ההגנה. העובדים של גוגל הביעו חשש גדול מפני כך שהפרויקט יהווה את הצעד הראשון לקראת שימוש בבינה מלאכותית ל"מטרות קטלניות".
בעבר התבטאו כבר קברניטים שונים מעמק הסיליקון כנגד החדרת יכולותיו העוצמתיות של תחום ה-AI לזירה הצבאית. אילון מאסק, יזם בולט ומוביל דעה בזירה הטכנולוגית, טען כי בוטים שישולבו כאמצעי לחימה, יתפסו שליטה ועצמאות, שיביאו על האנושות את מלחמת העולם ה-3 ואולי אף את להכחדתה.
סט סטנדרטים ל-AI כדוגמה לתעשייה כולה
ביום ה' פרסם מנכ"ל גוגל, סונדר פיצ'אי, פוסט בבלוג שלה, ובו תיאר את מדיניות הבינה המלאכותית שאימצה הענקית, וציין כי למרות שהחברה שלו לא תשתמש ב-AI לנשק, "נמשיך את העבודה שלנו עם ממשלות ועם צבא בתחומים רבים אחרים", כולל ביטחון סייבר, וחילוץ והצלה.
עוד כתב פיצ'אי בפוסט כי גוגל משתמשת בבינה מלאכותית בכדי "לעזור לאנשים להתמודד עם בעיות דחופות", כגון חיזוי של שרפות, לסייע לחקלאים, לאבחן מחלות או למנוע עיוורון. "אנו מכירים בכך שטכנולוגיה חזקה כזו מעוררת שאלות רבת עוצמה באותה מידה לגבי השימוש בה", הוסיף וכתב המנכ"ל בבלוג.
"לאופן שבו תתפתח הבינה המלאכותית ולאופני השימוש בה תהיה השפעה משמעותית על החברה במשך שנים רבות. כמובילים בתחום ה-AI, אנחנו מרגישים אחריות עמוקה לעשות את זה נכון", כתב פיצ'אי. המנכ"ל ציין כי תכניות ה-AI של גוגל יהיו מתוכננות בעבור יישומים ש"מועילים מבחינה חברתית" וש"נמנעים מיצירת או חיזוק הטיה לא הוגנת".
לפי פיצ'אי, העקרונות גם קוראים לכך שיישומי AI יהיו "בנויים על בטיחות ונבדקים לבטיחות", בכדי שיפגינו אחריות כלפי אנשים וכדי ש"ישולבו בהם עקרונות לעיצוב הפרטיות".
עוד התחייב האדם מספר אחד בגוגל כי החברה תמנע משימוש בטכנולוגיות כלשהן "שגורמות או צפויות לגרום נזק כולל". פיצ'אי הבהיר כי פירוש הדבר הוא הימנעות מ"נשק או מטכנולוגיות אחרות שמטרתן העיקרית או יישומן הוא לגרום בכלל או לגרום ישירות לפגיעה באנשים" ובמערכות ש"אוספות או עושות שימוש במידע לצורך מעקב המפר נורמות מקובלות בעולם".
מספר חברות טכנולוגיה כבר הסכימו לעקרונות הכלליים של שימוש בבינה מלאכותית למטרות חיוביות בלבד, אבל גוגל – השותפה בארגון Partnership on Artificial Intelligence, שכולל עשרות חברות טכנולוגיה המחויבות לעקרונות AI – החליטה כנראה להפגין מנהיגות ולהציע סט מדויק יותר של סטנדרטים, שאותו יוכלו לאמץ גם גורמים אחרים בתעשייה.
תגובות
(0)