"צו השעה: אבטחת סייבר חייבת להיטמע בדחיפות במערכות AI"
כך התריעה לינדי קמרון, ראשת המרכז הלאומי לאבטחת סייבר בבריטניה, ה-NCSC, בראיון, בו הדגישה חשש שחברות טק ימכרו מערכות AI "מבלי לחשוב על הסיכונים של ניצול לרעה של מוצרים ושירותים אלה על ידי האקרים"
"אבטחת מידע והגנת סייבר חייבות להיות מוּבְנוֹת בדחיפות במערכות בינה מלאכותית. זהו רכיב מפתח לכך שתהיינה מערכות מאובטחות כבר בשלבים המוקדמים של פיתוח בינה מלאכותית. כאשר חברות ממהרות לפתח מוצרי AI חדשים, יש חשש שהן מתעלמות מהיבט האבטחה. בשל כך, להתקפות זדוניות עלול להיות אפקט הרסני", כך התריעה לינדי קמרון, ראשת NCSC, המרכז הלאומי לאבטחת סייבר בבריטניה, הנמצא בסוכנות הביון GCHQ (המקבילה הבריטית ל-8200 ול-NSA) – הגוף שהיה יורשו של בלֶצְ'לי פארק.
"בעתיד, AI תיקח חלק בהיבטים רבים של חיי היומיום – מהבתים והערים שלנו ועד לביטחון לאומי ברמה הגבוהה ואפילו בעת מלחמות", אמרה קמרון בראיון ל-BBC. "אבל", היא המשיכה וטענה, "עם כל היתרונות, יש גם סיכונים".
"רוצה שספקיות ה-IT המפתחות את המערכות יחשבו על זה"
"החשש הוא שחברות – המתחרות כדי להבטיח את מעמדן בשוק צומח", הזהירה, "יתמקדו בהוצאת המערכות שלהן למכירה מהר ככל האפשר, מבלי לחשוב על הסיכונים של ניצול לרעה מוצרים ושירותים אלה על ידי האקרים".
"היקף הגידול והמורכבות של המודלים הללו", ציינה קמרון, "הם כאלה – שאם לא ניישם את העקרונות הבסיסיים הנדרשים של האבטחה – כולל פיתוח האבטחה כבר בשלבים המוקדמים – אז יהיה הרבה יותר קשה לבנות מערכי אבטחה שיותאמו להם באופן מלא". היא סיימה באומרה כי "אני לא רוצה שהצרכנים והלקוחות יצטרכו לדאוג. אבל אני כן רוצה שספקיות ה-IT המפתחות את המערכות הללו יחשבו על זה".
"בזמנים שבהם אנחנו נעשים תלויים בבינה מלאכותית עבור דברים טובים באמת, כמו משלוח מזון, כלי רכב אוטונומיים, שירותים, או כל מיני דברים ש-AI תעזור לשלוט בהם בעתיד, התקפות על המערכות האלה עלולות להיות הרסניות", אמר רוברט האניגן, ראש ה-GCHQ לשעבר.
"להשיב לשאלה 'עד כמה אנחנו יכולים לסמוך על AI?' זהו אתגר מהותי עבור כל מי שעוסק בפיתוח מערכות מבוססות AI וכל חבר הנהלת ארגון", ציין האניגן. לדבריו, "ככל שמערכות משתמשות יותר ויותר ב-AI, המתקפות עלולות להיות יותר הרסניות. הסכנות אינן רק של האקרים המבקשים לגרום לשיבוש – אלא חשש לפגיעה רחבה יותר בביטחון הלאומי. אם נעשה שימוש בבינה מלאכותית כדי לנתח תמונות לוויין במסגרת פעילות צבאית, הרי שתמיד קיים הסיכוי והסיכון כי תוקף זדוני עלול יהיה להבין כיצד לזהות את הטנקים האמיתיים – בין, או לצד – מערך של טנקים מזויפים".
תגובות
(0)