מחקר: כמעט מחצית מהציבור בישראל כבר התנסה בכלי AI
מחקר חדש של ESET ישראל: 70% מהציבור המקומי מכירים כלים של בינה מלאכותית ● 47% כבר התנסו בכלים השונים של בינה מלאכותית, כאשר מרביתם התנסו ב-ChatGPT
נראה כי הבינה המלאכותית הפכה לחלק בלתי נפרד מחיינו. כמה מהציבור הישראלי מכירים כלים של בינה מלאכותית? מהם הכלים הפופולריים ביותר ולאילו מטרות משתמשים בכלים השונים? האם הציבור תופס את הבינה מלאכותית כמקדמת או מזיקה לאנושות? מחקר חדש מציג מענה לשאלות: כ-70% מהציבור הישראלי מכיר כלים של בינה מלאכותית, כאשר ChatGPT הוא הכלי המוכר ביותר (59%).
כ-47% מהציבור כבר התנסו בכלים השונים של בינה מלאכותית, כאשר מרביתם התנסו ב-ChatGPT, חלקם העיקרי הוא מקרב צעירים מהמגזר החילוני; כך לפי מחקר חדש ביוזמת ESET ישראל.
את הסקר ערך הסניף הישראלי של חברת אבטחת המידע, בשיתוף מכון גיאוקרטוגרפיה, בקרב 500 מאזרחי המדינה, והוא מהווה מדגם מייצג של האוכלוסייה בישראל, עם סייג אחד: הוא נערך בקרב אזרחים.יות הגולשים ברשת.
לאחר ChatGPT, שהוא הכלי המוכר ביותר, נמנו Bard עם 12%, Dall-E2 עם 12%, Midjourny עם 11% ו-Canva Magic write עם 10%.
ככלל, צעירים מכירים יותר כלים של בינה מלאכותית לעומת מבוגרים: רק מחצית מגילאי 55 ויותר מכירים את הכלים השונים.
שלוש המטרות העיקריות לשימוש בכלי AI ועם נתוני שימוש דומים הן: לצורכי פנאי (45%), עבודה (44%) ולימודים (42%). לאחר מכן לשימושים פיננסיים ולנושאי בריאות (12% בכל אחד מהם).
יותר ממחצית מהציבור (57%) מסכימים עם התפיסה, כי שימוש בכלים של בינה מלאכותית במקום העבודה יכול לקצר תהליכים. יותר משליש מהציבור סבורים כי השימוש בבינה מלאכותית יקדם את האנושות (40%), וכשליש סבורים כי הוא יסב נזק (31%). בקרב אלו שהתנסו כבר בכלים השונים, השיעורים מעט שונים: 54% סבורים שהבינה המלאכותית תקדם את האנושות, בעוד 22% סבורים כי היא תזיק.
ומה עם אבטחת מידע?
אחד הנושאים שעלה במחקר הוא תחום פרטיות המידע. מערכות מבוססות AI נשענות על שימוש רחב מאוד בנתונים ובגישה למידע אישי ורגיש, כדי לאמן ולשפר אלגוריתמים. איסוף, אחסון ושימוש בנתונים אלה מעלים שאלות קשות של פרטיות.
מהסקר עולה, כי רק 35% מהם סבורים כי שימוש בכלי AI במקום העבודה שלהם עלול לפגוע באבטחת המידע. החוקרים ציינו, כי "מערכות הבינה המלאכותית עלולות להשתמש במידע שנחלק איתן להציע שירותים או תובנות לגופים אחרים. הפער בין הסיכונים הקיימים לבין המודעות של הציבור צריך להביא לכך, שהחברות יבחנו דרכים להגנה על המידע הרגיש מפני דליפה. כבר כיום ישנן חברות האוסרות על העובדים להשתמש במערכות כמו GPT למטרות עבודה".
"גם ההאקרים כבר מכירים את היכולות של כלי AI", ציינו החוקרים, "אם בעבר היה דרוש ידע מסוים על מנת לבצע מתקפה, היום כל הידע נגיש לכל אחד בלחיצת כפתור. אם המידע הרגיש לא מוגן כראוי, ניתן להוביל לגניבת זהות, הונאה או גישה לא מורשית למידע נוסף". החוקרים הוסיפו, כי ביוני האחרון דווח ב-Bleeping Computer, כי יותר מ-100,000 חשבונות משתמש ChatGPT נגנבו על ידי נוזקות במהלך השנה האחרונה.
חוקרי ESET סיכמו וכתבו, כי "ייתכן שאנשים לא יבינו שחשבונות ChatGPT שלהם עשויים להכיל כמות גדולה של מידע רגיש שמבוקש על ידי פושעי סייבר. פלטפורמה מהסוג הזה מאחסנת את כל בקשות הקלט כברירת מחדל ובעלי גישה לחשבון יכולים לצפות בו. נוזקות לגניבת מידע הופכות בולטות יותר בגישה לנתונים של ChatGPT ואף משמשות לעתים קרובות ככלי במתקפות שניתנות כשירות. ככל שהצ'אטבוטים מוזנים ביותר ויותר נתונים, כך הם יהיו אטרקטיביים יותר עבור גורמי איומים, ולכן מומלץ גם לחשוב היטב איזה מידע אנחנו מזינים לצ'אטבוטים מבוססי ענן ולשירותים אחרים".
תגובות
(0)