גידול בהתקפות מבוססות AI

התקפות AI מתגברות! האם הארגון שלכם מוכן? כיצד מומחי אבטחה מתמודדים עם סיכוני בינה מלאכותית ומגנים על הרשת באפקטיביות?

עלייה בהתקפות מבוססות בינה מלאכותית: אתגר אבטחתי חדש

מנהלי אבטחה חושפים: אחד מכל ארבעה ארגונים כבר הותקף על ידי AI

בעידן שבו בינה מלאכותית (AI) הופכת לכלי חיוני בכל תחומי הפעילות העסקית, צצים גם אתגרי אבטחה חדשים ומשמעותיים. על פי דוח חדש של חברת הסייבר Team8, אחד מכל ארבעה מנהלי אבטחת מידע (CISOs) חווה בשנה האחרונה התקפה שנוצרה באמצעות AI על רשת החברה. יתרה מכך, סיכוני AI נמצאים כעת בראש סדר העדיפויות שלהם, ואף עוקפים נושאים כמו ניהול פגיעויות, מניעת אובדן נתונים וסיכוני צד שלישי. בדוח מציינים כי המספר האמיתי של ארגונים שנפגעו מהתקפות מבוססות AI עשוי להיות גבוה יותר, מאחר שמרבית האיומים המונעים על ידי AI מחקים פעילות אנושית וקשים לגילוי ללא מדדים מתקדמים.

הדילמה הכפולה של ה־CISO: אבטחת AI מול שילובו הארגוני

הצורך לאפשר אימוץ AI, תוך מזעור סיכונים בלתי מובנים

הבינה המלאכותית מציבה בפני מנהלי אבטחת המידע מגוון אתגרי סייבר חדשים, החל מהתקפות יעילות במיוחד ועד לפלטפורמות טכנולוגיות פגיעות. הדאגות העיקריות של ה־CISOs הן לגבי אבטחת סוכני AI (37% ציינו זאת) והבטחה ששימוש העובדים בכלי AI תואם למדיניות אבטחה ופרטיות (36%). מעבר להתקפות פישינג ותוכנות זדוניות מבוססות AI, מנהלי אבטחה חוששים גם מהשלכות האבטחה הבלתי מכוונות של שימוש פנימי ב־AI בארגון. הנהלות בכירות דוחפות לאימוץ אגרסיבי של AI בכלל הארגון, ומומחי אבטחה נדרשים לאפשר את המעבר ולא לחסום אותו. מצב זה שם את ה־CISOs במצב מורכב: עליהם למתן סיכונים בתחום טכנולוגי שעדיין לא מובן מספיק, מתפתח במהירות וחסר בקרות.

מאימוץ AI מבוקר ועד תחלופת תפקידים ב־SOC: ההבטחה והאתגר

מנהלי אבטחה נעים בין חשש מ־Shadow AI לבין תקווה לייעול תהליכים באמצעות אוטומציה

כמעט מחצית מהחברות עדיין דורשות אישור לעובדים לשימוש בכלי AI ספציפיים – גישה שיוצרת חיכוך עם מנהלים בכירים המבקשים להרחיב את השימוש ב־AI. ישנו צורך דחוף בבקרות יעילות, שכן צוותי אבטחה מתמודדים עם שימוש לא מבוקר ב־AI ("Shadow AI"). מצד שני, ה־CISOs להוטים לשלב AI בפעילותם: קרוב לשמונה מכל עשרה CISOs צופים שתפקידי מרכזי תפעול אבטחה (SOC) יהיו הראשונים שיוחלפו על ידי AI, כאשר כמעט מחצית מהם רואים בצמצום כוח אדם גורם מרכזי לניסויים בתחום זה. נוסף לכך, הם צופים ש־AI יחליף בני אדם בתחומים כמו בדיקות חדירה, הערכות סיכוני צד שלישי, סקירת בקשות גישת משתמשים ותכנון אבטחה מקדים (מידול איומים). נתון מעניין הוא שלמעלה משני שלישים מהחברות המשתמשות או בודקות סוכני AI, מפתחות אותם בעצמן.

המלצות מאת מומחי אבטחת מידע של IPV Security:

  1. אבטחת סוכני AI – תעדפו את הגנת סוכני הבינה המלאכותית שאתם מפתחים או משלבים, וודאו שהם אינם מהווים נקודת כניסה חדשה לתוקפים אל תוך הארגון.
  2. גיבוש מדיניות ארגונית לשימוש ב־AI – הגדירו כללים ברורים לשימוש בכלי בינה מלאכותית, עם דגש על פרטיות ואבטחה, והקפידו שבקרות הגנה יופעלו כברירת מחדל.
  3. הערכת סיכונים לשימוש ב־AI – בצעו הערכות סיכונים מסודרות לכל פרויקט הכולל שילוב של AI, לרבות יישומים פנימיים, כדי לזהות ולצמצם סיכונים מוקדם ככל האפשר.
  4. ניטור וגילוי איומי AI – פתחו יכולות גילוי וניטור המסוגלות לזהות תקיפות המופעלות באמצעות בינה מלאכותית, במיוחד כאלה המדמות התנהגות אנושית.
  5. התמודדות עם "Shadow AI" – היו ערניים לשימושים לא מורשים בכלי AI על ידי עובדים, וטפלו בהם באמצעות שילוב של מדיניות, הדרכות ובקרות טכנולוגיות.

לסיכום,

העלייה בהתקפות מבוססות AI מציבה את מנהלי אבטחת המידע בפני אתגר אסטרטגי כפול: לאפשר את אימוץ הבינה המלאכותית החיונית לצמיחת הארגון, תוך ניהול סיכונים חסרי תקדים בתחום חדש ומתפתח. ההתמודדות דורשת הבנה מעמיקה של הפגיעויות החדשות ואימוץ גישה הוליסטית המשלבת מדיניות ברורה, בקרות טכניות מתקדמות ושילוב נבון של AI בפעילות האבטחה עצמה.

למידע נוסף: https://www.cybersecuritydive.com/news/ai-security-risks-agents-report/753345/

 

מעוניינים להתייעץ עם מומחה, פנו למומחי איי פי וי סקיוריטי!

לחצו כאן

 

להתייעצות מקצועית ניתן לפנות אלינו לאימייל info@ipvsecurity.com או במספר הטלפון
077-4447130. IPV Security מתמחה זה 20 שנה באבטחת מידע, סייבר, סקרי סיכונים
ותקנים ורגולציות הנוגעים לביטחון מידע ועוד.