סוכני הבינה המלאכותית האוטונומיים מאיצים פרודוקטיביות, אך גם נקודת תורפה חדשה.
כיצד להתמודד עם מודל האחריות המשותפת וכיצד למנוע מהסוכן החכם שלכם להפוך לשער דליפה?
אחריות משותפת בעידן העוזרים החכמים
כשגבולות האבטחה מיטשטשים בין החברה המספקת ללקוח המשתמש
טכנולוגיית הבינה המלאכותית האוטונומית (Agentic AI) – מערכות AI הפועלות כ"סוכנים" חכמים בשם המשתמש – משנה את האופן שבו ארגונים עובדים. חברות ענק, כגון "מיקרוסופט" ו"סיילספורס" משלבות עוזרים אלו ישירות במערכות העסקיות כדי לייעל תהליכים ולשפר תפוקה.
אך לצד היתרונות, מתברר כי ארגונים רבים אינם מודעים לאחריותם לשמור על הנתונים שהסוכנים הללו ניגשים אליהם.
בדומה לשירותי מחשוב ענן, גם כאן קיים מודל אחריות משותפת: החברה המספקת את ה־AI מאבטחת את התשתית הטכנולוגית, אך הלקוח אחראי על הגדרות הגישה, מדיניות המידע ומי מורשה להשתמש בסוכנים.
חולשות חדשות בעולם חדש
כאשר סוכן AI הופך לשער לדליפה
דוגמה בולטת היא מתקפת ForcedLeak – שרשרת פגיעויות קריטית שהתגלתה במערכת Agentforce של Salesforce. פגיעות זו אפשרה לתוקף לגנוב נתוני לקוחות (CRM) רגישים באמצעות טכניקה הנקראת Prompt Injection עקיף (מעין "השתלת פקודה" חבויה).
האירוע המחיש עד כמה קל לחדור דרך סוכן AI שלא הוגדר כראוי.
מומחים מזהירים: סוכנים אוטונומיים, שפועלים לעיתים ללא מעורבות אנושית, עלולים לקבל הרשאות יתר, לחשוף סודות ארגוניים, או להשתמש בתהליכים לא מאובטחים.
הבעיה המרכזית היא ניהולית – מי באמת אחראי כשה־AI פועל בשמך?
אחריות הדדית וגבולות האמון
הספקים נותנים את הכלים, אך הלקוחות חייבים להציב את הגבולות
מומחי אבטחה מסכימים שהאחריות מחולקת:
- הלקוח חייב להציב גבולות גישה ברורים לסוכנים, להבין אילו נתונים הם צורכים ולאן הם שולחים אותם, ולבצע ביקורת שוטפת.
- הספק חייב להחיל אמצעי אבטחה מתקדמים, כמו אימות רב־שלבי (MFA) או בקרות למניעת דליפת מידע (DLP), אך לא להסתמך עליהם כפתרון יחיד.
כמו במקרה של ניסיונות פישינג, נדרש כאן להגן על המשתמש מפני טעויותיו, ולבנות תשתית שלא תאפשר לטעות אנוש או להגדרה שגויה להפוך לדליפת מידע ארגונית.
המלצות מאת מומחי אבטחת המידע של IPV Security
- הגדרת גבולות אחריות: החברה המספקת אחראית על תשתיות ה־AI, הארגון אחראי על ניהול הנתונים, הרשאות הגישה ומעקב אחרי פעולות הסוכן.
- בקרות גישה דינמיות: ודאו שסוכן AI ניגש לנתונים הנחוצים בלבד, באופן ספציפי למשימתו, ולא לכל מאגר הנתונים הארגוני.
- אימות רב־שלבי: יש להוסיף MFA (אימות בשני שלבים או יותר) לכל גישה של הסוכן למערכות רגישות, כמו מערכות ניהול לקוחות (CRM) או ניהול משאבים (ERP).
- כלים משלימים: להטמיע כלים לסריקת סודות (Secrets Scanning) ובקרות DLP, אך לזכור שהם לבדם אינם מספקים הגנה מלאה.
- הדרכה ומודעות: להכשיר עובדים ומנהלים כיצד להשתמש בכלי AI באחריות ובזהירות, ולהימנע ממסירת מידע מיותר לסוכנים.
לסיכום,
המהפכה של ה־Agentic AI דורשת גישה זהירה: היא אינה רק טכנולוגיה, אלא שינוי במבנה האחריות. כדי למנוע את "דליפת הידע" הבאה, ארגונים חייבים לשלב בין טכנולוגיה, תהליכי עבודה ומודעות אנושית. בעולם שבו ה־AI פועל לבד, האחריות לעולם אינה אוטונומית באמת.
למידע נוסף: https://www.darkreading.com/cybersecurity-operations/ai-agent-security-awareness-responsibility
מעוניינים להתייעץ עם מומחה, פנו למומחי איי פי וי סקיוריטי!
להתייעצות מקצועית ניתן לפנות אלינו לאימייל info@ipvsecurity.com או במספר הטלפון
077-4447130. IPV Security מתמחה זה 20 שנה באבטחת מידע, סייבר, סקרי סיכונים
ותקנים ורגולציות הנוגעים לביטחון מידע ועוד.