הנחיות סייבר חדשות לשימוש ב־AI בתשתיות קריטיות

הנחיות סייבר גלובליות חדשות מבהירות כיצד לשלב בינה מלאכותית (AI) במערכות חשובות – בלי לסכן בטיחות, רציפות תפעול ואת אמון הציבור.

ממסמכי חזון לכללי משחק ברורים

לראשונה: קו אחיד של רשויות סייבר מובילות בעולם

רשויות אבטחת סייבר גלובליות – כולל גופים מרכזיים בארה"ב (כמו CISA, ה־FBI וה־NSA) וכן מערך הסייבר האוסטרלי – פרסמו לראשונה הנחיות משותפות לשילוב בטוח של בינה מלאכותית במערכות תפעוליות (OT).
מערכות OT הן המערכות שמפעילות את ה"תשתיות הקריטיות" שלנו – כמו מפעלי מים, רשתות אנרגיה, תחבורה ותעשייה. האחידות בין הגופים הללו מעידה על שינוי משמעותי: עוברים מדיון תיאורטי ב־AI לכללים מעשיים שמיועדים לארגונים אלה.
המסמך מכיר בכך של־AI יש פוטנציאל אדיר לשפר יעילות ולחזות תקלות. עם זאת, הוא מדגיש כי ה־AI מביא גם סיכונים חדשים:
סטייה של המודל מהנתונים המקוריים: ה־AI עלול להתחיל לקבל החלטות שונות מאלה שלמד עליהן לאורך זמן (Model Drift).
עקיפת בטיחות: הטכנולוגיה עלולה לעקוף בטעות או בזדון מנגנוני בטיחות קיימים.
אי־ודאות: ה־AI מכניס חוסר ודאות למערכות פיזיות שבהן כל החלטה שגויה עלולה להוביל לפגיעה ממשית.

בטיחות לא שווה לאבטחה

למה AI לא אמור לקבל החלטות בטיחות במערכות OT

אחת התרומות החשובות ביותר של ההנחיות היא ההפרדה הברורה בין אבטחת מידע (Security) לבין בטיחות פיזית (Safety).
אבטחה עוסקת בשמירה על המידע (שלמות, זמינות) והגנה מפני תקיפות.
בטיחות נוגעת למניעת פגיעה בחיי אדם ובסביבה. הבינה המלאכותית, במיוחד מודלים שיודעים "ליצור" תוכן (כמו LLMs), מטשטשת את הגבול הזה מכיוון שהיא אינה צפויה או דטרמיניסטית.
ההנחיות קובעות במפורש:
מודלים כמו LLMs (מודלי שפה גדולים) כמעט בוודאות לא צריכים לקבל החלטות בטיחות במערכות תפעוליות קריטיות.
המשמעות היא לא לעצור את החדשנות, אלא להציב גבול ברור. לדוגמה במתקן לטיהור מים, מודל AI עלול לפרש חריגה קטנה כהמלצה לשינוי מינון חומרים כימיים – החלטה שעלולה להיות מסוכנת מאוד, גם אם לא פרצו למערכת. לכן, ה-AI מוגדר כ"יועץ" ולא כ"מפעיל", ונדרש פיקוח אנושי פעיל תמיד.

ארכיטקטורה, אנשים ושרשרת אספקה

כך משלבים AI בלי לפתוח דלתות חדשות לתקיפה

ההנחיות מציעות מפת דרכים ברורה לשילוב AI במערכות התפעוליות:

  1. AI מתאים לחיזוי: מודלים שנועדו לחזות (כמו חיזוי תקלות במשאבות או זיהוי חריגות בחום) מתאימים לליבת המערכות התפעוליות.
  2. AI גנרטיבי מתאים לניהול: מודלים "יוצרים" (כמו אלה של ChatGPT) מתאימים יותר לשכבות הניהוליות – כגון כתיבת תיעוד, הפקת דוחות רגולטוריים וניהול תהליכים משרדיים.

כדי לצמצם את סיכוני התקיפה, ההנחיות ממליצות על מבנים טכניים שבהם הנתונים יוצאים מהמערכת התפעולית החוצה, אך אין גישה קבועה נכנסת מבחוץ אל המערכת. זה מונע מצב שבו מערכת AI הנמצאת בענן משמשת כציר חדירה לרשת התפעולית הרגישה.
מעבר לטכנולוגיה, יש דגש חזק על בני האדם: הסתמכות יתר על AI עלולה לגרום לשחיקת היכולות האנושיות הקריטיות. לכן נדרשת הכשרה שמלמדת את המפעילים לא רק להשתמש ב־AI – אלא גם לאתגר אותו, לאמת את הפלטים שלו מול המציאות הפיזית ולשמור ידע ידני למצבי כשל.

המלצות מעשיות מאת אנשי אבטחת מידע של IPV Security

כך מתחילים ליישם את ההנחיות בפועל:

  1. מיפוי: לבדוק היכן AI כבר משולב כיום במערכות התפעוליות ובמערכות המידע.
  2. הגדרה ברורה: AI מייעץ – אדם מחליט.
  3. שמירה על גבולות: להפריד בתכנון המערכות בין נושאי בטיחות לנושאי אבטחה.
  4. ארכיטקטורה בטוחה: לאמץ מבני רשת שאינם מאפשרים גישה קבועה נכנסת למערכות התפעוליות (OT).
  5. דרישת שקיפות: לבקש מהספקים מידע על מקור המודלים, אופן האימון שלהם ורשימת המרכיבים.
  6. הכשרה מתמשכת: לרענן נוהלי אימות ובדיקה ולהכשיר את המפעילים להתמודדות עם כשלים לאורך כל חיי המערכת.

לסיכום,

ההנחיות הגלובליות החדשות אינן קוראות לעצור את שילוב הבינה המלאכותית בתשתיות קריטיות – אלא לעשות אותו נכון ובאחריות.
המסר המרכזי ברור: חוסן אמיתי נוצר כאשר AI משפר את קבלת ההחלטות, אך אינו מחליף את האחריות האנושית. ארגונים שיבחרו בגישה מאוזנת – עם גבולות, שקיפות ופיקוח – יוכלו ליהנות מיתרונות ה־AI בלי לסכן את הבסיס שעליו נשענת החברה כולה.

למידע נוסף: New cybersecurity guidance paves the way for AI in critical infrastructure  | CyberScoop

מעוניינים להתייעץ עם מומחה, פנו למומחי איי פי וי סקיוריטי!

לחצו כאן

 

להתייעצות מקצועית ניתן לפנות אלינו לאימייל info@ipvsecurity.com או במספר הטלפון
077-4447130. IPV Security מתמחה זה 20 שנה באבטחת מידע, סייבר, סקרי סיכונים
ותקנים ורגולציות הנוגעים לביטחון מידע ועוד.