Anthropic והחברות המובילות בעולם ה־AI והטכנולוגיה מכריזות על פרויקט Glasswing. ואיך הוא קשור למודל ניהול סיכוני הסייבר שלהם – Mythos AI?

ענקיות הטכנולוגיה מתאחדות מול איום ה־AI החדש: גלו כיצד פרויקט Glasswing משנה את חוקי המשחק באבטחת המידע, ואיך תוכלו לרתום את הבינה המלאכותית להגנה פרואקטיבית על הארגון.

פרויקט חדש חושף איך ייראה ניהול סיכוני הסייבר בעידן הבינה המלאכותית

שיתוף פעולה חסר תקדים בין ענקיות הטכנולוגיה

יוזמה חדשה בשם Project Glasswing מאחדת שחקנים מרכזיים בתעשייה, ובהם Anthropic, אמזון (AWS), מיקרוסופט וגוגל. המטרה: להתמודד עם אתגר חדש ומורכב – אבטחת תוכנה בעידן שבו בינה מלאכותית מסוגלת לאתר ולנצל חולשות אבטחה בקצב ובדיוק חסרי תקדים. בלב היוזמה עומד מודל AI חדש בשם Claude Mythos Preview שמציג יכולות מדהימות באיתור פרצות קריטיות במערכות הפעלה ובדפדפנים – יכולות שלעיתים עולות על אלו של המומחים האנושיים המיומנים ביותר.

כש־AI הופך לכלי תקיפה – אבל גם להגנה

למה הוחלט לעצור את ההשקה הציבורית של המודל החדש?

היכולות יוצאות הדופן של המודל הובילו את חברת Anthropic להחלטה נדירה: לא לשחרר אותו לציבור הרחב בשלב זה. החשש המרכזי הוא שהכלי העוצמתי הזה ינוצל לרעה על ידי תוקפי סייבר וגורמים עוינים. המודל כבר הוכיח שהוא יודע לא רק למצוא חולשות בודדות, אלא "לחבר בין הנקודות", לשלב כמה פרצות יחד ולבנות תרחיש תקיפה שלם ואפקטיבי. כרגע, השימוש בו מוגבל לקבוצה מצומצמת של ארגונים מובילים, במסגרת תוכנית מבוקרת שמטרתה ללמוד איך לרתום את העוצמה הזו להגנה, לפני שהיא תיפול לידיים הלא נכונות.

מודל חדש לניהול סיכונים: מה משתנה בפועל?

מעבר מגילוי תקלות פשוט לניהול סיכונים חכם ומבוסס הקשר

Project Glasswing מסמן שינוי תפיסתי עמוק בעולם הסייבר. במקום להסתמך רק על כלים מסורתיים שסורקים קוד ומחפשים שגיאות, הארגונים עוברים להשתמש בבינה מלאכותית שמבינה את "התמונה הגדולה", מנתחת את ההקשר של הקוד ויודעת להצביע על סיכונים אמיתיים. מדובר במעבר מגישה של "תגובה לאירוע" לגישה מונעת (פרואקטיבית), ובה פרצות מזוהות ומטופלות עוד לפני שתוקף פוטנציאלי בכלל גילה אותן. עם זאת, לצד היתרונות, עולה הצורך בפיקוח הדוק ובקרה, כדי לוודא שיכולות ה־AI הללו נשארות כלי מגן ולא הופכות לנשק.

המלצות מאת אנשי אבטחת המידע של IPV Security:

  1. היערכות מוקדמת: התחילו לבחון כיצד ניתן לשלב כלי AI בתהליכי פיתוח התוכנה ואבטחת היישומים בארגון.
  2. תיעדוף חכם: רתמו את הבינה המלאכותית לא רק לזיהוי פרצות, אלא לקביעת סדרי עדיפויות – כדי שתדעו אילו סיכונים דחופים יותר לטיפול.
  3. בקרה ומשילות: הגדירו כללים ברורים ופיקוח על השימוש בכלי אוטומציה ובינה מלאכותית בתוך צוותי המחשוב.
  4. מעקב רגולטורי: הישארו מעודכנים בחוקים ובתקנות החדשות בתחום ה־AI והסייבר, שמתפתחים בקצב מהיר.
  5. הבנת הסיכונים: השקיעו בהדרכת הצוותים לגבי הסיכונים החדשים שנוצרים כתוצאה משימוש בכלי AI עצמם.

לסיכום,

פרויקט Glasswing הוא הוכחה לכך שאנחנו ניצבים בפתחו של עידן חדש: עולם שבו הבינה המלאכותית היא לא רק כלי עזר, אלא הכוח המניע שמעצב מחדש את גבולות אבטחת המידע. בעוד שהיכולות החדשות עשויות להיראות מרתיעות, הן טומנות בחובן הזדמנות חסרת תקדים. ארגונים שישכילו לאמץ את הכלים הללו בחוכמה, תוך הקפדה על בקרה ומשילות, יוכלו לבנות חוסן דיגיטלי שמקדים תמיד את האיומים של המחר.

למידע נוסף: https://www.anthropic.com/glasswing

https://www.euronews.com/next/2026/04/08/why-anthropics-most-powerful-ai-model-mythos-preview-is-too-dangerous-for-public-release

https://www.euronews.com/next/2026/04/14/why-anthropics-new-mythos-ai-model-has-washington-and-wall-street-worked-up

 

מעוניינים לבצע מבדקי חדירה תשתיתיים ואפליקטיביים? פנו למומחי איי פי וי סקיוריטי!

לחצו כאן

 

להתייעצות מקצועית ניתן לפנות אלינו לאימייל info@ipvsecurity.com או במספר הטלפון
077-4447130. IPV Security מתמחה זה 21 שנה באבטחת מידע, סייבר, סקרי סיכונים
ותקנים ורגולציות הנוגעים לביטחון מידע ועוד.