כשה־AI כותב קוד זדוני – ואתם לא שמים לב

פרצה קריטית במנוע ה־AI הנפוץ למפתחים, Cursor, מאפשרת לתוקפים לגנוב מידע ולממש תקיפת כופרה והשתלטות על מערכות

פרצת אבטחה חמורה

ללא אישור המשתמש – וללא ידיעתו

חוקרי אבטחת מידע גילו פרצת אבטחה חמורה בעורך הקוד Cursor IDE, שמשתמשים בו מפתחים רבים – בייחוד בעבודה עם בינה מלאכותית. הפרצה (שזכתה לשם CurXecute) מאפשרת לתוקפים להפעיל פקודות במחשב של מפתח – בלי שהמפתח לחץ על דבר או אפילו יודע שזה קורה. מדובר בגרסאות שקדמו לגרסה 1.3 של Cursor IDE.
הסכנה היא אמיתית: התוקף יכול לגשת לקבצים, לגנוב מידע או להשתיל נוזקה – כאילו יש לו גישה מלאה למחשב של המפתח.

 איך זה קורה

הודעה תמימה מפעילה פקודה מסוכנת

Cursor IDE כולל כלי בינה מלאכותית שמסייע למפתחים על ידי הצעת שינויים אוטומטיים בקוד.
הכלי מחובר לפעמים לשירותים חיצוניים כמו Slack, GitHub או בסיסי נתונים. התוקף מנצל את החיבור הזה: הוא שולח הודעה "תמימה" בשירות שאליו Cursor מחובר, אבל ההודעה כתובה בצורה שה־AI מבין כהנחיה לשנות קובץ הגדרות רגיש במחשב (mcp.json). לאחר מכן – ללא אישור של מפתח – Cursor מפעיל פקודה זדונית. לדוגמה, יצירת קובץ נסתר או שינוי קבצים חשובים.

עדכון גרסה אינו פתרון מלא

שימוש בכלי AI חכמים דורש הגנה חכמה

בעוד Cursor IDE כבר שחררו גרסה מתוקנת (1.3) שמונעת את הפרצה, הבעיה רחבה יותר: כשכלים חכמים מקבלים מידע מבחוץ – הם עלולים להבין אותו לא נכון ולהפעיל פקודות מזיקות. חוקרים מזכירים מקרה דומה שקרה ב־Microsoft 365 Copilot. המשמעות: גם כלים חכמים זקוקים ל"חוקי משחק" ברורים שימנעו מהם להפעיל פקודות בלי בקרה. ארגונים צריכים להיות זהירים מאוד כשמשלבים בינה מלאכותית עם מקורות מידע חיצוניים.

המלצות מאת מומחי אבטחת מידע של IPV Security:

  1. לקבוע מדיניות ארגונית ברורה לשימוש ב־AI – מי רשאי להשתמש, באילו כלים, ובאיזה אופן.
  2. לאסור או להגביל שימוש ב־Shadow AI – כלומר שירותי AI שלא עברו אישור אבטחה בארגון.
  3. להגדיר חיבורים בטוחים בלבד בין מערכות הארגון לשירותי AI חיצוניים.
  4. ליישם בקרות ואישורים להפעלת מערכות AI חדשות, כולל שלב בדיקת סיכונים לפני הטמעה.
  5. לפקח על פעילות AI בסביבת הארגון, בייחוד מערכות שיכולות לכתוב, לקרוא או להריץ קוד.
  6. להעלות מודעות בקרב מפתחים וכלל העובדים על הסיכונים בשימוש לא מפוקח בכלים מבוססי AI.
  7. לבצע סריקה שוטפת של תעבורת מידע בין מערכות AI וספקים חיצוניים כדי לאתר תרחישים של זליגת מידע.

לסיכום,

הפרצה ב־Cursor IDE ממחישה עד כמה כלי AI חכמים עלולים להפוך לאיום כשהם מקושרים לסביבות חיצוניות. הפתרון מתחיל בעדכון, ממשיך בבקרה, ומתחייב בהגדרה מחודשת של כללי המשחק עבור פלטפורמות מבוססות סוכן. אנחנו כאן כדי לעזור לכם לבנות את ההגנות הנכונות.

למידע נוסף: AI-Powered Code Editor Cursor IDE Vulnerability Enables Remote Code Without User Interaction

 

מעוניינים לבצע מבדקי חדירה תשתיתיים ואפליקטיביים? פנו למומחי איי פי וי סקיוריטי!

לחצו כאן

 

להתייעצות מקצועית ניתן לפנות אלינו לאימייל info@ipvsecurity.com או במספר הטלפון
077-4447130. IPV Security מתמחה זה 20 שנה באבטחת מידע, סייבר, סקרי סיכונים
ותקנים ורגולציות הנוגעים לביטחון מידע ועוד.