בינה מלאכותית בעבודה: כיצד לשמור על פרטיות ואבטחת המידע שלכם

כלים כמו ChatGPT ו־ Copilot מביאים איתם יתרונות גדולים – אך גם סיכוני פרטיות שחשוב להכיר ולנהל.
הבינה המלאכותית נכנסת למשרד – אך האם היא בטוחה לשימוש? כיצד להפיק את המרב מכלים כמו ChatGPT ו־ Copilot תוך שמירה על פרטיות ואבטחת המידע שלכם.

בינה מלאכותית בעבודה: כיצד לשמור על פרטיות ואבטחת המידע שלכם

כלי AI גנרטיביים נכנסים לעולם העסקים, אך האם הם בטוחים?

הכניסה של כלי בינה מלאכותית גנרטיבית, כמו ChatGPT של OpenAI ו־Copilot של מיקרוסופט לעולם העסקים מעלה שאלות חשובות בנוגע לפרטיות ואבטחת מידע.
כלים אלו מתפתחים במהירות, ומלווים בחששות סביב הפוטנציאל שלהם להוביל לבעיות פרטיות ואבטחה, בייחוד בסביבת העבודה.

חששות בפרטיות: מיקרוסופט Recall ו־ChaGPT

כלים חדשים של מיקרוסופט ו־OpenAI מעוררים שאלות לגבי איסוף מידע רגיש

במאי האחרון, קמפיינים בנושא פרטיות כינו את כלי ה־Recall של מיקרוסופט "סיוט פרטיות" בעקבות היכולת שלו לצלם מסך בכל כמה שניות. תכונה זו העלתה דאגות רגולטוריות בבריטניה, והרגולטור ביקש ממיקרוסופט לספק פרטים נוספים על בטיחות הכלי. גם OpenAI נתקלה בביקורת דומה בעקבות יכולות צילום מסך של ChatGPT שיכולות לחשוף נתונים רגישים.

איסור על שימוש ב־Copilot  בקונגרס האמריקאי

חשש מחדירה לפרטיות הוביל לאיסור שימוש בכלי AI בחלקים מממשלת ארה"ב

בבית הנבחרים של ארצות הברית החליטו לאסור על השימוש ב־Copilot בקרב עובדי הבית בשל חשש שמידע רגיש ידלוף לעננים לא מאושרים. דאגות אלו הועלו גם על ידי אנליסטים בשוק שטוענים שכלי AI יכולים להוביל לחשיפה פנימית וחיצונית של נתונים רגישים.

סכנה לחברות: האם המידע שלכם בטוח?

חברות עלולות לחשוף מידע רגיש באופן לא מודע בשימוש ב־AI

אחד מהאתגרים המרכזיים בשימוש בכלים כמו ChatGPT או Copilot הוא הסיכון לחשיפת מידע רגיש בשוגג. לפי מומחים, מערכות אלו מתנהגות כ"ספוגים גדולים" שסופגים כמויות עצומות של מידע מהאינטרנט כדי לאמן את מודל השפה שלהן. דבר זה מעלה חשש שמידע רגיש עשוי להיכנס למערכת כלשהי ולהיות נגיש על ידי אחרים.

AI ככלי לניטור עובדים: אפשרות חדשה?

כלי AI עשויים לשמש לניטור עובדים – האם אנו על סף פגיעה בפרטיות בעבודה?

דאגה נוספת שמדאיגה חברות היא האפשרות שכלי AI ישמשו לניטור עובדים. לדוגמה, אף שמיקרוסופט מציינת כי תכונת ה־Recall נשמרת במחשב המקומי של המשתמש, יש מי שמזהירים מפני שימוש עתידי בכלים אלו כדי לעקוב אחרי עובדים, מה שמהווה פגיעה אפשרית בפרטיותם.

הבטחות החברות: שמירה על פרטיות המשתמש

מה החברות הגדולות אומרות על אבטחת המידע בכלי ה־AI שלהן?

חברות כמו מיקרוסופט, גוגל ו־OpenAI מנסות להרגיע את המשתמשים, ומצהירות שהן משקיעות רבות בהגנת הפרטיות והאבטחה. מיקרוסופט מבטיחה שקיימת שליטה בתכונת ה־Recall, וגוגל מציינת שה־AI שלה לא משנה את ההגנות הבסיסיות של המידע. OpenAI אף מציעה כלים לשליטה בנתוני המשתמש ובאפשרות להוציא ולמחוק מידע אישי.

צעדים להגנה על פרטיות בשימוש ב־AI

המלצות ממומחי אבטחת המידע של IPV Security לשימוש בטוח בכלי בינה מלאכותית גנרטיבית:

  • אל תכניסו מידע סודי או רגיש להנחיות – בעת שימוש בכלים ציבוריים כמו ChatGPT או Google Gemini, הימנעו מהכנסת פרטים רגישים כמו תקציבים או נתונים אישיים.
  • היו כלליים בניסוח ההנחיות – השתמשו בשפה כללית בהנחיות.
    לדוגמה במקום "הנה תקציב סודי," כתבו "בקשה לתבנית תקציב".
  • שימוש ב־Copilot מחייב בחינה מעמיקה – בתוך הארגון, יש לבחון את ההרשאות הארגוניות על המידע, אחרת עובדים עלולים להיחשף למידע שלא היו אמורים לראות.
  • השתמשו ב־AI כטיוטה ראשונית בלבד – מומלץ להשתמש בכלי הבינה המלאכותית כדי ליצור גרסה ראשונית של מסמך, ולהוסיף את הפרטים הרגישים באופן ידני לאחר מכן.
  • בדקו את המידע שהתקבל מה־AI – אם משתמשים בכלי AI למחקר, חשוב לאמת את התשובות על ידי בקשת מקורות וקישורים למידע שסופק.
  • בדקו מחדש קוד שנוצר על ידי AI – כאשר מבקשים מבינה מלאכותית לכתוב קוד, יש לעבור עליו ולוודא שהוא מתאים ולא להניח שהוא מוכן לשימוש.
  • הגדירו גישה מינימלית למידע רגיש – יש להגדיר את ההרשאות בצורה שתקצה גישה רק למי שצריך את המידע, בהתאם לעיקרון ההרשאה המינימלית.
  • כבו את איסוף הנתונים בעת הצורך – במערכות כמו ChatGPT, אפשר לבטל את איסוף המידע לצורך אימון המודל דרך ההגדרות, או להשתמש בגרסאות ארגוניות עם בקרות נוספות.

סיכום: AI כאן כדי להישאר, אך עם סיכונים

העתיד של AI בעסקים מבטיח, אך מצריך זהירות
נראה כי הבינה המלאכותית תהפוך לחלק בלתי נפרד מעולם העבודה, אך עם התפתחותה, כך גם הסיכונים יגדלו. חשוב להתייחס ל־AI כאל כל שירות חיצוני אחר ולנקוט משנה זהירות בכל הנוגע לשיתוף מידע כדי למנוע חשיפה מיותרת של נתונים רגישים.

למידע נוסף: AI Is Your Coworker Now. Can You Trust It? | WIRED

 

מעוניינים להתייעץ עם מומחה? פנו למומחי איי פי וי סקיוריטי!

לחצו כאן

 

להתייעצות מקצועית ניתן לפנות אלינו לאימייל info@ipvsecurity.com או במספר הטלפון 077-4447130. IPV Security מתמחה זה 19 שנה באבטחת מידע, סייבר, סקרי סיכונים ותקנים ורגולציות הנוגעים לביטחון מידע ועוד.