האם המידע שאתם מקבלים ב־AI Chatbots נכון או לא?

צ’אטבוטים חכמים, תשובות מטעות: דוח חדש חושף זינוק מדאיג בדיסאינפורמציה שמופצת על ידי AI.

AI עונה יותר – אבל גם טועה יותר

פי שניים דיסאינפורמציה מצ’אטבוטים בתוך שנה

דוח חדש של NewsGuard מציג מגמה מדאיגה: מערכות AI גנרטיביות מובילות מספקות מידע שגוי בתשובות על נושאים רגישים בתדירות כפולה מהשנה שעברה. במקום לסרב להשיב לשאלות שנויות במחלוקת – כפי שעשו בעבר – הצ'אטבוטים מנסים לענות על כל שאלה, גם כשאין להם מקור אמין. צ'אטבוטים כמו Inflection Pi, Perplexity, Meta AI ואפילו ChatGPT ענו על 40% עד 57% מהשאלות בנושאי חדשות עם טעויות, לעומת 18% בלבד אשתקד. הגרסאות המדויקות ביותר, כמו Claude, הראו שיעור שגיאה של 10% בלבד.

דיסאינפורמציה נבנית מראש עבור המודלים

כשהרוסים לא מחפשים קוראים – אלא צ’אטבוטים

הגורם המרכזי לעלייה: שימוש מוגבר של הצ'אטבוטים בחיפושי רשת חיים (real-time web search) – מה שמקל על שחקנים עוינים לזרוע דיסאינפורמציה יזומה במקורות שהמודלים שואבים מהם. לפי NewsGuard מעל שלושה מיליון מאמרים של תעמולה רוסית שולבו השנה בתשובות של צ'אטבוטים, כולל כאלה שמקורם ברשת Pravda. התוכן אינו מיועד לקוראים אנושיים – הוא נכתב באופן שמכוון להשפיע על המודלים עצמם, באמצעות מאות אתרים עם עיצוב לקוי שמספקים "פיתיון" לבינה המלאכותית.
זו מתקפה מתוחכמת: לא מול המשתמש, אלא באמצעות כלי ה־AI שמתווכים עבורו את המציאות.

שקיפות, אחריות ותגובה איטית

מי מטעה, כמה, ואיך?

בשונה מבדיקות קודמות, הפעם NewsGuard חשפה שמית את הכלים שנבדקו – כדי ליידע את הציבור, מקבלי ההחלטות והפלטפורמות עצמן. הממצאים מעלים שאלות קשות לגבי אחריות המפתחים, הצורך ברגולציה והיעדר תהליכי בקרת איכות. הפלטפורמות שהוזכרו בדוח – כולל Meta, ChatGPT ו־Perplexity – סירבו להגיב פומבית. בינתיים, כמות התוכן המטעה שמיוצר ומופץ ממשיכה לעלות, בעיקר באזורים ללא רגולציה, כמו ארה"ב.
המסקנה: המשתמשים – וגם הארגונים – צריכים להיות זהירים יותר מתמיד.

המלצות מומחי אבטחת מידע של IPV Security:

  1. אל תסמכו על תשובות AI בתחומים רגישים או שנויים במחלוקת – ודאו תמיד עם מקור נוסף.
  2. בחנו אילו כלי AI משולבים בארגון, ובאילו הקשרים – תוכן, קוד, תמיכה, ניתוח מידע וכו’.
  3. הגדירו מדיניות שימוש אחראית בכלי AI, כולל מגבלות לתחומים רגישים (חדשות, פוליטיקה, משפט).
  4. הטמיעו בקרות תוכן בארגונים המשתמשים ב־AI ליצירת מידע חיצוני, כמו כתיבה, שיווק או שירות לקוחות.
  5. שקלו שימוש בכלים עם מנגנוני בקרת עובדות (fact-checking) – ולא רק השלמה חופשית.
  6. הסבירו למשתמשים פנים־ארגוניים את מגבלות הכלים, גם כשנראים “חכמים” – במיוחד לאנשי שיווק, HR ומנהלים בכירים.

לסיכום,

ככל שהאימוץ של טכנולוגיות בינה מלאכותית (AI) מעמיק, כך גובר הסיכון לשיבוש פעולתן. כאשר מודלים לומדים מהאינטרנט בזמן אמת, כוונות זדוניות ומידע מוטה עלולים להשתלב בתשובות ובתוצרים. כדי להבטיח דיוק, אמינות ויושרה, נדרשת אסטרטגיית בקרה משולבת הכוללת פיקוח על הכלים, על המשתמשים ועל סביבת העבודה. אנחנו כאן כדי לסייע לארגונים ליישם בינה מלאכותית בצורה בטוחה, ולמנוע את הסיכונים של בינה שגויה.

למידע נוסף: https://www.forbes.com/sites/emmawoollacott/2025/09/05/ai-chatbots-are-feeding-you-more-false-information-than-ever/

 

מעוניינים להתייעץ עם מומחה, פנו למומחי איי פי וי סקיוריטי!

לחצו כאן

 

להתייעצות מקצועית ניתן לפנות אלינו לאימייל info@ipvsecurity.com או במספר הטלפון
077-4447130. IPV Security מתמחה זה 20 שנה באבטחת מידע, סייבר, סקרי סיכונים
ותקנים ורגולציות הנוגעים לביטחון מידע ועוד.