מה זה AI hallucinations – הזיות בבינה מלאכותית?
הזיה (Hallucination) היא תופעה בה מודל AI ממציא מידע שנשמע אמין אך אינו מבוסס על עובדות.
דוגמאות לתחומים שנפגעו:
משפט: פסקי דין שלא קיימים
רפואה: טיפולים או מאמרים שלא נכתבו
פיננסים: תחזיות או נתונים היסטוריים שגויים
אקדמיה: מאמרים עם מקורות מזויפים
תקשורת: כותרות דרמטיות בלי בסיס
למה זה קורה?
☑️ המודל לא מחפש – הוא מנבא.
מודל שפה לא בודק עובדות, אלא משלים את מה שנראה לו הגיוני על פי הדאטה עליו הוא אומן.
☑️ ביטחון עצמי מופרז.
ה-AI לא יודע לסמן מתי הוא לא בטוח – אז הוא “ממציא” תשובה שנשמעת משכנעת.
☑️ חוסר חיבור למקורות חיים.
ברוב המקרים המודלים מבוססים על מידע שנקטע בנקודת זמן מסוימת.
למה שינוי שאלה לא עוזר?
גם אם תנסח את השאלה אחרת, המידע עדיין לא קיים. שינוי השאלה ≠ שינוי התשובה, כשהמודל נשען על ידע חלקי או ישן.
איך נמנעים מהזיות בבינה מלאכותית?
✔ הצלבת מידע עם מקורות אמינים
✔ בקשה לציון מקור אמיתי
✔ שימוש בטכניקות מתקדמות כמו RAG
✔ פיתוח חשיבה ביקורתית – תמיד
המסקנה:
בינה מלאכותית היא מדהימה – אבל היא לא תחליף לביקורתיות, בדיקה ומודעות.
🎬 מה תראו במצגת המצורפת?
המצגת מרכזת דוגמאות מוחשיות להזיות (hallucinations) של מערכות בינה מלאכותית.