בואו נדבר תכלס🎯
כשאנחנו מבקשים ממודל של בינה מלאכותית
להסביר איך הוא הגיע לתשובה, אנחנו לא מקבלים הצצה למוחו –
אלא נרטיב שנשמע טוב – המבוסס בסופו של דבר על מודל חיזוי סטטיסטי.
מה באמת קורה שם❓
☑️שרשרת חשיבה זו לא תכונה מולדת של המודל.
☑️זו טכניקת הנחיה (prompting) שביקשה ממנו “לחשוב בקול רם”.
☑️בפועל? הוא משלים טוקנים, באמצעות מודל חיזוי,
☑️וזה מרגיש לנו המישתמשים כמו תהליך חשיבה – גם אם לא היה כזה.
המודל לא זוכר את הדרך שעבר, לא בודק את עצמו,
ולפעמים גם לא מודה שהשתמש ברמזים ששמנו לו בכוונה.
אז האם Chain-of-Thought זה בלוף? ממש לא !!! 💡
יש לזה ערך – בשיפור דיוק, בפירוק בעיות מורכבות, וביצירת תובנות.
אז מתי Chain-of-Thought כן עובדת ולמה היא מועילה❓
בשאלות מורכבות הדורשות פירוק שלבים כמו:
☑️בעיות מתמטיות
☑️שאלות לוגיקה
☑️סילוק תשובות שגויות בשאלות מרובות ברירה
למה זה עובד❓
☑️כי ברגע שאתה “מכריח” את המודל לפרק את השאלה לגורמים, אתה:
☑️מפחית את הסיכון לקפוץ לתשובה פשטנית
☑️נותן לו הזדמנות להפעיל רצף של חישובים/ניתוחים חלקיים
☑️זו בעצם “הנדסה הפוכה” של חשיבה – דרך הנחיית טוקנים.
לחשוב חכם …
הטכניקה Chain-of-Thought לא רק עוזרת למודל –
אלא מעודדת את האדם עצמו לחשוב בהדרגה.
כשאתה רואה את התהליך, גם אם לא מדויק לחלוטין –
הוא מעורר שאלות, מסביר רעיונות ומרחיב תודעה.
אבל חשוב לזכור: 💡
המודל לא מסביר את מה שהוא עשה –
הוא “ממציא” הסבר למה שנשמע טוב על בסיס מנגנון חיזוי סטטיסטי.
כדי לעשות עוד קצת סדר, אז זה מיתקשר במובן מסויים לנושא הזיות בבינה מלאכותית : 💡
🔴הזיות בבינה מלאכותית = מידע שגוי שמיוצר על ידי המודל כאילו הוא אמת.
למשל:
המודל “ממציא” מקור, שם של ספר,
או נותן תשובה שנשמעת רהוטה – אך פשוט לא נכונה.
🟣שרשרת מחשבה מזויפת = תיאור שגוי של התהליך שהוביל לתשובה.
למשל:
המודל מסביר איך הגיע למסקנה, אבל ההסבר הזה
לא משקף את מה שבאמת קרה “בפנים”.