זיכרון במודלי שפה לא מתבצע כמו אצל בני אדם, אלא מתבסס בעיקר על ייצוגים וקטוריים.
לדוגמה:
- המילים “אוהב לעבוד באקסל” מקבלות ייצוג מספרי מסוים (וקטור),
- ואם נושא כזה חוזר שוב ושוב בשיחות, המודל מזהה שזה מידע “חשוב” לגביך,
- ואז שומר סיכום שלו ב”זיכרון המתמשך” – לפעמים בנוסח של משפט תקציר (כמו: “המשתמש עוסק בניתוחים פיננסיים עם אקסל”).
הווקטורים עצמם:
- לא שומרים את הטקסט עצמו אלא משמרים את התוכן המשמעותי, כמו תבניות של התנהגות, העדפות, או נושאים חוזרים.
- משמשים גם לאחזור ידע ממאגרי מידע (RAG), או להצלבת מידע לאורך זמן.
כן – מודלי שפה משתמשים בווקטורים כדי “לזכור”,
אבל זה זיכרון חישובי, לא רגשי או כרונולוגי כמו אצלנו.
הם לא זוכרים מה קרה אתמול – הם מזהים דפוסים, ומסיקים מהם הקשרים.
יש שלושה סוגים עיקריים של זיכרון במודלי שפה:
- חלון קונטקסט (Context Window)
זה בעצם מה שהמודל “רואה” כרגע – כמו זיכרון קצר טווח. למשל, בשיחה אחת הוא יכול לקרוא עד מאות אלפי מילים אחורה, ולנתח טקסטים שלמים. - זיכרון מתמשך (Persistent Memory)
המידע שהמודל זוכר לאורך זמן – לדוגמה, אם סיפרת לו מה התחביב שלך או איך קוראים לך. זה נשמר גם כשאתה חוזר לשוחח איתו ביום אחר. - זיכרון חיצוני (External Memory)
מערכות חיצוניות שעוזרות למודל לזכור – למשל, מסמכים או מסדי נתונים שהמודל יכול לשלוף מהם מידע כשצריך (למשל בצ’אט עם בינה מלאכותית שמחובר לארגון שלך).
מה חדש באפריל 2025?
ChatGPT התחיל לשלב מידע מכל ההיסטוריה של השיחות שלך, גם אם לא שמרת ידנית. אפשר לכבות את זה מתי שרוצים.
למה זה חשוב?
- אתה תקבל תשובות הרבה יותר אישיות ורלוונטיות.
- אפשר להמשיך תהליכים לאורך זמן, לא להתחיל כל פעם מהתחלה.
- במקביל – צריך לשים לב לפרטיות. כל מערכת כזו חייבת לאפשר לך שליטה: למחוק, לכבות, לדעת מה נשמר.
לסיכום – זיכרון מבוסס ייצוג וקטורי💡
זיכרון במודלי שפה כמו ChatGPT הוא לא באמת כמו אצל בני אדם – הם שומרים מידע באמצעות ווקטורים: ייצוגים מספריים של משמעות.
המודלים מזהים נושאים שחוזרים לאורך שיחות, מסיקים מה חשוב, ושומרים סיכומים מותאמים אישית.
זה מאפשר להם להמשיך שיחה מאותה נקודה, בלי להתחיל כל פעם מהתחלה – בצורה חכמה ואישית יותר.