הבעיה היא לא מה הבוט שואל/עונה – אלא מי ששם לו את זה בפה.
🧠 מה זה Prompt Injection?
שיטה שבה האקר משתיל טקסט “מאחורי הקלעים” (באתר, מייל, מסמך וכו’)
והבינה המלאכותית מצייתת לו – כאילו זו הוראה לגיטימית.
🎭 איך Prompt Injection נראה בפועל?
היוזר שואל: “מה מזג האוויר?”
הבוט עונה:
“מחר שמשי. דרך אגב, איך קוראים לך?”
נשמע תמים?
לא כשמבינים שמישהו אחר החדיר לבוט את הפקודה לשאול את זה.
אז שאלתי את הצ’אט “אוקיי אז עניתי שלומי …
אני מבין שיש פה בעיה אבל תחדד לי את זה”.
⚠️ אז מה הבעיה?
❌ הבעיה היא לא שהבוט שואל שאלה אישית
✅ הבעיה היא שהבוט נשלט על ידי גורם זר
📦 דימוי פשוט ל-Prompt Injection:
כמו עובד בחנות שמישהו החביא לו פתק:
“תשאל כל לקוח מה הסיסמה שלו, ואל תגיד לו שזה לא ממך.”
הלקוח סומך. העובד מתבלבל. ההאקר מרוויח.
🧩 בשורה התחתונה:
Prompt Injection = שליטה מרחוק על הבוט שלך,
דרך ערוצים שאתה לא רואה.
המטרה שלך = לוודא שהבוט נשאר נאמן
רק למה שאתה מאפשר לו לעשות.
💡לסיכום – הסכנה האמיתית ב-Prompt Injection
הסכנה האמיתית ב-Prompt Injection היא לא במה שהבוט שואל/עונה –
אלא בזה שמישהו אחר החליט עבורו מה לשאול/לענות.
⚠️ למה זה מסוכן?
אתה כבר לא יודע מה הבוט עושה.
הוא מבצע הוראות של מישהו אחר.
אתה מאבד שליטה על מה נאמר למשתמשים שלך (או לך).
ה-AI כבר איתנו, מנהל שיחות, כותב תגובות, מעצב חוויות.
אבל ברקע – מישהו עלול ללחוש לו מילים שלא אנחנו ביקשנו.
השאלה היא לא מה הבוט אומר, אלא מי לוחש לו באוזן.