קטגוריה: הסיכונים ב-AI

A 2026 presentation covering key AI risks: Jailbreaking, Prompt Injection, Adversarial AI, Data Poisoning, Bias, Deepfakes, and Governance essentials.
הסיכונים ב-AI
שלומי עובד

AI Risks – איך מודלי שפה חושפים אותנו לסיכונים חדשים

ה-AI לא ממציא איומים חדשים מאפס, אלא מאיץ ומגביר סיכונים קיימים בקצב חסר תקדים. במאמר הזה תמצאו פירוק עמוק של הסכנות המרכזיות – משיבוש מנגנוני בטיחות ועד הרעלת נתונים, Bias, Deepfakes והשלכות חברתיות ורגולטוריות. הכל מבוסס ישירות על התוכן במצגת שהעלית.

קרא עוד »
איור של נוזקת AI PromptLock – רובוט זדוני עם מחשב, גולגולת וסמל הצפנה על לוח אלקטרוני - המחשה של ransomware מבוסס בינה מלאכותית.
הסיכונים ב-AI
שלומי עובד

PromptLock – ההצצה לעתיד של נוזקות AI

PromptLock היא נוזקת כופר ראשונה בעולם שמופעלת בעזרת בינה מלאכותית. במקום קוד קבוע, היא מייצרת בכל פעם קוד חדש בעזרת מודל שפה של OpenAI. השילוב של Go (מהירות וביצועים) עם Lua (גמישות והתאמה אישית) הופך אותה לקשה מאוד לזיהוי ולחסימה. כרגע מדובר בהדגמה מחקרית בלבד – אבל היא מציבה רף חדש לאיומי הסייבר.

קרא עוד »
מנעול דיגיטלי על רקע מעגלים חשמליים כסמל לאבטחת מידע בבינה מלאכותית גנרטיבית (Gen AI Security), עם סמלים של AI וניטור סיכונים משני הצדדים.
הסיכונים ב-AI
שלומי עובד

Gen AI Security: הבינה המלאכותית יוצרת – אבל מי שומר עליה?

בעידן של Generative AI, ארגונים חייבים לאמץ גישה חדשה לאבטחת מידע. Gen AI Security מתמודד עם סיכונים ייחודיים כמו דליפות, טעויות אוטומטיות והיעדר שקיפות – ודורש ממשל, בקרה ומעורבות אנושית מתמדת.

קרא עוד »
"Illustration of a digital 'Jailbreak in LLM' concept. The image shows a prison cell with metal bars, and a cartoon figure attempting to break into a secured AI interface. The background includes icons representing cybersecurity and hacking, placed on purple side panels."
הסיכונים ב-AI
שלומי עובד

Jailbreaking ב-AI: כשהמילים הופכות לנשק נגד הארגון 🔓

ג’יילברייק ל-LLM הוא תהליך שבו גורמים זדוניים מנסים לגרום למודל שפה לענות על פקודות שהוא אמור לחסום – כמו הנחיות לפעולה לא חוקית או חשיפת מידע רגיש.
זה נעשה באמצעות ניסוחים מתוחכמים, תסריטים מדורגים (Few-Shot) או פקודה חכמה אחת (One-Shot).
הסכנה: המודל “נשבר” מבלי להבין שההקשר מזויף- ונותן תשובות שלא נועד לתת.

קרא עוד »
"Visual warning about prompt injection in AI systems. The word 'PROMPT' is spelled out with wooden letter blocks. Above it are icons of a hacker on a laptop, a syringe symbolizing injection, and a caution triangle. The background is blurred with a soft focus. Purple side panels include icons of a hacker and a person typing passwords on a laptop."
הסיכונים ב-AI
שלומי עובד

ניהול חשיפות בהטמעת מודלי שפה – Prompt Injection ⛔

🧠 Prompt Injection היא שיטה שבה האקר שותל הוראות סמויות לבינה מלאכותית – שמבצעת אותן כאילו היו לגיטימיות.

⚠️ הבעיה היא לא במה שהבוט שואל, אלא בזה שמישהו זר שולט בו מאחורי הקלעים.

📦 דמיינו עובד שמבצע פקודות שנמסרו לו בפתק – בלי לדעת ממי.

🧩 המטרה: לשמור על שליטה, ולהבטיח שהבוט מציית רק למה שאתם מאשרים.

קרא עוד »
הסיכונים ב-AI
שלומי עובד

בינה מלאכותית : אז יש גם סכנות 🚨

מערכות בינה מלאכותית חשופות לשתי שיטות תקיפה עיקריות – Jailbreaking ו-Prompt Injection – שמאפשרות לעקוף מנגנוני בטיחות, לגנוב מידע או להפיק תוכן מזיק.
הסכנות כוללות דליפות מידע, יצירת קוד זדוני, והשתלטות על ממשקי API.
הגנה אפקטיבית דורשת שילוב של סינון קלט, טיהור פלט, הרשאות מינימליות ופיקוח אנושי.
לפי OWASP, יש לטפל במערכות AI כמו בתשתיות קריטיות – עם הנחות עבודה שמניחות פריצה מראש.

קרא עוד »

באתר זה נעשה שימוש ב”קבצי עוגיות” (cookies) וכלים דומים אחרים על מנת לספק לכם חווית גלישה טובה יותר, תוכן מותאם אישית וביצוע ניתוחים סטטיסטיים. למידע נוסף ניתן לעיין במדיניות הפרטיות