יום: יוני ב16, 2025

CDAIO Chief Data & AI Officer
שלומי עובד

מדאטה לסיפור מנצח🚀 בונים ארגון מונחה תובנות חלק ב’

ארגונים שמבקשים להפיק ערך אמיתי מהדאטה לא יכולים להסתפק בטכנולוגיה – הם צריכים לאמץ גישה הוליסטית שמשלבת אנשים, תהליכים, תרבות עסקית ואסטרטגיה ברורה. הדרך להפוך ל־Insight-Driven Organization עוברת דרך שינוי תפיסתי עמוק: פיתוח יכולות, ביסוס תשתיות, הטמעת תרבות של סקרנות ולקיחת אחריות, ויצירת חיבור הדוק בין תובנות לבין קבלת החלטות. זה לא רק “מה יש לנו”, אלא “איך אנחנו משתמשים בזה חכם – כדי להוביל”.

קרא עוד »
CDAIO Chief Data & AI Officer
שלומי עובד

מדאטה לסיפור מנצח🚀 בונים ארגון מונחה תובנות חלק א’

דאטה הוא כבר מזמן לא רק טכנולוגיה – הוא מנוע עסקי שמחייב חשיבה אסטרטגית.
כדי לממש את הערך שבו, צריך גם תשתיות וממשל, אבל בעיקר חיבור חכם לאסטרטגיה העסקית.
התפקיד של CDAO הוא לגשר בין העולם העסקי לעולמות הדאטה והאנליטיקה, ולהוביל שינוי תרבותי בארגון.
זה לא רק מה יש לכם – אלא איך אתם משתמשים בזה כדי לקבל החלטות טובות יותר.

קרא עוד »
"Illustration of a digital 'Jailbreak in LLM' concept. The image shows a prison cell with metal bars, and a cartoon figure attempting to break into a secured AI interface. The background includes icons representing cybersecurity and hacking, placed on purple side panels."
הסיכונים ב-AI
שלומי עובד

Jailbreaking ב-AI: כשהמילים הופכות לנשק נגד הארגון 🔓

ג’יילברייק ל-LLM הוא תהליך שבו גורמים זדוניים מנסים לגרום למודל שפה לענות על פקודות שהוא אמור לחסום – כמו הנחיות לפעולה לא חוקית או חשיפת מידע רגיש.
זה נעשה באמצעות ניסוחים מתוחכמים, תסריטים מדורגים (Few-Shot) או פקודה חכמה אחת (One-Shot).
הסכנה: המודל “נשבר” מבלי להבין שההקשר מזויף- ונותן תשובות שלא נועד לתת.

קרא עוד »
"Visual warning about prompt injection in AI systems. The word 'PROMPT' is spelled out with wooden letter blocks. Above it are icons of a hacker on a laptop, a syringe symbolizing injection, and a caution triangle. The background is blurred with a soft focus. Purple side panels include icons of a hacker and a person typing passwords on a laptop."
הסיכונים ב-AI
שלומי עובד

ניהול חשיפות בהטמעת מודלי שפה – Prompt Injection ⛔

🧠 Prompt Injection היא שיטה שבה האקר שותל הוראות סמויות לבינה מלאכותית – שמבצעת אותן כאילו היו לגיטימיות.

⚠️ הבעיה היא לא במה שהבוט שואל, אלא בזה שמישהו זר שולט בו מאחורי הקלעים.

📦 דמיינו עובד שמבצע פקודות שנמסרו לו בפתק – בלי לדעת ממי.

🧩 המטרה: לשמור על שליטה, ולהבטיח שהבוט מציית רק למה שאתם מאשרים.

קרא עוד »
הסיכונים ב-AI
שלומי עובד

בינה מלאכותית : אז יש גם סכנות 🚨

מערכות בינה מלאכותית חשופות לשתי שיטות תקיפה עיקריות – Jailbreaking ו-Prompt Injection – שמאפשרות לעקוף מנגנוני בטיחות, לגנוב מידע או להפיק תוכן מזיק.
הסכנות כוללות דליפות מידע, יצירת קוד זדוני, והשתלטות על ממשקי API.
הגנה אפקטיבית דורשת שילוב של סינון קלט, טיהור פלט, הרשאות מינימליות ופיקוח אנושי.
לפי OWASP, יש לטפל במערכות AI כמו בתשתיות קריטיות – עם הנחות עבודה שמניחות פריצה מראש.

קרא עוד »

באתר זה נעשה שימוש ב”קבצי עוגיות” (cookies) וכלים דומים אחרים על מנת לספק לכם חווית גלישה טובה יותר, תוכן מותאם אישית וביצוע ניתוחים סטטיסטיים. למידע נוסף ניתן לעיין במדיניות הפרטיות