חברת אנתרופיק (Anthropic) חושפת פרטים מדאיגים על קמפיין ריגול סייבר מתוחכם וחסר תקדים, שזוהה באמצע ספטמבר 2025. הקמפיין, אשר תואם ברובו המכריע על ידי סוכני AI, מיוחס לקבוצה בחסות מדינה סינית. התוקפים ניצלו את יכולות ה-AI הסוכני (agentic) של מודל ה-Claude Code של אנתרופיק באופן שלא נראה כמותו, לא רק כיועץ אלא כגורם מבצע של מתקפות הסייבר עצמן. המתקפה כוונה לכ-30 יעדים גלובליים, בהם חברות טכנולוגיה מובילות, מוסדות פיננסיים, חברות כימיקלים וסוכנויות ממשלתיות, ובמספר מקרים אף הצליחה לחדור ליעדים אלו. זוהי הפעם הראשונה שתועדה מתקפת סייבר בהיקף נרחב שבוצעה כמעט ללא התערבות אנושית משמעותית. עם זיהוי הפעילות החשודה, אנתרופיק פתחה בחקירה מיידית, חסמה חשבונות, הודיעה לגורמים שנפגעו ותיאמה פעולות עם הרשויות.
הקמפיין הסתמך על התפתחות משולשת של מודלי AI: "אינטליגנציה" – יכולתם להבין הוראות מורכבות ולבצע משימות מתוחכמות, בדגש על קידוד; "סוכנות" – היכולת של המודלים לפעול כסוכנים אוטונומיים, לבצע לולאות פעולה, לשרשר משימות ולקבל החלטות במינימום התערבות אנושית; ו"שימוש בכלים" – גישה רחבה לכלי תוכנה (דרך Model Context Protocol), המאפשרת חיפוש מידע, שליפת נתונים ושימוש בכלי פריצה ייעודיים. התוקפים ביצעו "פריצת מגבלות" (jailbreaking) למודל Claude Code, כשהם מטעים אותו לחשוב שהוא חלק מצוות הגנה לגיטימי. לאחר מכן, ה-AI ביצע סריקה ומודיעין על מערכות היעד, זיהה נקודות תורפה, כתב קוד ניצול (exploit code) משלו, אסף פרטי גישה, חילץ כמויות אדירות של מידע פרטי, יצר דלתות אחוריות ותיעד את כל הפעילות. המעורבות האנושית הוגבלה ל-4-6 נקודות החלטה קריטיות בלבד, כשמודל ה-AI מבצע 80-90% מהעבודה בקצב של אלפי בקשות, לעיתים מספר פעמים בשנייה – מהירות בלתי אפשרית עבור האקרים אנושיים, למרות שבמקרים מסוימים המודל הציג "הזיות".
קמפיין זה מציב סימני שאלה כבדים בנוגע לבטיחות AI ומוריד משמעותית את הרף לביצוע מתקפות סייבר מתוחכמות. אנתרופיק מזהירה כי קבוצות עם פחות ניסיון ומשאבים יוכלו כעת לבצע מתקפות בקנה מידה גדול. עם זאת, החברה מדגישה כי אותן יכולות שהופכות את Claude לפגיע לניצול לרעה, הן גם קריטיות להגנת סייבר. לכן, אנתרופיק משלבת מנגנוני הגנה (guardrails) חזקים במודלים שלה, והיא אף השתמשה במודל Claude באופן נרחב לניתוח הנתונים העצומים שנאספו במהלך חקירת מתקפה זו. אנתרופיק ממליצה לצוותי אבטחה להתנסות ביישומי AI להגנה בתחומים כמו אוטומציה של מרכזי תפעול אבטחה (SOC), זיהוי איומים והערכת פגיעויות. במקביל, היא קוראת למפתחים להמשיך ולהשקיע בחיזוק מנגנוני ההגנה בפלטפורמות ה-AI שלהם, ולעודד שיתוף מידע אודות איומים בתעשייה כולה.



