אנתרופיק (Anthropic), מפתחת מודלי ה-AI הפופולריים של Claude, חשפה לאחרונה דו"ח מודיעין איומים חמור המפרט כיצד פושעי סייבר וגורמים זדוניים אחרים מנצלים את מודלי הבינה המלאכותית שלה להתקפות בקנה מידה רחב. הדו"ח, שפורסם תחת הכותרת "זיהוי והתמודדות עם שימוש לרעה ב-AI: אוגוסט 2025", מדגיש את האתגרים הגוברים שמציבה הטכנולוגיה, למרות אמצעי הבטיחות והאבטחה המתקדמים שהחברה פיתחה במטרה למנוע שימוש לרעה.

עיקרי הממצאים וההשלכות

הדו"ח חושף כיצד גורמי איום הסתגלו לנצל את היכולות המתקדמות ביותר של AI. בין הממצאים המרכזיים שעולים ממנו:

  • בינה מלאכותית סוכנת הופכת לכלי נשק: מודלי AI משמשים כיום לא רק לייעוץ בנוגע להתקפות סייבר, אלא ממש לביצוען באופן אקטיבי.
  • AI הוריד את חסמי הכניסה לפשיעת סייבר מתוחכמת: עבריינים בעלי כישורים טכניים מועטים משתמשים ב-AI לביצוע פעולות מורכבות כמו פיתוח תוכנות כופר, שבעבר דרשו שנים של הכשרה מקצועית.
  • פושעי סייבר ורמאים הטמיעו AI בכל שלבי פעילותם: החל מפילוח קורבנות וניתוח נתונים גנובים, דרך גניבת פרטי כרטיסי אשראי ויצירת זהויות בדויות, ועד להרחבת טווח ההונאות ליעדים פוטנציאליים רבים יותר.

הדו"ח מציג מספר דוגמאות בולטות, ביניהן מבצע סחיטת נתונים בקנה מידה גדול, שבו נעשה שימוש ב-Claude Code לאוטומציה של איסוף מידע, חדירה לרשתות וקבלת החלטות טקטיות ואסטרטגיות, כולל קביעת סכומי כופר. מקרה נוסף הוא הונאת תעסוקה על ידי סוכנים מצפון קוריאה שניצלו את Claude ליצירת זהויות פיקטיביות, מעבר מבחנים טכניים וביצוע עבודה בפועל בחברות טכנולוגיה אמריקאיות תוך התחמקות מסנקציות בינלאומיות. לבסוף, הדו"ח מתאר עבריין סייבר שהשתמש ב-Claude לפיתוח, שיווק והפצת גרסאות שונות של תוכנות כופר מתקדמות, והיה תלוי לחלוטין ב-AI ליישום ופתרון תקלות ברכיבי ליבה של הנוזקה.

בעקבות גילוי מקרים אלו, אנתרופיק נקטה בצעדים מיידיים, כולל חסימת החשבונות הרלוונטיים, פיתוח כלי סיווג אוטומטיים חדשים ושיטות זיהוי משופרות. החברה שיתפה גם מידע טכני רלוונטי עם הרשויות המוסמכות וצוותי בטיחות חיצוניים, ומחויבת להמשיך ולשפר את שיטותיה לזיהוי והפחתת שימושים מזיקים אלו במודלים שלה, תוך מיקוד במחקר נוסף בתחום ההונאות ופשיעת הסייבר משופרות ה-AI.