
אבטחת מודלי AI חזיתיים: אנתרופיק קוראת לחיזוק ההגנה מפני גניבה ושימוש לרעה
אנתרופיק (Anthropic), חברת מחקר ובטיחות AI מובילה, מפרסמת קריאה דרמטית לחיזוק אבטחת הסייבר של מודלי בינה מלאכותית חזיתיים (frontier AI models), בטענה שהם מהווים תשתית קריטית עם פוטנציאל להשפיע על ביטחון לאומי וכלכלה גלובלית. החברה קוראת למעבדות AI ולממשלות לאמץ באופן מיידי שיטות עבודה מחמירות, בהן מנגנון 'בקרת שני גורמים' (two-party control) ותקני פיתוח תוכנה מאובטח כמו NIST SSDF ו-SLSA. אנתרופיק מציעה לטפל במגזר ה-AI המתקדם כמגזר תשתית קריטית, עם דגש על שיתוף פעולה הדוק בין המגזר הציבורי לפרטי, על מנת למנוע גניבה או שימוש לרעה במודלים. החברה מצהירה כי היא עצמה מיישמת בקרות אבטחה מתקדמות במודלי Claude שלה.





