ASL-3

2 כתבות בנושא זה

אנתרופיק בוחנת את הגנות הבטיחות של ה-AI שלה עם תוכנית Bug Bounty חדשה
14 במאי 2025

אנתרופיק בוחנת את הגנות הבטיחות של ה-AI שלה עם תוכנית Bug Bounty חדשה

אנתרופיק (Anthropic) משיקה תוכנית Bug Bounty חדשה בשיתוף HackerOne, שמטרתה לבחון לעומק את מנגנוני הבטיחות המתקדמים שלה. התוכנית מאתגרת חוקרים למצוא פריצות מגבלות (jailbreaks) אוניברסליות במערכות סיווג בטיחותיות שטרם נפרסו לציבור. זאת, כחלק מהמחויבות של החברה לעמוד בתקן AI Safety Level-3 (ASL-3) במסגרת מדיניות ה-Responsible Scaling שלה, המגדירה כיצד לפתח ולפרוס מודלי AI בעלי יכולות גדלות באופן בטוח. פרסים של עד 25,000 דולר יוצעו לחוקרים שיזהו פריצות כאלה, במיוחד כאלו שקשורות לשימוש לרעה בטכנולוגיה בנושאי נשק כימי, ביולוגי, רדיולוגי וגרעיני (CBRN).

קרא עוד
מדיניות הסקיילינג האחראי של אנתרופיק: שיעורים ראשונים מהשטח
20 במאי 2024

מדיניות הסקיילינג האחראי של אנתרופיק: שיעורים ראשונים מהשטח

אנתרופיק (Anthropic) פרסמה לפני שנה את מדיניות הסקיילינג האחראי (RSP) שלה, שנועדה לספק קווים מנחים מעשיים לבטיחות וניהול סיכונים במודלי חזית. כעת, החברה משתפת תובנות מהטמעת המדיניות, המדגישות את חשיבותה כמסגרת עבודה מובנית, אך גם את האתגרים באיזון בין התחייבויות מחמירות להתפתחות מהירה של הטכנולוגיה. המדיניות כוללת חמש התחייבויות ליבה, המתמקדות בזיהוי, בדיקה ותגובה ליכולות מסוכנות, לצד פיתוח תקני אבטחה מחמירים (ASL-3) והקמת מנגנוני בקרה פנימיים וחיצוניים.

קרא עוד