מתווה שקיפות חדש ל-AI חזיתי בקליפורניה
עם כניסתו לתוקף ב-1 בינואר של חוק השקיפות ב-AI חזיתי של קליפורניה (SB 53), הופכת המדינה לראשונה בארה"ב שמציבה דרישות בטיחות ושקיפות למודלי AI חזיתיים, במטרה להתמודד עם סיכונים קטסטרופליים. אנתרופיק (Anthropic), שחקן מפתח בתחום בטיחות ה-AI, תמכה בחוק אף שפעלה בעבר למען מתווה פדרלי. בחברה מאמינים כי מפתחי AI חזיתי צריכים להיות שקופים לגבי האופן שבו הם מעריכים ומנהלים סיכונים אלה. החוק דורש ממפתחי AI לפרסם מתווה המתאר כיצד הם מעריכים ומטפלים בסיכונים קטסטרופליים, ובמענה לכך, אנתרופיק פרסמה את ה-Frontier Compliance Framework (FCF) שלה.
מה כולל מתווה הציות של אנתרופיק?
ה-FCF של אנתרופיק מפרט את הגישה שלה להערכה והפחתת איומים קטסטרופליים ממודלי ה-AI חזית שלה. זה כולל איומים קיברנטיים, איומים כימיים, ביולוגיים, רדיולוגיים וגרעיניים (CBRN), כמו גם סיכוני חבלה של AI ואובדן שליטה. המתווה מציג גם מערכת מדרגית להערכת יכולות המודל מול קטגוריות סיכון אלו, את גישתה להפחתת הסיכונים וכיצד היא מגנה על משקולות המודל ומגיבה לאירועי בטיחות. המתווה משקף את התפתחות הנהלים שהחברה מיישמת מזה שנים, לרבות מדיניות ה-Responsible Scaling Policy (RSP) שלה מ-2023. בעוד ה-RSP תישאר כמדיניות בטיחות וולונטרית המשקפת שיטות עבודה מומלצות, ה-FCF יהווה את מתווה הציות המחייב של אנתרופיק לחוק SB 53 ודרישות רגולטוריות עתידיות.
הצורך בסטנדרט פדרלי אחיד
כניסתו של SB 53 לתוקף מהווה ציון דרך חשוב, שכן הוא ממסד נוהלי שקיפות שמעבדות אחראיות כבר מיישמות באופן וולונטרי. עם זאת, אנתרופיק מדגישה את הצורך הדחוף במסגרת שקיפות פדרלית ל-AI בארה"ב, על מנת להבטיח עקביות ברחבי המדינה. החברה הציעה מתווה לחקיקה פדרלית, המתמקד בשקיפות ציבורית של נוהלי בטיחות, תוך שמירה על גמישות טכנית. עקרונות הליבה של מתווה זה כוללים:
- דרישה למתווה פיתוח מאובטח ופומבי: מפתחים נדרשים לפרסם מתווה המפרט כיצד הם מעריכים וממתנים סיכונים חמורים, כולל נזקים מ-CBRN ונזקים מאוטונומיה לא מיושרת של המודל.
- פרסום "כרטיסי מערכת" בעת פריסה: תיעוד המסכם נהלי בדיקה, הערכה, תוצאות ופתרונות הפחתה צריך להתפרסם באופן פומבי עם פריסת המודלים ולעדכן אותו בשינויים מהותיים.
- הגנה על חושפי שחיתויות: הפרת החוק תכלול שקרים לגבי ציות למתווה או ענישת עובדים המעלים חששות לגבי הפרות.
- תקני שקיפות גמישים: מתווה עבודה לשקיפות ב-AI צריך לכלול סט מינימלי של תקנים, שיוכלו להתפתח עם הופעת שיטות עבודה מומלצות.
- הגבלת היישום למפתחי המודלים הגדולים: כדי למנוע נטל על סטארט-אפים ומפתחים קטנים עם מודלים בעלי סיכון נמוך, הדרישות יחולו רק על מפתחי AI חזיתי מבוססים הבונים את המודלים החזקים ביותר.
לטענת אנתרופיק, הציבור זכאי לראות כיצד מערכות AI חזקות מפותחות ואילו מנגנוני הגנה קיימים, תוך שיתוף פעולה עם הממשל כדי להבטיח מנהיגות אמריקאית בתחום ה-AI.



