אנתרופיק תומכת בחוק SB 53

חברת אנתרופיק (Anthropic), מחברות ה-AI המובילות בעולם, הודיעה על תמיכתה בהצעת החוק SB 53 בקליפורניה, שמטרתה להסדיר את מערכות ה-AI העוצמתיות המפותחות על ידי חברות המפתחות מודלי חזית כמוה. תמיכה זו מגיעה לאחר בחינה מעמיקה של הלקחים מניסיון הרגולציה הקודם של קליפורניה (SB 1047). באנתרופיק מדגישים כי למרות שהם מאמינים שבטיחות AI חזית צריכה להיות מטופלת ברמה הפדרלית, ההתקדמות המהירה בתחום אינה יכולה לחכות להסכמה בוושינגטון.

מושל קליפורניה, גאווין ניוסם (Gavin Newsom), הקים את קבוצת העבודה המשותפת למדיניות AI בקליפורניה (Joint California Policy Working Group) – גוף המורכב מאקדמאים ומומחי תעשייה – כדי לספק המלצות לממשל AI. קבוצת העבודה אימצה גישה של 'אמון אבל ודא' ('trust but verify'), והצעת החוק SB 53 של הסנאטור סקוט ווינר (Scott Wiener) מיישמת עיקרון זה באמצעות דרישות שקיפות, במקום דרישות טכניות כופות שאפיינו את המאמצים בשנה שעברה.

מה משיג SB 53?

הצעת החוק SB 53 תחייב חברות גדולות המפתחות את מערכות ה-AI העוצמתיות ביותר:

  • לפתח ולפרסם מנגנוני בטיחות, שיכללו את האופן שבו הן מנהלות, מעריכות ומפחיתות סיכונים קטסטרופליים – סיכונים שעלולים לתרום באופן ניכר וצפוי לאירועי אסון המוניים או לנזקים כספיים משמעותיים.
  • לפרסם דוחות שקיפות ציבוריים המסכמים את הערכות הסיכונים הקטסטרופליים שלהן ואת הצעדים שננקטו ליישום המנגנונים שלהן, וזאת בטרם פריסת מודלים עוצמתיים חדשים.
  • לדווח למדינה על אירועי בטיחות קריטיים תוך 15 יום, ואף לחשוף באופן סודי סיכומים של הערכות לגבי פוטנציאל לסיכון קטסטרופלי משימוש במודלים בפריסה פנימית.
  • לספק הגנות ברורות לחושפי שחיתויות, שיכסו הפרות של דרישות אלו וכן סכנות ספציפיות ומהותיות לבריאות/בטיחות הציבור כתוצאה מסיכונים קטסטרופליים.
  • לשאת באחריות ציבורית להתחייבויות שנקבעו במנגנונים שלהן, או לעמוד בפני קנסות כספיים.

דרישות אלו יהפכו לנוהג רשמי שיטות שאנתרופיק וחברות רבות אחרות המפתחות מודלי AI חזית כבר נוקטות בהן. באנתרופיק, למשל, אנו מפרסמים את מדיניות הסקיילינג האחראי שלנו, המפרטת כיצד אנו מעריכים ומפחיתים סיכונים ככל שהמודלים שלנו הופכים ליכולתיים יותר. אנו משחררים כרטיסי מערכת מקיפים המתעדים את יכולות ומגבלות המודלים. מעבדות חזית אחרות (Google DeepMind, OpenAI, Microsoft) אימצו גישות דומות תוך תחרות עזה בתחום. כעת, כל המודלים המכוסים יעמדו בסטנדרט זה באופן חוקי. הצעת החוק גם מתמקדת באופן ראוי בחברות גדולות המפתחות את מערכות ה-AI העוצמתיות ביותר, תוך מתן פטורים לחברות סטארט-אפ קטנות יותר שפחות סביר שיפתחו מודלים עוצמתיים ואין עליהן לשאת בנטלים רגולטוריים מיותרים.

דרישות השקיפות של SB 53 ישפיעו באופן חשוב על בטיחות AI חזית. בלעדיו, מעבדות עם מודלים חזקים יותר ויותר עלולות להתמודד עם תמריצים הולכים וגדלים להפחית את תוכניות הבטיחות והשקיפות שלהן כדי להתחרות. אך עם SB 53, מפתחים יכולים להתחרות תוך הבטחה שהם יישארו שקופים לגבי יכולות AI המהוות סיכונים לבטיחות הציבור, ויוצרים שטח משחק שווה שבו השקיפות היא חובה, לא אופציה.

מבט לעתיד

SB 53 מספק בסיס רגולטורי חזק, אך אנו יכולים וצריכים לבנות על התקדמות זו בתחומים הבאים, ואנו מצפים לעבוד עם קובעי המדיניות כדי לעשות זאת:

  • הצעת החוק קובעת כיום אילו מערכות AI יוסדרו על בסיס כוח העיבוד (FLOPS) ששימש לאימונן. הסף הנוכחי (10^26 FLOPS) הוא נקודת התחלה מקובלת, אך תמיד קיים סיכון שחלק מהמודלים העוצמתיים לא יכוסו.
  • באופן דומה, מפתחים צריכים להידרש לספק פרטים רבים יותר על הבדיקות, ההערכות וההפחתות שהם מבצעים. כאשר אנו משתפים את מחקר הבטיחות שלנו, מתעדים את בדיקות ה-Red Teaming שלנו, ומסבירים את החלטות הפריסה שלנו – כפי שעשינו יחד עם שחקני תעשייה באמצעות Frontier Model Forum – זה מחזק ולא מחליש את עבודתנו.
  • לבסוף, רגולציות צריכות להתפתח ככל שטכנולוגיית ה-AI מתקדמת. לקובעי הרגולציה צריכה להיות היכולת לעדכן כללים לפי הצורך כדי לעמוד בקצב ההתפתחויות החדשות ולשמור על האיזון הנכון בין בטיחות לחדשנות.

אנו מברכים את הסנאטור ווינר והמושל ניוסם על מנהיגותם בממשל AI אחראי. השאלה אינה אם אנו זקוקים לממשל AI – אלא אם נפתח אותו באופן שקול היום או בתגובה למחר. SB 53 מציע נתיב מוצק לעבר האפשרות הראשונה. אנו מעודדים את קליפורניה להעביר אותו, ואנו מצפים לעבוד עם קובעי מדיניות בוושינגטון וברחבי העולם כדי לפתח גישות מקיפות המגנות על האינטרסים הציבוריים תוך שמירה על ההובלה האמריקאית בתחום ה-AI.