השבוע האחרון היה דרמטי במיוחד עבור מדיניות ה-AI העולמית, כששלושה אירועים משמעותיים התרחשו במקביל: ממשלת ארה"ב פרסמה צו נשיאותי מקיף בנושא בינה מלאכותית, מדינות ה-G7 גיבשו קוד התנהגות בינלאומי, וממשלת בריטניה אירחה לראשונה פסגה פורצת דרך לבטיחות AI בבלצ'לי פארק, שהולידה את הצהרת בלצ'לי. חברת אנתרופיק (Anthropic), שמובילה בתחום בטיחות ה-AI, מנתחת את המשמעויות של צעדים רגולטוריים אלו עבור עתיד הטכנולוגיה, ומברכת על הגישה הגלובלית המתפתחת.

מסגרות רגולטוריות ומכונים ממשלתיים: צעדים ראשונים

הצו הנשיאותי האמריקאי, המשתרע על פני למעלה מ-100 עמודים, מתייחס למגוון רחב של סיכוני AI, מפרטיות והטיה ועד סיכונים קטסטרופליים, תוך הכרה ביתרונות הטכנולוגיה. אנתרופיק מברכת על הכוונת מאמצים משמעותיים למכון הלאומי לתקנים וטכנולוגיה (NIST) לפיתוח הערכות בטיחות למודלים וכלים לניהול סיכונים, ועל השקת פיילוט ל-National AI Research Resource (NAIRR) לשיפור הגישה למשאבים עבור חוקרי בטיחות AI.

במקביל, קוד ההתנהגות הבינלאומי של ה-G7 מציג מערך של שיטות עבודה אחראיות לזיהוי והפחתת סיכונים לאורך כל מחזור הפיתוח והפריסה של AI, וקובע קווים מנחים חשובים עבור חברות AI חזיתיות. אנתרופיק תומכת בקוד זה ורואה בו בסיס לרגולציה עתידית. עוד באותו שבוע, פסגת בטיחות ה-AI בבלצ'לי פארק, בהשתתפות 28 מדינות (כולל סין), הולידה את הצהרת בלצ'לי, הקוראת לפעולה רב-בעלי עניין. דריו אמודאי (Dario Amodei), מנכ"ל אנתרופיק, הציג בפסגה את מדיניות הסקיילינג האחראי של החברה כמודל פוטנציאלי לגישות רגולטוריות. בריטניה וארה"ב גם הודיעו על הקמת מכוני בטיחות AI ממשלתיים – ה-AI Safety Institute הבריטי וקונסורציום מקביל של ה-NIST בארה"ב – שיתמקדו בהערכת סיכונים של מודלי AI חזיתיים ופיתוח מתודולוגיות בדיקה.

אנתרופיק: קריאה ל"מירוץ בטיחות" גלובלי

אנתרופיק מברכת על הקמת גופים אלו ומציינת את החשיבות של השקעה ממשלתית ביכולות עצמאיות למדידה וניטור AI. החברה סבורה כי קידום מדע ההערכה וקביעת פרוטוקולי בדיקה אמינים ועצמאיים חיוניים ליצירת רגולציה הגיונית ולקידום חדשנות אחראית בתחום, תוך יצירת שקיפות ואמינות לכלל השחקנים בשוק. ההכרזות של השבוע מסמלות את תחילתו של שלב חדש בעבודת מדיניות ובטיחות ה-AI, ואנתרופיק מחויבת לתרום למימוש יעדים אלה, ומעודדת "מירוץ בטיחות כלפי מעלה" בתעשייה, במטרה להבטיח עתיד בטוח ואחראי לבינה המלאכותית.