חברת המחקר והבטיחות בתחום ה-AI, אנתרופיק (Anthropic), הגישה לאחרונה תגובה מפורטת לבקשת התייעצות של מנהל התקשורת והמידע הלאומי (NTIA) בארצות הברית בנושא אחריות בתחום ה-AI. המסמך מציג את עמדת אנתרופיק לגבי התהליכים והתשתיות הנדרשות להבטחת אחריות במערכות בינה מלאכותית, במיוחד לאור העדר תהליך מקיף להערכת מודלי AI מתקדמים כיום ובעתיד. החברה רואה ב-NTIA גוף מתאם פוטנציאלי, שיוכל לקבוע סטנדרטים בשיתוף פעולה עם סוכנויות ממשלתיות נוספות, כדוגמת המכון הלאומי לתקנים וטכנולוגיה (NIST).

בהמלצותיה, אנתרופיק מתמקדת במנגנוני אחריות המתאימים למודלי AI בעלי יכולות גבוהות וכלליות. החברה ממליצה על מספר צעדים מרכזיים: הגדלת המימון למחקר בתחום הערכת מודלי AI, תוך דרישה מחברות לחשוף שיטות ותוצאות הערכה בטווח הקצר ופיתוח סטנדרטים אחידים בטווח הארוך; יצירת הערכות מותאמות סיכון המבוססות על יכולות המודלים, כולל פיתוח סף סיכון שיחייב הערכה קפדנית לפני פריסה; הקמת רישום חובה מוקדם להרצות אימון AI גדולות כדי לאפשר למאסדרים לזהות סיכונים פוטנציאליים; העצמת גורמי ביקורת חיצוניים (Auditors) בעלי אוריינטציה טכנולוגית, ביטחונית וגמישות; חובת Red Teaming חיצוני לפני שחרור מודלים מתקדמים כדי לתקנן בדיקות תחרותיות; קידום מחקר פרשנות (Interpretability) על ידי הגדלת מימון ומענקים; וכן הבהרת ההנחיות בנוגע לשיתוף פעולה בין חברות בתחום בטיחות ה-AI, לאור חוקי ההגבלים העסקיים.

אנתרופיק מאמינה כי יישום המלצות אלו יקרב אותנו באופן משמעותי ליצירת מסגרת אפקטיבית לאחריות בתחום ה-AI. הדבר יצריך שיתוף פעולה הדוק בין חוקרים, מעבדות AI, רגולטורים, מבקרים ובעלי עניין אחרים. החברה מחויבת לתמוך במאמצים שיאפשרו פיתוח ופריסה בטוחים של מערכות AI, ורואה בהערכות, Red Teaming, סטנדרטים, מחקר פרשנות ואבטחת סייבר חזקה, נתיבים מבטיחים להפחתת הסיכונים תוך מימוש יתרונותיה העצומים של הבינה המלאכותית.