אנתרופיק (Anthropic), חברת מחקר ובטיחות AI מובילה, הגישה למשרד למדיניות מדע וטכנולוגיה (OSTP) של הבית הלבן שורת המלצות מפורטות. זאת בתגובה לבקשת המידע שהופצה לגבי תוכנית פעולה ל-AI בארה"ב. ההמלצות נועדו לחזק את מוכנותה של אמריקה למנף את היתרונות הכלכליים ולהתמודד עם ההשלכות הביטחוניות של מערכות AI חזקות.
מנכ"ל אנתרופיק, דריו אמודאי (Dario Amodei), ציין במאמרו "מכונות של חסד אוהב" ("Machines of Loving Grace"), כי הוא צופה שמערכות AI חזקות במיוחד יופיעו כבר בסוף 2026 או תחילת 2027. מערכות אלו צפויות להציג את המאפיינים הבאים:
- יכולות אינטלקטואליות התואמות או עולות על אלו של זוכי פרס נובל במרבית הדיסציפלינות – כולל ביולוגיה, מדעי המחשב, מתמטיקה והנדסה.
- היכולת לנווט בכל הממשקים הזמינים לאדם העוסק כיום בעבודה דיגיטלית, לרבות עיבוד וייצור טקסט, אודיו ווידאו, שליטה אוטונומית בכלי טכנולוגיה כמו עכברים ומקלדות, וגישה וגלישה באינטרנט.
- היכולת לחשוב באופן אוטונומי על משימות מורכבות לאורך תקופות ממושכות – שעות, ימים ואף שבועות – תוך בקשת הבהרות ומשוב לפי הצורך, בדומה לעובד מיומן ביותר.
- היכולת לתקשר עם העולם הפיזי; שליטה בציוד מעבדה, מערכות רובוטיות וכלי ייצור באמצעות חיבורים דיגיטליים.
העבודה האחרונה של אנתרופיק מוסיפה ראיות לכך ש-AI חזק יגיע בקרוב: השקת המודלים Claude 3.7 Sonnet ו-Claude Code לאחרונה מדגימה שיפורים משמעותיים ביכולות ובאוטונומיה, בדומה למערכות ששוחררו על ידי מעבדות חזית נוספות.
המלצות המפתח של אנתרופיק לתוכנית הפעולה של ארה"ב ב-AI
אנתרופיק סבורה כי על ארצות הברית לנקוט בצעדים נחרצים כדי לשמר את מנהיגותה הטכנולוגית. ההמלצות שהוגשו מתמקדות בשישה תחומי מפתח, שמטרתם להתמודד עם ההשלכות הכלכליות והביטחוניות של AI חזק, תוך מיקסום התועלת עבור כלל האמריקאים:
- בדיקות ביטחון לאומי: על סוכנויות הממשלה לפתח יכולות חזקות להערכת מודלי AI מקומיים וזרים מבחינת השלכות ביטחון לאומי פוטנציאליות. זה כולל יצירת מסגרות הערכה סטנדרטיות, בניית תשתיות בדיקה מאובטחות והקמת צוותי מומחים לניתוח נקודות תורפה במערכות פרוסות.
- חיזוק בקרות הייצוא: אנו תומכים בהידוק מגבלות ייצוא מוליכים למחצה כדי להבטיח שאמריקה ובעלות בריתה יוכלו למנף את ההזדמנויות שמציעות מערכות AI חזקות, ולמנוע ממתחריהן גישה לתשתיות ה-AI המאפשרות AI חזק. זה כולל שליטה על שבבי H20, דרישה להסכמים בין ממשלות למדינות המארחות פריסות שבבים גדולות, והפחתת ספי הסף לפטור מרישיון.
- שיפור אבטחת מעבדות: מאחר שמערכות AI הופכות לנכסים אסטרטגיים קריטיים, אנו ממליצים להקים ערוצי תקשורת מסווגים בין מעבדות AI וסוכנויות מודיעין, להאיץ את הליכי סיווג ביטחוני לאנשי מקצוע בתעשייה, ולפתח תקני אבטחה מהדור הבא עבור תשתיות AI.
- הרחבת תשתית האנרגיה: כדי להישאר בחזית פיתוח ה-AI, אנו ממליצים להציב יעד שאפתני לבניית 50 ג'יגה-וואט נוספים של חשמל ייעודי עד 2027, תוך ייעול תהליכי היתר ואישור.
- האצת אימוץ AI ממשלתי: אנו מציעים לערוך מפקד כלל-ממשלתי של תהליכי עבודה שיכולים ליהנות מהגברת AI, ולמנות מנהלי סוכנויות למסור תוכניות שבהן AI יכול לספק תועלת ציבורית משמעותית.
- היערכות להשפעות כלכליות: כדי להבטיח שיתרונות ה-AI יחולקו באופן נרחב בכל החברה, אנו ממליצים לחדש מנגנונים לאיסוף נתונים כלכליים, כמו סקרי לשכת המפקד (Census Bureau), ולהיערך לשינויים פוטנציאליים בקנה מידה גדול בכלכלה.
המלצות אלו מתבססות על עבודת המדיניות הקודמת של אנתרופיק, לרבות תמיכתה במדיניות סקיילינג אחראית ובדיקות והערכה קפדניות. מטרתנו היא ליצור איזון – לאפשר חדשנות תוך כדי צמצום סיכונים חמורים שמציבות מערכות AI בעלות יכולות הולכות וגוברות. המסמך המלא, הזמין כאן, מציע פירוט נוסף של ההמלצות ומספק אסטרטגיות יישום פרקטיות כדי לסייע לממשלת ארה"ב לנווט במעבר הטכנולוגי הקריטי הזה.



