חברת אנתרופיק (Anthropic) משיקה יכולת מהפכנית ל-Claude 3.5 Sonnet שלה: שימוש ישיר במחשבים. המודל יכול כעת לנווט בעזרת סמן, להקליק על מיקומים רלוונטיים ולהזין מידע דרך מקלדת וירטואלית, בחיקוי האופן שבו בני אדם מקיימים אינטראקציה עם המחשב. יכולת זו, הזמינה כעת בבטא ציבורית, מהווה פריצת דרך משמעותית בתחום ה-AI. אנתרופיק מסבירה כי יכולת זו פותחת מגוון עצום של יישומים שלא היו אפשריים עבור דורות קודמים של עזרי AI, ורואה בה את ה"גבול הבא" של מודלי AI – כאלה שמוסמכים להשתמש כמעט בכל תוכנה קיימת, ללא צורך בכלים מותאמים אישית.

הפריצה הטכנולוגית והביצועים

פיתוח היכולת נבנה על עבודות קודמות של אנתרופיק בתחומי שימוש בכלים ורב-מודאליות. המודל אומן לפרש צילומי מסך ולבצע פעולות תגובה תוך שימוש בכלי תוכנה זמינים, תוך דגש על ספירת פיקסלים מדויקת כדי לאפשר ל-Claude לתת פקודות עכבר. החוקרים הופתעו מקצב ההכללה המהיר של Claude מיכולות שימוש בתוכנות פשוטות, והמודל אף הפגין יכולת תיקון עצמי וניסיונות חוזרים כשאיתר מכשולים. לדברי אנתרופיק, Claude הוא כיום המודל המתקדם ביותר בתחום זה. בבחינת מדד הביצועים OSWorld, שנועד לבחון מודלים בשימוש במחשבים, Claude השיג ציון של 14.9%. ציון זה רחוק מיכולת אנושית (70-75%), אך גבוה משמעותית מ-7.7% שהושגו על ידי מודל ה-AI השני הטוב ביותר באותה קטגוריה.

בטיחות בראש סדר העדיפויות

כל התקדמות ב-AI מביאה עמה אתגרי בטיחות חדשים. אנתרופיק מבהירה כי שימוש במחשבים בעיקר מנגיש את הכישורים הקוגניטיביים הקיימים של מודלי AI, ולא מגדיל אותם באופן מהותי, ולכן הדאגות העיקריות מתמקדות בנזקים עכשוויים. החברה אישרה כי Claude 3.5 Sonnet, עם יכולת השימוש במחשב, נשאר ברמת בטיחות AI 2 (AI Safety Level 2).

אנו סבורים כי עדיף להציג את יכולת השימוש במחשבים כעת, בעוד המודלים עדיין זקוקים לאמצעי בטיחות ברמת AI Safety Level 2 בלבד. משמעות הדבר היא שנוכל להתחיל להתמודד עם כל בעיות הבטיחות לפני שהסיכונים יהיו גבוהים מדי, במקום להוסיף יכולות שימוש במחשבים לראשונה למודל עם סיכונים חמורים בהרבה.

אחד החששות המרכזיים שזוהו הוא "Prompt Injection" – סוג של מתקפת סייבר שבה הוראות זדוניות מוחדרות למודל AI דרך תוכן אינטרנט המוצג במסך, מה שעלול לגרום לו לעקוף הנחיות קודמות או לבצע פעולות בלתי רצויות. צוותי הבטיחות והאמון של אנתרופיק פיתחו אמצעים שונים לזיהוי והפחתת סיכונים כאלה, כולל ניטור מיוחד סביב פעילויות הקשורות לבחירות הקרובות בארה"ב, כדי למנוע שימוש לרעה שעלול לערער את אמון הציבור בתהליכים אלקטורליים.

יכולת השימוש במחשבים מייצגת גישה שונה לחלוטין לפיתוח AI – במקום "להתאים כלים למודל", אנתרופיק שואפת "להתאים את המודל לכלים" הקיימים שאנו משתמשים בהם מדי יום. למרות ההתקדמות, יכולת השימוש במחשבים של Claude עדיין איטית, נוטה לטעויות, ואינה יכולה לבצע פעולות מורכבות שאנשים עושים בדרך קבע (כמו גרירה או זום). עם זאת, אנתרופיק מצפה לשיפור מהיר ביכולות אלו, לרבות אמינות וקלות יישום, ותמשיך לעבוד בשיתוף פעולה הדוק עם צוותי הבטיחות כדי להבטיח שיכולותיו החדשות של Claude ילוו תמיד באמצעי הבטיחות המתאימים.