אנתרופיק חושפת את Claude 3.5 Sonnet ו-Haiku החדשים לצד יכולת Computer Use מהפכנית

חברת אנתרופיק (Anthropic) הכריזה היום על עדכון משמעותי למשפחת מודלי השפה הגדולים (LLM) שלה, הכולל את ה-Claude 3.5 Sonnet המשודרג, את ה-Claude 3.5 Haiku החדש, ואת יכולת ה-"Computer Use" הניסיונית, הנמצאת בשלב בטא ציבורי. עדכונים אלו ממצבים את אנתרופיק בחזית החדשנות, עם דגש על שיפורי קידוד ויכולות אינטראקציה מתקדמות עם מערכות מחשב.

ה-Claude 3.5 Sonnet המעודכן מציג שיפורים רוחביים במדדי ביצועים (benchmarks) בתעשייה, עם זינוק משמעותי במיוחד בתחום הקידוד הסוכני (agentic coding) ושימוש בכלים (tool use). על פי החברה, הוא עולה על כל המודלים הזמינים כיום בפיתוח תוכנה, כולל מודלי חשיבה (reasoning) ומערכות ממוקדות לקידוד סוכני. במקביל, ה-Claude 3.5 Haiku החדש, שיושק בהמשך החודש, מציע ביצועים מרשימים המקבילים לאלו של Claude 3 Opus – מודל הדגל הקודם של אנתרופיק – אך במהירות דומה לדור הקודם של Haiku, ובמחיר נגיש יותר. יכולותיו המתקדמות של Haiku הופכות אותו לאידיאלי למשימות הדורשות זמן תגובה נמוך ועיבוד כמויות מידע גדולות, כגון יצירת חוויות מותאמות אישית.

היכולת המרכזית הנוספת שהוצגה, "Computer Use", זמינה החל מהיום ב-API של אנתרופיק. היא מאפשרת ל-Claude לתקשר עם מחשבים באופן שמחקה אינטראקציה אנושית – צפייה במסך, הזזת סמן, לחיצה על כפתורים והקלדת טקסט. במקום להגדיר לו כלים ספציפיים, אנתרופיק מלמדת את Claude מיומנויות מחשב כלליות, המאפשרות לו להשתמש במגוון רחב של תוכנות סטנדרטיות. יכולת פורצת דרך זו, למרות היותה ניסיונית ומועדת לשגיאות בשלב זה, פותחת אופקים חדשים לאוטומציה של תהליכים חוזרניים, פיתוח ובדיקת תוכנה, וביצוע משימות מחקר פתוחות. חברות טכנולוגיה מובילות כמו Asana, Canva ו-Replit כבר בוחנות את הפוטנציאל הגלום בה.

אנתרופיק מדגישה את מחויבותה ל-AI אחראי ובטיחות בפריסת היכולות החדשות. החברה מבצעת בדיקות קפדניות בשיתוף עם מכוני בטיחות AI בארה"ב ובבריטניה, ופיתחה מנגנוני הגנה (guardrails) וסיווגים חדשים לזיהוי שימושים מזיקים של "Computer Use", כגון ספאם או מידע מוטעה. שחרור היכולת בשלב בטא מאפשר איסוף פידבק קריטי ממפתחים, שיסייע לשפר אותה במהירות ולצמצם סיכונים פוטנציאליים בעתיד.