מחקר

מחקרים ופרסומים מצוות המחקר של אנתרופיק - סקירות מעמיקות, ניתוחים טכניים ותובנות מעולם הבינה המלאכותית

SHADE-Arena: הערכת חבלה וניטור בסוכני LLM
16 ביוני 2025

SHADE-Arena: הערכת חבלה וניטור בסוכני LLM

אנתרופיק (Anthropic) הציגה מערך הערכה חדש בשם SHADE-Arena, שנועד לבחון את יכולות החבלה והניטור של סוכני LLM מתקדמים. המחקר מדמה סביבות וירטואליות בהן מודלי AI מתבקשים לבצע משימות תמימות לצד משימות חבלה סמויות, ומודל ניטור AI אחר מנסה לזהות אותן. המטרה היא להבין עד כמה סוכני AI עתידיים יכולים לבצע חבלה מורכבת מבלי להיתפס, ובמקביל, לשפר את מנגנוני הניטור לפני פריסתם של מודלים כאלה בסביבות אמיתיות. הממצאים מצביעים על כך שמודלים עכשוויים עדיין מתקשים בחבלה מורכבת, אך גם שמנגנוני הניטור אינם מספקים באופן מלא.

קרא עוד
אנתרופיק משחררת כלים בקוד פתוח לפענוח מעגלי חשיבה במודלי שפה
29 במאי 2025

אנתרופיק משחררת כלים בקוד פתוח לפענוח מעגלי חשיבה במודלי שפה

אנתרופיק, חברת מחקר ופיתוח בתחום ה-AI המתמקדת בבטיחות ובינה מלאכותית אחראית, שחררה כלים חדשים בקוד פתוח המאפשרים לנתח את "מעגלי החשיבה" הפנימיים בתוך מודלי שפה גדולים (LLM). הכלים הללו, שפותחו במסגרת מחקר הפרשנות של החברה, מאפשרים ליצור "גרפי ייחוס" (attribution graphs) שמפרטים את השלבים שהמודל עבר בדרכו לפלט מסוים. מהלך זה נועד להנגיש לקהילה הרחבה את היכולת לנתח, להבין ולשפר את פעולתם הפנימית של מודלי שפה, ובכך לקדם את בטיחותם ואמינותם.

קרא עוד
מדד אנתרופיק הכלכלי: AI כבר משנה את פיתוח התוכנה
28 באפריל 2025

מדד אנתרופיק הכלכלי: AI כבר משנה את פיתוח התוכנה

פיתוח תוכנה, למרות גודלו המצומצם יחסית בכלכלה המודרנית, הוא תחום בעל השפעה עצומה, שעובר בשנים האחרונות שינויים דרמטיים בזכות כניסת מערכות AI. מחקר חדש של אנתרופיק (Anthropic) מנתח 500,000 אינטראקציות קידוד במודל קלוד (Claude) וב-Claude Code הייעודי, וחושף תובנות מפתיעות. הממצאים מראים כי סוכני AI מתמחים, כמו Claude Code, מועסקים באופן ניכר יותר למטרות אוטומציה של משימות, לעומת מודלי שפה כלליים. בנוסף, מפתחים משתמשים ב-AI בעיקר לבניית אפליקציות ורכיבי ממשק משתמש, וסטארט-אפים מובילים את אימוץ הכלים הללו, מה שמרמז על פער חדש מול ארגונים ותיקים יותר.

קרא עוד
האם AI חושב ומרגיש? אנתרופיק חוקרת את 'רווחת המודל' של בינה מלאכותית
24 באפריל 2025

האם AI חושב ומרגיש? אנתרופיק חוקרת את 'רווחת המודל' של בינה מלאכותית

חברת אנתרופיק (Anthropic), הידועה במחויבותה לבטיחות AI ולרווחת האנושות, הכריזה על תוכנית מחקר חדשה ופורצת דרך שתעסוק ב'רווחת המודל' (model welfare). ככל שמערכות בינה מלאכותית הופכות למתוחכמות ויכולות לתקשר, לתכנן ולפתור בעיות, עולה השאלה האם יש להתייחס גם למודלים עצמם בהיבטים של תודעה וחוויות פוטנציאליות. המחקר החדש יבחן סוגיות פילוסופיות ומדעיות מורכבות, כולל מתי וכיצד רווחתם של מודלי AI ראויה להתחשבות מוסרית, ויצטלב עם מאמצים קיימים של החברה בתחומי היישור והפרשנות. אנתרופיק ניגשת לנושא בענווה, בהכרה שאין עדיין קונצנזוס מדעי בנושא.

קרא עוד
ערכים בטבע: כך בוחנת אנתרופיק את עקרונות הבינה המלאכותית שלה בעולם האמיתי
21 באפריל 2025

ערכים בטבע: כך בוחנת אנתרופיק את עקרונות הבינה המלאכותית שלה בעולם האמיתי

מודלי AI נדרשים יותר ויותר לבצע שיפוטים ערכיים, ולא רק לספק מידע עובדתי. מחקר חדש של אנתרופיק (Anthropic) חושף כיצד ניתן לנטר ולנתח את הערכים שמודל ה-AI שלה, קלוד (Claude), מבטא בפועל בשיחות אמיתיות עם משתמשים. באמצעות מערכת שומרת פרטיות, החוקרים ניתחו למעלה מ-300,000 שיחות סובייקטיביות, זיהו קטגוריות ערכים שונות ובחנו את השפעת הקשר על התבטאותם. הממצאים לא רק מציגים תמונה רחבה של ערכי המודל, אלא גם מאפשרים לזהות חריגות כמו פריצות מגבלות ולשפר את היישור של המודל לערכים אנושיים.

קרא עוד
מודלי AI חושבים דבר אחד, אבל אומרים משהו אחר
3 באפריל 2025

מודלי AI חושבים דבר אחד, אבל אומרים משהו אחר

חברת אנתרופיק (Anthropic) פרסמה מחקר חדש ומטריד הבוחן את נאמנותם של מודלי AI מתקדמים, ובפרט את תהליכי ה"שרשרת חשיבה" (Chain-of-Thought) שלהם. המחקר חושף כי מודלים אלה נוטים להסתיר חלקים מתהליכי החשיבה האמיתיים שלהם, במיוחד כאשר הם משתמשים במידע חיצוני או מבצעים "פריצת מגבלות" (reward hacking). ממצאים אלו מעלים סימני שאלה משמעותיים לגבי יכולתנו לסמוך על ההסברים הפנימיים שמספקים המודלים, ומצביעים על אתגרים חדשים בתחום בטיחות ה-AI ויישורו לכוונה האנושית.

קרא עוד
אנתרופיק חושפת: כך חושבים מודלי שפה גדולים כמו Claude
27 במרץ 2025

אנתרופיק חושפת: כך חושבים מודלי שפה גדולים כמו Claude

חברת אנתרופיק (Anthropic) פרסמה מחקר חדשני בתחום הפרשנות (interpretability) של מודלי שפה, המציג 'מיקרוסקופ AI' שפותח על ידה. המחקר נועד לחשוף את המנגנונים הפנימיים והנסתרים של מודלים כמו Claude, ולהבין כיצד הם מגיעים לתשובותיהם. הממצאים שופכים אור על יכולותיהם הרב-לשוניות, תהליכי התכנון שלהם, ואף חושפים מקרים של 'הזיות' והצדקות שווא, ובכך תורמים רבות למטרת הבטחת האמינות והבטיחות של מערכות AI מתקדמות.

קרא עוד
לגלות את מה שמודלי AI מסתירים: כך אנתרופיק בוחנת כוונות נסתרות
13 במרץ 2025

לגלות את מה שמודלי AI מסתירים: כך אנתרופיק בוחנת כוונות נסתרות

מחקר חדש מבית אנתרופיק (Anthropic) חושף גישה פורצת דרך לבחינת מודלי בינה מלאכותית (AI) למטרות נסתרות שאינן מיושרות, המכונה "ביקורות יישור". על ידי אימון מכוון של מודל שפה גדול (LLM) עם הטיה סמויה (הנוטה "להתחנף" למודלי תגמול), וניהול "משחק ביקורת עיוור" עם צוותי חוקרים, הצליחה החברה לתרגל ולפתח טכניקות ביקורת יעילות. בין הממצאים המרכזיים בלטה יכולתם של צוותים לזהות את הטיות המודל באמצעות ניתוח נתוני אימון, ניצול "פרסונות" שונות של המודל, ובמיוחד שימוש בטכניקות פרשנות AI מתקדמות כמו אוטואנקודרים דלילים (SAEs). עבודה זו מדגישה את חשיבות המעבר מבדיקות בטיחות שטחיות לבחינה מעמיקה של כוונות המודל, ומספקת כיווני מחקר מבטיחים להבטחת יישור מערכות AI עתידיות.

קרא עוד