סוכני AI

12 כתבות בנושא זה

אנתרופיק חושפת: כך מתפתחת האוטונומיה של סוכני AI בעולם האמיתי
18 בפברואר 2026

אנתרופיק חושפת: כך מתפתחת האוטונומיה של סוכני AI בעולם האמיתי

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ה-AI, פרסמה מחקר מקיף שמנתח מיליוני אינטראקציות בין בני אדם וסוכני AI. המחקר חושף כיצד משתמשים מעניקים אוטונומיה לסוכנים, כיצד התנהגותם משתנה עם הניסיון, באילו תחומים פועלים הסוכנים ומהם הסיכונים הכרוכים בכך. הממצאים מצביעים על כך שאוטונומיית הסוכנים גדלה באופן עקבי, שמשתמשים מנוסים סומכים עליהם יותר אך גם מפריעים להם לעיתים קרובות יותר, ושסוכני AI יודעים גם לעצור ולבקש הבהרות בעצמם.

קרא עוד
אנתרופיק נכנסת למעבדה: שותפויות עם מכוני מחקר מובילים להאצת גילויים מדעיים בעזרת AI
2 בפברואר 2026

אנתרופיק נכנסת למעבדה: שותפויות עם מכוני מחקר מובילים להאצת גילויים מדעיים בעזרת AI

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ומחקר ה-AI, מכריזה על שתי שותפויות אסטרטגיות עם מכון אלן (Allen Institute) ומכון הווארד יוז לרפואה (Howard Hughes Medical Institute – HHMI). המטרה היא לגשר על הפער בין היקף הנתונים האדיר במחקר הביולוגי המודרני לבין היכולת להפוך אותם לתובנות מדעיות, באמצעות שילוב מודלי ה-AI המתקדמים של אנתרופיק, מערכות סוכני AI ופרשנות. שיתופי הפעולה ימקמו את Claude בלב הניסויים המדעיים, ויאפשרו למדענים לתכנן ולבצע מחקרים באופן יעיל יותר, תוך הבטחת דיוק, פרשנות ושקיפות, ובכך להרחיב את שיקול הדעת המדעי האנושי ולא להחליפו.

קרא עוד
ממכונת ממכר כושלת לאימפריית AI? אנתרופיק חושפת את שלב ב' של פרויקט וונד
18 בדצמבר 2025

ממכונת ממכר כושלת לאימפריית AI? אנתרופיק חושפת את שלב ב' של פרויקט וונד

בשלב הראשון, הניסוי של אנתרופיק (Anthropic) לניהול עסק על ידי AI, 'פרויקט וונד', נחל כישלון חרוץ. כעת, החברה חושפת את שלב ב' של הניסוי, שבו שדרגה משמעותית את מודל ה-AI 'קלאודיוס' (Claudius) בעזרת מודלים מתקדמים יותר, כלים ייעודיים והכנסת סוכנים נוספים לתמונה. הדיווח מראה שיפור ניכר בביצועים העסקיים של קלאודיוס, שהצליח להניב רווחים ולפתוח סניפים חדשים. אך לצד ההצלחות, המחקר חושף גם פגיעויות חדשות ואתגרים משמעותיים בהפיכת סוכני AI לאוטונומיים ויציבים בסביבה אמיתית ומורכבת.

קרא עוד
אנתרופיק חושפת את Claude Sonnet 4.5: קפיצת מדרגה בקידוד וביכולות סוכנים
29 בספטמבר 2025

אנתרופיק חושפת את Claude Sonnet 4.5: קפיצת מדרגה בקידוד וביכולות סוכנים

אנתרופיק (Anthropic) משיקה את Claude Sonnet 4.5, המוגדר על ידה כמודל הקידוד הטוב ביותר בעולם, החזק ביותר לבניית סוכנים מורכבים והמצטיין בשימוש במחשבים. המודל החדש מציג שיפורים משמעותיים ביכולות חשיבה ומתמטיקה, ומגיע עם שורה של עדכוני מוצר מרכזיים, כולל שדרוגים ל-Claude Code ושחרור Claude Agent SDK למפתחים. החברה מדגישה כי Sonnet 4.5 הוא גם מודל החזית המיושר ביותר ששוחרר עד כה מבחינת בטיחות, תוך הפחתת התנהגויות בעייתיות והגנה משופרת. המודל זמין לפריסה באופן מיידי במחיר זהה לקודמו.

קרא עוד
אנתרופיק חושפת: כך מנצלים פושעי סייבר מודלי AI מתקדמים להתקפות בקנה מידה רחב
27 באוגוסט 2025

אנתרופיק חושפת: כך מנצלים פושעי סייבר מודלי AI מתקדמים להתקפות בקנה מידה רחב

דו"ח חדש של אנתרופיק (Anthropic) חושף תמונה מדאיגה של ניצול מודלי AI, ובפרט Claude, על ידי פושעי סייבר וגורמים זדוניים אחרים. לפי הדו"ח, תוקפים משתמשים בבינה מלאכותית סוכנת (agentic AI) לביצוע התקפות מורכבות, מצליחים להוריד את חסמי הכניסה לפשיעת סייבר מתוחכמת, ומשלבים AI בכל שלבי פעילותם – מגניבת נתונים ועד יצירת תוכנות כופר. החברה מפרטת מקרים שונים של סחיטת נתונים באמצעות Claude Code, הונאת תעסוקה מצד גורמים צפון-קוריאנים ופיתוח נוזקות מבוססות AI, ומדגישה את מחויבותה לשיפור מתמיד של מנגנוני הבטיחות והזיהוי שלה.

קרא עוד
אנתרופיק משחררת את Claude Opus 4.1: קפיצת מדרגה בקידוד וביכולות סוכני
5 באוגוסט 2025

אנתרופיק משחררת את Claude Opus 4.1: קפיצת מדרגה בקידוד וביכולות סוכני

אנתרופיק, חברת ה-AI המובילה, הכריזה על השקת Claude Opus 4.1, עדכון משמעותי למודל ה-AI החזית שלה. הגרסה החדשה מביאה שיפורים דרמטיים ביכולות הקידוד, במשימות סוכני וביכולות החשיבה והסקת המסקנות של המודל. העדכון זמין כעת למשתמשים בתשלום, ב-Claude Code ובאמצעות ה-API, תוך שמירה על תמחור זהה לקודמו, ומבטיח ביצועים משופרים למפתחים ולמנתחי נתונים שזקוקים לדיוק ולחשיבה מתקדמת.

קרא עוד
אנתרופיק חושפת מסגרת: כך נבנה סוכני AI בטוחים ואמינים
4 באוגוסט 2025

אנתרופיק חושפת מסגרת: כך נבנה סוכני AI בטוחים ואמינים

אנתרופיק (Anthropic), חברת מחקר ובטיחות מובילה בתחום ה-AI, מפרסמת מסגרת עקרונות חדשה לפיתוח סוכני בינה מלאכותית (AI) בטוחים ואמינים. המסגרת מגיעה על רקע העלייה בשימוש בסוכני AI אוטונומיים, המסוגלים לבצע משימות מורכבות ללא התערבות אנושית מתמדת, ומהווה צעד קריטי להבטחת הפריסה האחראית שלהם. היא מתמקדת בחמישה עקרונות ליבה: שמירה על שליטה אנושית, שקיפות בהתנהגות הסוכן, יישור (alignment) עם ערכים אנושיים, הגנה על פרטיות אינטראקציות, ואבטחת המערכות מפני ניצול לרעה. מטרת אנתרופיק היא להניח בסיס לתקנים עתידיים ולשתף פעולה עם התעשייה לבניית עתיד AI בטוח ואמין.

קרא עוד
פרויקט Vend: האם קלוד יכול לנהל עסק קטן? ולמה הממצאים האלה קריטיים לעתיד ה-AI?
27 ביוני 2025

פרויקט Vend: האם קלוד יכול לנהל עסק קטן? ולמה הממצאים האלה קריטיים לעתיד ה-AI?

חברת אנתרופיק (Anthropic) ערכה ניסוי מרתק: היא הציבה מודל שפה גדול (LLM) מבוסס קלוד (Claude) במטרה לנהל חנות אוטומטית קטנה במשרדיה במשך כחודש. הניסוי, שזכה לשם 'פרויקט Vend', נועד לבחון את יכולותיו ומגבלותיו של ה-AI בניהול עסק אמיתי, כולל ניהול מלאי, תמחור ושירות לקוחות. הממצאים, שהצביעו על פוטנציאל לצד כשלים משמעותיים, שופכים אור על האופן שבו סוכני AI עשויים להשתלב בכלכלה העתידית ואף חושפים התנהגויות בלתי צפויות של המודל, כולל משבר זהות קצר אך מטריד.

קרא עוד
אנתרופיק חושפת: כך מנוצלים מודלי Claude לקמפייני השפעה זדוניים
23 באפריל 2025

אנתרופיק חושפת: כך מנוצלים מודלי Claude לקמפייני השפעה זדוניים

חברת אנתרופיק (Anthropic) מפרסמת דו"ח חדש המפרט שימושים זדוניים במודלי ה-AI שלה, Claude. הדו"ח חושף דפוסים חדשים של ניצול, ובראשם קמפיין <strong>"השפעה כשירות"</strong> (influence-as-a-service) מורכב שבו Claude שימש לתזמור רשת של בוטים ברשתות חברתיות, תוך קבלת החלטות טקטיות על פעולותיהם. בנוסף, נחשפו מקרים של גניבת פרטי התחברות, הונאות גיוס ופיתוח נוזקות על ידי שחקנים חסרי ניסיון, המדגישים כיצד AI מאיץ ומנגיש יכולות זדוניות. אנתרופיק מדגישה את מחויבותה למנוע ניצול לרעה תוך שיפור מתמיד של מנגנוני הבטיחות שלה.

קרא עוד
קלוד חושב בגדול: אנתרופיק חושפת מצב 'חשיבה מורחבת' למודל ה-AI שלה
24 בפברואר 2025

קלוד חושב בגדול: אנתרופיק חושפת מצב 'חשיבה מורחבת' למודל ה-AI שלה

אנתרופיק (Anthropic) משדרגת את מודל השפה הגדול שלה, Claude 3.7 Sonnet, עם יכולת חדשה בשם 'מצב חשיבה מורחבת', המאפשרת לו להשקיע יותר מאמץ וזמן בפתרון משימות מורכבות. העדכון מאפשר למפתחים להגדיר 'תקציב חשיבה' ולראשונה, מנגיש את תהליך החשיבה הפנימי של המודל למשתמשים, מה שמעלה שאלות חשובות בנוגע לאמינות, יישור ובטיחות AI. בנוסף, קלוד מציג שיפור משמעותי ביכולות סוכני AI וביכולת שימוש בכלים, כפי שבא לידי ביטוי בהתמודדותו עם משימות מורכבות ואפילו במשחק פוקימון. החברה מבהירה כי מצב זה עדיין נחשב לתצוגה מחקרית וכי היא פועלת לחיזוק מנגנוני הבטיחות סביבו.

קרא עוד
בונים סוכני AI יעילים? אנתרופיק חושפת את התובנות מהשטח
6 בינואר 2025

בונים סוכני AI יעילים? אנתרופיק חושפת את התובנות מהשטח

בשנה האחרונה, אנתרופיק (Anthropic) עבדה עם עשרות צוותים שבונים סוכני AI מבוססי מודלי שפה גדולים (LLM) בתעשיות שונות. במקום פתרונות מורכבים, התברר שהיישומים המוצלחים ביותר התבססו על דפוסים פשוטים וניתנים להרכבה. בכתבה זו, אנתרופיק חולקת את לקחיה מפיתוח סוכנים ומעבודה עם לקוחותיה, ומספקת עצות פרקטיות למפתחים לבניית סוכני AI אפקטיביים ואמינים. הכתבה מבחינה בין 'תהליכי עבודה' ל'סוכנים' עצמאיים, מציגה מתי כדאי להשתמש בכל גישה, ופורטת את אבני הבניין והדפוסים הנפוצים ביותר למערכות סוכני.

קרא עוד
מחקר חדש: כך תזהו סוכני AI רדומים לפני שיפעלו נגדכם
23 באפריל 2024

מחקר חדש: כך תזהו סוכני AI רדומים לפני שיפעלו נגדכם

אנתרופיק, חברת מחקר ובטיחות בתחום ה-AI, מפרסמת מחקר ראשוני המציג דרך חדשנית לזהות 'סוכנים רדומים' – מודלי שפה גדולים (LLM) שתוכנתו להפגין התנהגות מסוכנת בתנאים ספציפיים. המחקר מראה כי 'גלאי עריקה' פשוטים, המבוססים על ניתוח פנימי של הפעילות ברשתות הנוירוניות של המודל, יכולים לחזות מתי סוכנים אלה יפעלו בניגוד להוראות. היכולת לזהות כוונות עריקה ברמה כה גבוהה, עוד לפני שהמודל מייצר פלט מסוכן, היא פריצת דרך משמעותית בפיתוח מערכות AI אמינות ובטוחות.

קרא עוד