חדשות

כל החדשות, העדכונים וההכרזות האחרונות מאנתרופיק ומעולם הבינה המלאכותית

אנתרופיק דורשת שקיפות מוגברת בפיתוח מודלי AI חזיתיים

אנתרופיק דורשת שקיפות מוגברת בפיתוח מודלי AI חזיתיים

חברת אנתרופיק (Anthropic), מפתחת מודל ה-AI קלוד, מציעה מסגרת שקיפות ממוקדת לפיתוח מודלי AI חזיתיים. ההצעה מתמקדת בחיזוק תקני בטיחות ובקביעת מדדי אחריות למערכות בינה מלאכותית מתקדמות ביותר, במטרה להבטיח פיתוח אחראי ובטוח לטכנולוגיות בעלות עוצמה רבה. אנתרופיק קוראת לאמץ גישה גמישה שאינה פוגעת בחדשנות, אך מחייבת חשיפה של נהלי בטיחות ותיעוד מפורט למודלים הגדולים והמסוכנים ביותר. היא מדגישה כי שקיפות זו קריטית להגנה על הציבור ולאיסוף ראיות לקראת רגולציה עתידית, ומהווה צעד ראשון מעשי למימוש הפוטנציאל הטרנספורמטיבי של ה-AI.

7 ביולי 2025קרא עוד
אנתרופיק משיקה תוכנית למחקר והגדרת מדיניות להשפעות ה-AI הכלכליות
27 ביוני 2025

אנתרופיק משיקה תוכנית למחקר והגדרת מדיניות להשפעות ה-AI הכלכליות

חברת אנתרופיק (Anthropic) הודיעה על השקת תוכנית "עתיד כלכלי" (Economic Futures Program), יוזמת מחקר ומדיניות חדשה שתבחן את השפעת ה-AI על עתיד שוק העבודה והכלכלה הגלובלית. מטרת התוכנית היא להבין כיצד בינה מלאכותית מעצבת מחדש את דרכי העבודה, ולפתח מסגרות מדיניות שיסייעו להתכונן לשינויים אלה. היוזמה תתמקד במתן מענקי מחקר, גיבוש המלצות מדיניות מבוססות נתונים, והרחבת ה-Anthropic Economic Index כדי לעקוב אחר מגמות שימוש ב-AI.

קרא עוד
ה-EQ של AI: אנתרופיק חוקרת את השימוש בקלוד לתמיכה רגשית וייעוץ
27 ביוני 2025

ה-EQ של AI: אנתרופיק חוקרת את השימוש בקלוד לתמיכה רגשית וייעוץ

חברת אנתרופיק (Anthropic), המובילה בבטיחות ובמחקר AI, פרסמה מחקר חדש הבוחן כיצד משתמשים במודל השפה הגדול שלה, Claude, לצורכי תמיכה רגשית, ייעוץ אישי וחברות. המחקר מגלה כי אף ששימושים אלה מהווים חלק קטן יחסית מכלל האינטראקציות (2.9%), הם נוגעים במגוון רחב של נושאים – מפיתוח קריירה ויחסים ועד בדידות ושאלות קיומיות. אנתרופיק מדגישה את הצורך לפתח AI אחראי שימנע תלות רגשית ויספק מענים בטוחים, ופועלת בשיתוף פעולה עם מומחי בריאות הנפש כדי להבטיח זאת.

קרא עוד
אנתרופיק: מודלי Claude ב-Amazon Bedrock אושרו לסביבות FedRAMP High ו-DoD IL4/5
11 ביוני 2025

אנתרופיק: מודלי Claude ב-Amazon Bedrock אושרו לסביבות FedRAMP High ו-DoD IL4/5

אנתרופיק (Anthropic) הודיעה כי מודלי ה-AI שלה, Claude, אושרו לשימוש בסביבות עבודה ממשלתיות וביטחוניות ברמות האבטחה הגבוהות ביותר: FedRAMP High ו-DoD Impact Level 4 ו-5. אישור זה, המתייחס לפריסה דרך Amazon Bedrock באזורי AWS GovCloud (US) המאובטחים, מאפשר לסוכנויות פדרליות וארגוני ביטחון אמריקאיים לנצל את יכולות הבינה המלאכותית המתקדמות של Claude. בכך, הם יוכלו לעמוד בתקני האבטחה המחמירים ביותר ולפתוח אופקים חדשים ליישומים קריטיים במגזרי ההגנה, המודיעין והפעולות האזרחיות הרגישות.

קרא עוד
חיזוק ל-Anthropic: מומחה לביטחון לאומי מצטרף לצוות הנאמנים
7 ביוני 2025

חיזוק ל-Anthropic: מומחה לביטחון לאומי מצטרף לצוות הנאמנים

אנתרופיק (Anthropic), חברת מחקר ו-AI שמתמקדת בבטיחות ופיתוח מודלי בינה מלאכותית אמינים, הודיעה על מינויו של ריצ'רד פונטיין (Richard Fontaine), מנכ"ל המרכז לביטחון אמריקאי חדש, לצוות הנאמנים של קרן ה-Long-Term Benefit Trust שלה. המינוי משקף את ההכרה הגוברת בצורך לשלב מומחיות עמוקה בביטחון לאומי ובמדיניות חוץ בפיתוח AI מתקדם, נוכח ההשפעה ההולכת וגוברת של טכנולוגיות אלו על יציבות גלובלית ומוסדות דמוקרטיים.

קרא עוד
אנתרופיק משיקה את Claude Gov: מודלים מסווגים לביטחון הלאומי האמריקאי
6 ביוני 2025

אנתרופיק משיקה את Claude Gov: מודלים מסווגים לביטחון הלאומי האמריקאי

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ומחקר ה-AI, חשפה לאחרונה את מודלי Claude Gov – סט מודלים ייעודי שפותח באופן בלעדי עבור לקוחות הביטחון הלאומי של ארה"ב. המודלים, שכבר פרוסים בסוכנויות ממשלתיות מסווגות, נועדו לענות על צרכים מבצעיים ספציפיים, תוך שמירה על סטנדרטים קפדניים של בטיחות ו-AI אחראי. הם מציעים שיפורים משמעותיים בטיפול בחומרים מסווגים, הבנת הקשרי מודיעין, מיומנות שפתית וניתוח נתוני סייבר. מהלך זה מבסס את מעמדה של אנתרופיק כספקית פתרונות AI מתקדמים עבור סביבות רגישות במיוחד.

קרא עוד
יו"ר נטפליקס לשעבר, ריד הייסטינגס, מצטרף לדירקטוריון אנתרופיק
28 במאי 2025

יו"ר נטפליקס לשעבר, ריד הייסטינגס, מצטרף לדירקטוריון אנתרופיק

חברת ה-AI המובילה אנתרופיק (Anthropic), הידועה במחויבותה לפיתוח מערכות בינה מלאכותית בטוחות, ניתנות לפרשנות ולהכוונה, הודיעה היום על צירופו של ריד הייסטינגס (Reed Hastings) לדירקטוריון שלה. הייסטינגס, מייסד שותף ויו"ר נטפליקס לשעבר, מביא עימו ניסיון עשיר בהקמת ובהרחבת חברות טכנולוגיה ענקיות, לצד פועלו הפילנתרופי הנרחב בתחומי החינוך ופיתוח גלובלי, ובפרט ביוזמות המתמקדות באתגרי ה-AI והשפעותיו החברתיות. מינוי זה, שנעשה על ידי קרן הנאמנות Long Term Benefit Trust של אנתרופיק, משקף את הדגש של החברה על מנהיגות בעלת חזון שתבטיח פיתוח AI אחראי ומועיל לאנושות. הייסטינגס הדגיש את אמונתו בגישתה של אנתרופיק לפיתוח AI תוך מודעות לאתגרים הטמונים בו.

קרא עוד
אנתרופיק מחמירה את אמצעי הבטיחות: מפעילה הגנות ASL-3 עבור Claude Opus 4
22 במאי 2025

אנתרופיק מחמירה את אמצעי הבטיחות: מפעילה הגנות ASL-3 עבור Claude Opus 4

אנתרופיק (Anthropic) הודיעה על הפעלת תקני בטיחות ופריסה ברמה 3 (ASL-3) עבור מודל השפה הגדול החדש שלה, Claude Opus 4. צעד זה, המתואר במדיניות הסקיילינג האחראי (RSP) של החברה, נועד להגן מפני סיכוני AI מתקדמים. תקן האבטחה ASL-3 כולל אמצעי אבטחה פנימיים מוגברים למניעת גניבת משקולות מודל, ואילו תקן הפריסה ASL-3 מתמקד בהגבלת הסיכון לניצול לרעה של קלוד (Claude) לפיתוח או רכישת נשק כימי, ביולוגי, רדיולוגי וגרעיני (CBRN). מדובר בצעד יזום וזהיר, שכן החברה עדיין בוחנת אם המודל אכן חצה את סף היכולות המחייב הגנות אלו, אך נקיטת פעולה מוקדמת מפשטת את תהליך השחרור ומאפשרת שיפור מתמיד של ההגנות.

קרא עוד
אנתרופיק חושפת את Claude 4: קפיצת מדרגה בקידוד ובבינה סוכנית
22 במאי 2025

אנתרופיק חושפת את Claude 4: קפיצת מדרגה בקידוד ובבינה סוכנית

אנתרופיק (Anthropic) חושפת דור חדש של מודלי Claude, הכולל את <strong>Claude Opus 4</strong> ו-<strong>Claude Sonnet 4</strong>, ומציבה רף חדש בתחומי הקידוד, חשיבה מתקדמת ויכולות סוכני AI. Opus 4 מוצג כמודל הקידוד הטוב בעולם, עם ביצועים יציבים במשימות מורכבות וארוכות טווח, בעוד Sonnet 4 מציע שדרוג משמעותי עם יכולות קידוד וחשיבה משופרות. לצד המודלים, החברה משיקה יכולות חדשות כמו שימוש בכלים עם 'חשיבה מורחבת' וזיכרון משופר, מרחיבה את Claude Code, ומשחררת תכונות API חדשניות לפיתוח סוכני AI עוצמתיים יותר, במטרה לקדם את שיתוף הפעולה עם AI ברחבי העולם.

קרא עוד