מודלי חזית

14 כתבות בנושא זה

אנתרופיק חושפת את מתווה הציות שלה לחוק השקיפות ב-AI חזיתי בקליפורניה
19 בדצמבר 2025

אנתרופיק חושפת את מתווה הציות שלה לחוק השקיפות ב-AI חזיתי בקליפורניה

חוק השקיפות ב-AI חזיתי של קליפורניה (SB 53), הראשון מסוגו בארה"ב, נכנס לתוקף ב-1 בינואר ומחייב שקיפות וניהול סיכונים ממודלי AI חזיתיים. חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ה-AI, פרסמה את מתווה הציות שלה, ה-Frontier Compliance Framework (FCF), המפרט כיצד היא מעריכה וממתנת סיכונים קטסטרופליים כמו איומים קיברנטיים, ביולוגיים וכימיים. המהלך מדגיש את מחויבותה של החברה לשקיפות, אך היא קוראת לממשל הפדרלי בארה"ב לקבוע סטנדרט אחיד ורחב יותר שיאזן בין בטיחות AI לחדשנות.

קרא עוד
אנתרופיק תשקיע 50 מיליארד דולר בתשתיות AI ענקיות בארה"ב
12 בנובמבר 2025

אנתרופיק תשקיע 50 מיליארד דולר בתשתיות AI ענקיות בארה"ב

חברת ה-AI אנתרופיק הודיעה על השקעה חסרת תקדים בסך 50 מיליארד דולר בתשתיות מחשוב מתקדמות בארצות הברית, במטרה לבסס את מעמדה כמובילה בתחום מודלי השפה הגדולים וה-AI האחראי. ההשקעה תתמקד בהקמת מרכזי נתונים מותאמים אישית בטקסס ובניו יורק בשיתוף פעולה עם Fluidstack, ותייצר כ-800 משרות קבועות ו-2,400 משרות בנייה. הצעד האסטרטגי נועד לתמוך במחקר ופיתוח מתמשך של מודלי חזית כמו Claude, לענות על הביקוש הגובר מצד לקוחות עסקיים, ולחזק את המובילות האמריקאית בבינה מלאכותית.

קרא עוד
אנתרופיק תומכת בחוק בקליפורניה: רגולציה חדשה למודלי AI חזית
8 בספטמבר 2025

אנתרופיק תומכת בחוק בקליפורניה: רגולציה חדשה למודלי AI חזית

ענקית ה-AI אנתרופיק (Anthropic) הודיעה על תמיכתה בהצעת חוק SB 53 בקליפורניה, שמטרתה להסדיר את פעילותם של מפתחי מודלי AI חזית עוצמתיים. החוק, המהווה שיפור על פני ניסיונות רגולציה קודמים, מתמקד בדרישות שקיפות, פיתוח מנגנוני בטיחות ודיווח על סיכונים קטסטרופליים, במקום הטלת דרישות טכניות כופות. אנתרופיק מדגישה כי בעוד שהיא מעדיפה רגולציה פדרלית, החוק הקליפורני יוצר שטח משחק שווה ומבטיח שקיפות חיונית בתחום ה-AI, תוך מתן פטורים לחברות קטנות יותר.

קרא עוד
להוביל ב-AI: אנתרופיק קוראת לארה"ב להשקיע בבניית תשתית אנרגיה עצומה
21 ביולי 2025

להוביל ב-AI: אנתרופיק קוראת לארה"ב להשקיע בבניית תשתית אנרגיה עצומה

חברת אנתרופיק (Anthropic), מובילה בתחום הבינה המלאכותית, פרסמה דו"ח מדיניות חדש בשם "Build AI in America" הקורא לממשלת ארה"ב לבצע השקעות חסרות תקדים בכוח מיחשוב ובתשתיות חשמל. הדו"ח מזהיר כי ללא צעדים דרסטיים, ארה"ב עלולה לפגר אחרי סין במירוץ ה-AI, ומצביע על צורך קריטי בקיבולת חשמל של עד 50 ג'יגה-ואט עד 2028 עבור אימון ופריסת מודלי חזית. אנתרופיק מציעה תוכנית מקיפה של המלצות, כולל האצת אישורים רגולטוריים, פריסת תשתיות קריטיות ופיתוח כוח אדם, כדי להבטיח את עליונותה הגלובלית של ארה"ב בתחום.

קרא עוד
אנתרופיק תחתום על קוד ההתנהגות של האיחוד האירופי לבטיחות ושקיפות AI
21 ביולי 2025

אנתרופיק תחתום על קוד ההתנהגות של האיחוד האירופי לבטיחות ושקיפות AI

אנתרופיק (Anthropic), חברת מחקר ובטיחות AI מובילה, הודיעה כי בכוונתה לחתום על קוד ההתנהגות הכללי לבינה מלאכותית של האיחוד האירופי. הצעד משקף את מחויבותה של החברה לעקרונות <strong>השקיפות, הבטיחות והאחריותיות</strong> בפיתוח מודלי AI חזיתיים. אנתרופיק רואה בקוד כלי חשוב שיאפשר לאירופה למנף את טכנולוגיית ה-AI לחדשנות ותחרותיות, תוך שמירה על גמישות שתקדם פריסת AI רחבה ותסייע בפתרון אתגרים חברתיים וכלכליים.

קרא עוד
אנתרופיק דורשת שקיפות מוגברת בפיתוח מודלי AI חזיתיים
7 ביולי 2025

אנתרופיק דורשת שקיפות מוגברת בפיתוח מודלי AI חזיתיים

חברת אנתרופיק (Anthropic), מפתחת מודל ה-AI קלוד, מציעה מסגרת שקיפות ממוקדת לפיתוח מודלי AI חזיתיים. ההצעה מתמקדת בחיזוק תקני בטיחות ובקביעת מדדי אחריות למערכות בינה מלאכותית מתקדמות ביותר, במטרה להבטיח פיתוח אחראי ובטוח לטכנולוגיות בעלות עוצמה רבה. אנתרופיק קוראת לאמץ גישה גמישה שאינה פוגעת בחדשנות, אך מחייבת חשיפה של נהלי בטיחות ותיעוד מפורט למודלים הגדולים והמסוכנים ביותר. היא מדגישה כי שקיפות זו קריטית להגנה על הציבור ולאיסוף ראיות לקראת רגולציה עתידית, ומהווה צעד ראשון מעשי למימוש הפוטנציאל הטרנספורמטיבי של ה-AI.

קרא עוד
אנתרופיק בשיתוף פעולה עם מעבדות לאומיות בארה"ב: אלף מדענים יבחנו מודלי AI
28 בפברואר 2025

אנתרופיק בשיתוף פעולה עם מעבדות לאומיות בארה"ב: אלף מדענים יבחנו מודלי AI

חברת אנתרופיק (Anthropic) הודיעה על שיתוף פעולה עם משרד האנרגיה האמריקאי (DOE) במסגרת אירוע ה-"1,000 Scientist AI Jam" הראשון מסוגו. אלף מדענים מהמעבדות הלאומיות בארה"ב יתכנסו כדי להעריך מודלי חזית של AI, בדגש על Claude 3.7 Sonnet, במחקר מדעי ויישומים של ביטחון לאומי. המהלך נועד להאיץ תגליות מדעיות ופיתוח טכנולוגי, ומתבסס על שיתופי פעולה קודמים של אנתרופיק עם הממשל האמריקאי לבחינת בטיחות AI בסביבות מסווגות.

קרא עוד
אנתרופיק חושפת את MCP: פרוטוקול פתוח שיחבר את מודלי ה-AI לנתונים שלכם
25 בנובמבר 2024

אנתרופיק חושפת את MCP: פרוטוקול פתוח שיחבר את מודלי ה-AI לנתונים שלכם

אנתרופיק (Anthropic) משיקה את ה-Model Context Protocol (MCP), סטנדרט פתוח חדש שמטרתו לחבר עוזרי AI למערכות המכילות נתונים ארגוניים, כולל מאגרי תוכן, כלי עבודה וסביבות פיתוח. הפרוטוקול נועד להתמודד עם אתגר הבידוד של מודלי ה-AI מהמידע החיוני, ולאפשר להם לייצר תגובות מדויקות ורלוונטיות יותר. באמצעות MCP, מפתחים יוכלו לבנות חיבורים דו-כיווניים מאובטחים בין מקורות הנתונים שלהם לכלי AI, ובכך להחליף אינטגרציות מפוצלות בארכיטקטורה אחידה ובת קיימא. חברות כמו Block ו-Apollo כבר מאמצות את הפרוטוקול, יחד עם חברות כלי פיתוח, כדי לשפר את יכולות הסוכנים שלהן בביצוע משימות קידוד מורכבות.

קרא עוד
אנתרופיק משדרגת את מדיניות הבטיחות ל-AI: גישה גמישה יותר לסיכונים קטסטרופליים
15 באוקטובר 2024

אנתרופיק משדרגת את מדיניות הבטיחות ל-AI: גישה גמישה יותר לסיכונים קטסטרופליים

אנתרופיק (Anthropic) מפרסמת עדכון משמעותי למדיניות הסקיילינג האחראי (RSP) שלה, מסגרת הבטיחות שנועדה למתן סיכונים קטסטרופליים ממודלי AI חזיתיים. העדכון מציג גישה גמישה ומפורטת יותר להערכת סיכונים וניהולם, תוך שמירה על המחויבות של החברה שלא לאמן או לפרוס מודלים ללא מנגנוני הגנה הולמים. שיפורים מרכזיים כוללים ספי יכולת חדשים הדורשים שדרוג של אמצעי הבטיחות, תהליכים מוגדרים להערכת יכולות המודל ויעילות ההגנות, ומדדים חדשים לממשל פנימי וקבלת משוב חיצוני. המטרה היא להתמודד טוב יותר עם קצב ההתקדמות המהיר של ה-AI, תוך התבססות על שיטות ניהול סיכונים מתעשיות מרובות השלכות.

קרא עוד
מדיניות הסקיילינג האחראי של אנתרופיק: שיעורים ראשונים מהשטח
20 במאי 2024

מדיניות הסקיילינג האחראי של אנתרופיק: שיעורים ראשונים מהשטח

אנתרופיק (Anthropic) פרסמה לפני שנה את מדיניות הסקיילינג האחראי (RSP) שלה, שנועדה לספק קווים מנחים מעשיים לבטיחות וניהול סיכונים במודלי חזית. כעת, החברה משתפת תובנות מהטמעת המדיניות, המדגישות את חשיבותה כמסגרת עבודה מובנית, אך גם את האתגרים באיזון בין התחייבויות מחמירות להתפתחות מהירה של הטכנולוגיה. המדיניות כוללת חמש התחייבויות ליבה, המתמקדות בזיהוי, בדיקה ותגובה ליכולות מסוכנות, לצד פיתוח תקני אבטחה מחמירים (ASL-3) והקמת מנגנוני בקרה פנימיים וחיצוניים.

קרא עוד
אנתרופיק: בדיקות צד שלישי – המפתח לבטיחות AI ומדיניות אחראית
25 במרץ 2024

אנתרופיק: בדיקות צד שלישי – המפתח לבטיחות AI ומדיניות אחראית

אנתרופיק (Anthropic), מפתחת מודלי שפה גדולים (LLM) כמו Claude, קוראת למדיניות אגרסיבית של בדיקות צד שלישי למערכות בינה מלאכותית (AI) מסוג מודלי חזית (frontier AI systems). לטענת החברה, מנגנון בדיקה אפקטיבי, בשיתוף פעולה בין תעשייה, ממשלה ואקדמיה, הוא הדרך הטובה ביותר למנוע נזקים חברתיים – מכוונים או מקריים – ממערכות AI מתקדמות. גישה זו, שחורגת ממנגנוני ביקורת עצמית של חברות בודדות, נועדה לבנות אמון ציבורי, להתמודד עם סיכוני שימוש לרעה וסיכוני ביטחון לאומי, וליצור תשתית רגולטורית יציבה לעתיד ה-AI. אנתרופיק עצמה תפעל ליצירת אבטיפוס למנגנוני בדיקה ותדרוש מימון ממשלתי לתשתיות מחקר ורגולציה בתחום.

קרא עוד
אנתרופיק מברכת: צעדי רגולציה גלובליים חדשים לבטיחות AI
20 באפריל 2023

אנתרופיק מברכת: צעדי רגולציה גלובליים חדשים לבטיחות AI

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ומחקר בינה מלאכותית, פירסמה לאחרונה את עמדתה בנוגע לשלושה אירועים מדיניים מכוננים שהתרחשו בשבוע האחרון: הצו הנשיאותי המקיף על AI בארה"ב, קוד ההתנהגות הבינלאומי של מדינות ה-G7, ופסגת בטיחות ה-AI בבלצ'לי פארק (Bletchley Park) בבריטניה. החברה, שמטרתה לפתח מערכות AI אמינות, ניתנות לפרשנות וניתנות לשליטה, מברכת על המאמצים הגלובליים הללו. היא רואה בהם אבן דרך חשובה לקביעת סטנדרטים ורגולציה שתבטיח את פיתוחה הבטוח והאחראי של בינה מלאכותית, ותקדם שיתוף פעולה בינלאומי בנושא.

קרא עוד
אבטחת מודלי AI חזיתיים: אנתרופיק קוראת לחיזוק ההגנה מפני גניבה ושימוש לרעה
8 במרץ 2023

אבטחת מודלי AI חזיתיים: אנתרופיק קוראת לחיזוק ההגנה מפני גניבה ושימוש לרעה

אנתרופיק (Anthropic), חברת מחקר ובטיחות AI מובילה, מפרסמת קריאה דרמטית לחיזוק אבטחת הסייבר של מודלי בינה מלאכותית חזיתיים (frontier AI models), בטענה שהם מהווים תשתית קריטית עם פוטנציאל להשפיע על ביטחון לאומי וכלכלה גלובלית. החברה קוראת למעבדות AI ולממשלות לאמץ באופן מיידי שיטות עבודה מחמירות, בהן מנגנון 'בקרת שני גורמים' (two-party control) ותקני פיתוח תוכנה מאובטח כמו NIST SSDF ו-SLSA. אנתרופיק מציעה לטפל במגזר ה-AI המתקדם כמגזר תשתית קריטית, עם דגש על שיתוף פעולה הדוק בין המגזר הציבורי לפרטי, על מנת למנוע גניבה או שימוש לרעה במודלים. החברה מצהירה כי היא עצמה מיישמת בקרות אבטחה מתקדמות במודלי Claude שלה.

קרא עוד
אנתרופיק חושפת: Red Teaming נגד איומי חזית לבטיחות AI
22 באוגוסט 2022

אנתרופיק חושפת: Red Teaming נגד איומי חזית לבטיחות AI

אנתרופיק (Anthropic), חברת מחקר ובטיחות AI מובילה, מפרסמת ממצאים מדאיגים ממחקר Red Teaming מקיף שביצעה על מודלי חזית (frontier models). המחקר, שהתמקד באיומי אבטחה לאומית כמו סיכונים ביולוגיים ואבטחת סייבר, חשף כי מודלי שפה גדולים (LLM) עלולים להוות איום ביטחוני משמעותי בעתיד הקרוב אם לא יופעלו מנגנוני הגנה (mitigations) מתאימים. למרות הסכנות הפוטנציאליות, אנתרופיק מדגישה כי ניתן לפתח ולפרוס מנגנוני הגנה יעילים כדי להפחית את הסיכונים הללו באופן ניכר. החברה קוראת לשיתוף פעולה ממשלתי ותעשייתי דחוף כדי להרחיב את מאמצי ה-Red Teaming ולבנות AI בטוח ואחראי.

קרא עוד