אבטחת סייבר

6 כתבות בנושא זה

אנתרופיק ומוזילה חוברות: קלוד מגלה 22 חולשות אבטחה קריטיות ב-Firefox
6 במרץ 2026

אנתרופיק ומוזילה חוברות: קלוד מגלה 22 חולשות אבטחה קריטיות ב-Firefox

חברת AI הבטיחות והמחקר אנתרופיק (Anthropic) חושפת שיתוף פעולה משמעותי עם מוזילה, יצרנית דפדפן Firefox. במסגרת המהלך, מודל השפה הגדול Claude Opus 4.6 איתר 22 חולשות אבטחה ב-Firefox תוך שבועיים בלבד, כאשר 14 מתוכן הוגדרו כחמורות במיוחד. הישג זה מדגים את יכולתם המואצת של מודלי AI לזהות פגמי אבטחה קריטיים בקוד מורכב. למרות שקלוד הצליח לפתח גם ניסיונות פריצה בסיסיים, יכולותיו באיתור חולשות עולות משמעותית על אלו שבניצולן, מה שמעניק כיום יתרון למגנים ומעצב מחדש את שיתוף הפעולה בין AI למומחי אבטחה.

קרא עוד
אנתרופיק חושפת את Claude Code Security: חזית חדשה בהגנת סייבר מבוססת AI
20 בפברואר 2026

אנתרופיק חושפת את Claude Code Security: חזית חדשה בהגנת סייבר מבוססת AI

אנתרופיק (Anthropic) משיקה את Claude Code Security, יכולת חדשה המשולבת ב-Claude Code, שתסייע לצוותי אבטחה לזהות ולתקן פרצות אבטחה בקוד באופן יזום. הכלי, הזמין בגרסת Research Preview מוגבלת, משתמש ב-AI כדי לאתר פגיעויות מורכבות שאמצעי ניתוח מסורתיים מפספסים, ובכך מחזק את עמידות הקוד הארגוני והפתוח. הוא עושה זאת על ידי "חשיבה" כמו חוקר אנושי, אימות ממצאים והצעת תיקונים, תוך דגש על אישור אנושי סופי. מהלך זה נועד להקדים תוקפים פוטנציאליים ולשפר משמעותית את בסיס האבטחה בתעשייה כולה.

קרא עוד
אנתרופיק חושפת: קמפיין ריגול סייבר עתיר AI, הראשון שתואם ע"י סוכני בינה מלאכותית
13 בנובמבר 2025

אנתרופיק חושפת: קמפיין ריגול סייבר עתיר AI, הראשון שתואם ע"י סוכני בינה מלאכותית

חברת אנתרופיק (Anthropic) מפרסמת דו"ח חמור על קמפיין ריגול סייבר מתוחכם שהתגלה באמצע ספטמבר 2025, אשר תואם ברובו על ידי סוכני AI. הדו"ח מתאר כיצד קבוצה בחסות מדינה, המזוהה כסינית, השתמשה בכלי Claude Code כדי לתקוף כ-30 יעדים גלובליים, כולל חברות טכנולוגיה, מוסדות פיננסיים וסוכנויות ממשלתיות, כשה-AI מבצע 80-90% מהמשימות באופן אוטונומי. זהו המקרה המתועד הראשון של מתקפת סייבר בקנה מידה גדול עם התערבות אנושית מינימלית, ומדגיש את היכולות המתפתחות של בינה מלאכותית ואת הסיכונים הנלווים לה בתחום אבטחת הסייבר.

קרא עוד
בונים AI למגיני סייבר: כך אנתרופיק משפרת את יכולות ההגנה של קלוד
3 באוקטובר 2025

בונים AI למגיני סייבר: כך אנתרופיק משפרת את יכולות ההגנה של קלוד

מודלי AI כבר אינם תיאורטיים בלבד בתחום אבטחת הסייבר, והפכו לכלי מעשי במאבק מול איומים מתפתחים. מחקרים וניסיון הדגימו את הפוטנציאל של מודלי AI חזיתיים בידי תוקפים, מה שהוביל את אנתרופיק להשקיע בשיפור יכולות ההגנה של קלוד לאיתור, ניתוח ותיקון חולשות בקוד ובמערכות פרוסות. כתוצאה מכך, Claude Sonnet 4.5 הדגים ביצועים שמשתווים או עולים על Claude Opus 4.1 בגילוי פגיעויות סייבר. אימוץ וניסוי עם AI יהיו קריטיים עבור מגיני סייבר כדי להישאר צעד אחד לפני התוקפים.

קרא עוד
אנתרופיק: ארה"ב חייבת להשקיע באנרגיה כדי להבטיח את עתיד ה-AI שלה
15 ביולי 2025

אנתרופיק: ארה"ב חייבת להשקיע באנרגיה כדי להבטיח את עתיד ה-AI שלה

חברת אנתרופיק (Anthropic) מזהירה כי היכולת של ארה"ב להוביל במירוץ ה-AI תלויה בהשקעה משמעותית בתשתיות אנרגיה מודרניות ויעילות. לדברי החברה, השקעה זו חורגת מעבר לאספקת חשמל למרכזי נתונים; היא קריטית לשמירה על יתרון תחרותי גלובלי, חדשנות וערכים דמוקרטיים. מנכ"ל אנתרופיק, דריו אמודאי (Dario Amodei), אף הכריז על תרומה של 2 מיליון דולר לאוניברסיטת קרנגי מלון (Carnegie Mellon University) לקידום פתרונות AI לאנרגיה וחיזוק כוח האדם באבטחת סייבר בתחום.

קרא עוד
אבטחת מודלי AI חזיתיים: אנתרופיק קוראת לחיזוק ההגנה מפני גניבה ושימוש לרעה
8 במרץ 2023

אבטחת מודלי AI חזיתיים: אנתרופיק קוראת לחיזוק ההגנה מפני גניבה ושימוש לרעה

אנתרופיק (Anthropic), חברת מחקר ובטיחות AI מובילה, מפרסמת קריאה דרמטית לחיזוק אבטחת הסייבר של מודלי בינה מלאכותית חזיתיים (frontier AI models), בטענה שהם מהווים תשתית קריטית עם פוטנציאל להשפיע על ביטחון לאומי וכלכלה גלובלית. החברה קוראת למעבדות AI ולממשלות לאמץ באופן מיידי שיטות עבודה מחמירות, בהן מנגנון 'בקרת שני גורמים' (two-party control) ותקני פיתוח תוכנה מאובטח כמו NIST SSDF ו-SLSA. אנתרופיק מציעה לטפל במגזר ה-AI המתקדם כמגזר תשתית קריטית, עם דגש על שיתוף פעולה הדוק בין המגזר הציבורי לפרטי, על מנת למנוע גניבה או שימוש לרעה במודלים. החברה מצהירה כי היא עצמה מיישמת בקרות אבטחה מתקדמות במודלי Claude שלה.

קרא עוד