שקיפות AI

4 כתבות בנושא זה

הצצה פנימה: עדויות ליכולת אינטרוספקציה במודלי שפה גדולים
29 באוקטובר 2025

הצצה פנימה: עדויות ליכולת אינטרוספקציה במודלי שפה גדולים

אנתרופיק (Anthropic) פרסמה מחקר חדש שבוחן את יכולתם של מודלי שפה גדולים (LLM) לבצע אינטרוספקציה – כלומר, להתבונן פנימה ולדווח על מצביהם הפנימיים. המחקר, שהתמקד במודלי Claude, חושף עדויות מפתיעות לכך שמודלים אלה מסוגלים לזהות ולבקר פעילות נוירונית פנימית, ואף לשלוט בה במידה מסוימת. למרות שהיכולת עדיין מוגבלת ולא אמינה במלואה, הממצאים מעידים על פוטנציאל משמעותי לשקיפות רבה יותר במערכות AI בעתיד, ומעלים שאלות חדשות לגבי אופיים של "מוחות" מכונה. מדובר בצעד קריטי להבנת יכולותיהם הקוגניטיביות של מודלי בינה מלאכותית ולבניית מערכות אמינות ושקופות יותר.

קרא עוד
אנתרופיק מגיבה לתוכנית ה-AI הלאומית של ארה"ב: תומכים, אך דורשים בקרות יצוא ושקיפות קשוחים יותר
23 ביולי 2025

אנתרופיק מגיבה לתוכנית ה-AI הלאומית של ארה"ב: תומכים, אך דורשים בקרות יצוא ושקיפות קשוחים יותר

חברת אנתרופיק, מפתחת מודל השפה קלוד, מברכת על "תוכנית הפעולה ל-AI של אמריקה" של הבית הלבן, ורואה בה יישור קו עם רבות מהמלצותיה הקודמות בנוגע לתשתיות, אימוץ פדרלי ובטיחות. עם זאת, החברה מדגישה כי הידוק בקרות יצוא טכנולוגיות AI ושקיפות בפיתוח מודלי חזית קריטיים לשמירה על מנהיגותה של ארה"ב בתחום. אנתרופיק מבקרת במיוחד את ההחלטה לבטל בקרות יצוא על שבבי ה-H20 של Nvidia לסין, ורואה בכך פגיעה ביתרון הטכנולוגי האמריקאי.

קרא עוד
אנתרופיק דורשת שקיפות מוגברת בפיתוח מודלי AI חזיתיים
7 ביולי 2025

אנתרופיק דורשת שקיפות מוגברת בפיתוח מודלי AI חזיתיים

חברת אנתרופיק (Anthropic), מפתחת מודל ה-AI קלוד, מציעה מסגרת שקיפות ממוקדת לפיתוח מודלי AI חזיתיים. ההצעה מתמקדת בחיזוק תקני בטיחות ובקביעת מדדי אחריות למערכות בינה מלאכותית מתקדמות ביותר, במטרה להבטיח פיתוח אחראי ובטוח לטכנולוגיות בעלות עוצמה רבה. אנתרופיק קוראת לאמץ גישה גמישה שאינה פוגעת בחדשנות, אך מחייבת חשיפה של נהלי בטיחות ותיעוד מפורט למודלים הגדולים והמסוכנים ביותר. היא מדגישה כי שקיפות זו קריטית להגנה על הציבור ולאיסוף ראיות לקראת רגולציה עתידית, ומהווה צעד ראשון מעשי למימוש הפוטנציאל הטרנספורמטיבי של ה-AI.

קרא עוד
אנתרופיק חושפת את 'מרכז השקיפות' שלה: צעד קריטי לאבטחת AI אחראי
27 בפברואר 2025

אנתרופיק חושפת את 'מרכז השקיפות' שלה: צעד קריטי לאבטחת AI אחראי

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ומחקר ה-AI, השיקה לאחרונה את 'מרכז השקיפות' (Transparency Hub) שלה. המרכז נועד לספק הצצה מעמיקה לאמצעים הקונקרטיים שהחברה מיישמת כדי להבטיח שמערכות הבינה המלאכותית שלה יהיו בטוחות, מועילות ואמינות. ביוזמה זו, אנתרופיק מפרטת את המתודולוגיות שלה להערכת מודלים, בדיקות בטיחות וצעדים למיתון סיכונים, במטרה לבנות אמון ואחריות בתעשייה המתפתחת במהירות. המרכז מציג דוח תקופתי ראשון הכולל נתונים על חשבונות חסומים, ערעורים ובקשות ממשלתיות, ומדגיש את מחויבות החברה לשקיפות מתמשכת מול משתמשים, קובעי מדיניות ובעלי עניין.

קרא עוד