פרטיות

3 כתבות בנושא זה

אנתרופיק מעדכנת את תנאי השימוש של Claude: אתם מחליטים על נתוני האימון
28 באוגוסט 2025

אנתרופיק מעדכנת את תנאי השימוש של Claude: אתם מחליטים על נתוני האימון

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ה-AI, הודיעה על עדכונים בתנאי השימוש ובמדיניות הפרטיות עבור משתמשי Claude. המהלך יאפשר למשתמשים לבחור אם לאפשר שימוש בנתוני האינטראקציות שלהם לצורך אימון מודלי בינה מלאכותית עתידיים וחיזוק מנגנוני הגנה מפני שימושים מזיקים. העדכון נועד לשפר את יכולות המודל בקידוד, חשיבה וניתוח, ובמקביל להגביר את רמתו הבטיחותית. תנאים אלו חלים על משתמשי Claude Free, Pro ו-Max וכוללים גם הארכה של תקופת שמירת הנתונים לחמש שנים עבור אלו שיבחרו לשתף את המידע, כאשר הדד-ליין לקבלת ההחלטה הוא ה-8 באוקטובר 2025.

קרא עוד
אנתרופיק מאיצה את Claude בחינוך: שילובים חדשים ותוכניות סטודנטים
9 ביולי 2025

אנתרופיק מאיצה את Claude בחינוך: שילובים חדשים ותוכניות סטודנטים

חברת אנתרופיק (Anthropic) מכוונת עמוק למגזר החינוך עם שילובים חדשים של מודל ה-LLM שלה, Claude, בפלטפורמות אקדמיות מובילות כמו Canvas, Panopto ו-Wiley. החברה מציגה הצצה ראשונה ליכולות שיאפשרו לסטודנטים ולאנשי חינוך להתייחס לתכני למידה עשירים ישירות בשיחות עם Claude, תוך שמירה קפדנית על פרטיות. במקביל, אנתרופיק מרחיבה תוכניות לסטודנטים, משיקה קורס "AI Fluency" ומחזקת שיתופי פעולה עם אוניברסיטאות כדי לקדם אימוץ AI אחראי וגישה שוויונית לכלים מתקדמים.

קרא עוד
Clio: אנתרופיק מציגה מערכת לניתוח שימוש ב-AI תוך שמירה על פרטיות
12 בדצמבר 2024

Clio: אנתרופיק מציגה מערכת לניתוח שימוש ב-AI תוך שמירה על פרטיות

אנתרופיק (Anthropic) מציגה את Clio, מערכת חדשנית לניתוח אופן השימוש במודלי AI בזמן אמת, תוך שמירה קפדנית על פרטיות המשתמשים. המערכת, המקבילה ל-Google Trends עבור שימוש ב-AI, מסייעת לחברה להבין טוב יותר כיצד אנשים מקיימים אינטראקציה עם מודלים כמו Claude, מהם התחומים הפופולריים וכיצד היא מסייעת בשיפור אמצעי בטיחות וזיהוי שימושים לרעה. Clio עושה זאת באמצעות אנונימיזציה וקיבוץ אוטומטי של שיחות, ומספקת תובנות כלליות מבלי לחשוף מידע אישי. זוהי פריצת דרך חשובה בדרך לפיתוח AI אחראי ובטוח יותר, המדגימה שאפשר לשלב בין בטיחות AI להגנת פרטיות המשתמשים.

קרא עוד