
8 באוקטובר 2024
אנתרופיק נלחמת בזיופים ומידע כוזב: כך נערכת Claude לבחירות בארה"ב
חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ה-AI, מפרסמת את צעדיה לקראת הבחירות בארצות הברית בנובמבר 2024. על רקע הזמינות הנרחבת של כלי AI גנרטיביים, החברה מציגה עדכוני מדיניות האוסרים על שימוש במוצריה לקמפיינים פוליטיים, לובינג וייצור מידע כוזב. בין היתר, קלוד (Claude) מוגבל לייצור טקסט בלבד כדי למנוע יצירת דיפ-פייקים (deepfakes) בנושאים אלקטורליים. אנתרופיק גם פיתחה כלים מתקדמים לזיהוי שימוש לרעה, מבצעת Red Teaming ובדיקות פגיעות מדיניות (Policy Vulnerability Testing) כדי לבחון ולחזק את מנגנוני ההגנה, ומפנה משתמשים למקורות מידע מהימנים בנוגע להצבעה. המהלכים נועדו להבטיח את טוהר ההליך הדמוקרטי ולמנוע את ניצול ה-AI להפצת דיסאינפורמציה.
קרא עוד