שנת 2024 סימנה את מחזור הבחירות המשמעותי הראשון שבו ל-AI גנרטיבי, ולקלוד (Claude) של אנתרופיק (Anthropic), הייתה נגישות רחבה לציבור. לנוכח החששות מההשפעה הפוטנציאלית של בינה מלאכותית על תוצאות בחירות, אנתרופיק יישמה מנגנוני בטיחות פרואקטיביים ואספה תובנות מניתוח השימוש בפועל, בעזרת הכלי החדש שלה, Clio. החברה מדווחת כי פעילות הקשורה לבחירות היוותה פחות מ-0.5% מכלל השימוש בפלטפורמות שלה (Claude.ai, API של צד ראשון ושלישי), ועלתה לכדי מעט יותר מ-1% מהשימוש הכולל בשבועות שקדמו לבחירות בארה"ב.

גישת הבטיחות של אנתרופיק התבססה על מספר עקרונות מרכזיים. ראשית, החברה פיתחה ואכפה מדיניות שימוש מקיפה האוסרת על קמפיינים פוליטיים, התערבות בבחירות, קידום מועמדים, בקשת תרומות או הפצת מידע כוזב. מדיניות זו הורחבה בהמשך לכלול גם מסעות השפעה, מיקוד בוחרים והתחזות. שנית, המודלים עברו בדיקות קפדניות של Red Teaming עם מומחי מדיניות חיצוניים, כדי לזהות סיכונים ולהנחות את תגובותיו של קלוד. הבדיקות התמקדו בזיהוי מידע לא מדויק, הערכת הגינות כלפי מועמדים ונושאים, והבנת שיעורי הסירוב לשאילתות מזיקות. לבסוף, אנתרופיק הפנתה משתמשים שחיפשו מידע על בחירות למקורות סמכותיים ובלתי-מפלגתיים, כמו TurboVote בארה"ב ורשויות בחירות רלוונטיות במדינות אחרות. בסך הכל, נרשמו כ-100 פעולות אכיפה גלובליות הקשורות לבחירות, כולל אזהרות ובמקרים מסוימים חסימת חשבונות למפרים חוזרים.

הכלי Clio, שמאפשר ניתוח אוטומטי של שימוש במודלי שפה בעולם האמיתי (מידע נוסף עליו זמין בבלוג של אנתרופיק), סיפק תובנות חשובות לגבי דפוסי השימוש ב-Claude סביב הבחירות בארה"ב. במהלך שבוע הבחירות, נרשמה עלייה ניכרת בפעילות הקשורה לנושא. כשני שליש מהשיחות הללו עסקו בניתוח והסבר של מערכות פוליטיות, מדיניות, אירועים אקטואליים או נתוני בחירות. שימושים נוספים כללו תרגום מידע וייצור תוכן חינוכי על דמוקרטיה וממשל. חשוב לציין כי אינטראקציות הקשורות לבחירות מהוות אחוז קטן מאוד מכלל השימוש ב-Claude.ai, עם פחות מ-1% מהשיחות שנוגעות לנושאים אלו, ומתוכן, רק חלק קטן הפר את מדיניות השימוש של אנתרופיק.

מקרה בוחן מעניין התרחש בצרפת, כאשר קריאה לבחירות בזק חשפה את מגבלות הידע של המודל, שאומן רק עד אפריל 2024 ולא יכול היה לספק מידע מדויק על מועדי הבחירות החדשים. כדי להתמודד עם אתגר זה, אנתרופיק הטמיעה תקשורת ברורה יותר לגבי תאריך חיתוך הידע של קלוד (knowledge cutoff date), הן ב-System Prompt של המודל והן בממשק המשתמש, באמצעות באנר ייעודי. צעד זה סייע למשתמשים להבין טוב יותר את מגבלות המודל והפנה אותם למקורות סמכותיים. אנתרופיק מסכמת כי הגנה על שלמות הבחירות דורשת ערנות והתאמה מתמדת ככל שטכנולוגיית ה-AI מתפתחת, והיא נותרה מחויבת לפיתוח מערכות בדיקה מתוחכמות, חיזוק שיתוף הפעולה בתעשייה ותקשורת שקופה בנוגע לממצאיה.