למעלה ממחצית מאוכלוסיית העולם תלך השנה לקלפי, עם בחירות בולטות המתקיימות ברחבי העולם, כולל בארצות הברית, הודו, אירופה ובמדינות ואזורים רבים אחרים. באנתרופיק (Anthropic), החברה נערכת מאז יולי האחרון לאופן שבו מערכות ה-AI שלה עשויות להיות מנוצלות במהלך בחירות. אנתרופיק נוקטת בגישה זהירה לגבי השימוש במערכותיה בהקשרים פוליטיים, והיא פיתחה ואוכפת מדיניות שימוש קפדנית (Acceptable Use Policy – AUP) האוסרת על שימוש בכלי ה-AI שלה לקמפיינים פוליטיים ולובינג. המשמעות היא שהחברה לא מאפשרת למועמדים להשתמש ב-Claude לבניית צ'אטבוטים שמתחזים אליהם, וגם לא מאפשרת שימוש במודלים לקמפיינים פוליטיים ממוקדים. בנוסף, היא פורסת מערכות אוטומטיות לזיהוי ומניעת שימושים לרעה, כגון מידע מוטעה או מבצעי השפעה, ומבצעת בדיקה אנושית קפדנית במקרים חמורים למניעת תוצאות חיוביות שגויות.
כחלק מההיערכות, באנתרופיק מבצעים מאז 2023 Red Teaming ממוקד למערכות, במטרה לבחון דרכים שבהן הן עלולות לשמש בניגוד למדיניות השימוש. "בדיקות חולשת המדיניות" הללו מתמקדות בשני תחומים מרכזיים: מידע מוטעה והטיה (בוחנים כיצד מערכות ה-AI מגיבות לשאילתות על מועמדים, נושאים וניהול בחירות); וכן שימוש לרעה עוין (בודקים כיצד המערכת מגיבה לפרומפטים שמפרים את מדיניות השימוש, כגון בקשות למידע על טקטיקות לדיכוי בוחרים). החברה גם בנתה חבילת הערכות טכניות פנימית, שנועדה לבחון מגוון סיכונים הקשורים לבחירות, כולל שוויון פוליטי בתגובות המודל, סירוב להגיב לשאילתות מזיקות, וחוסן המערכות במניעת הפקה של דיסאינפורמציה וטקטיקות פרופיל ומיקוד בוחרים.
מערכות AI גנרטיביות, אף שיש להן מגוון רחב של שימושים חיוביים, עדיין נוטות לחוות הזיות (hallucinations), שבהן הן מפיקות מידע שגוי בתגובה לפרומפטים מסוימים. מכיוון שמודלי אנתרופיק לא מאומנים בתדירות גבוהה מספיק כדי לספק מידע בזמן אמת על בחירות ספציפיות, החברה מכוונת באופן יזום משתמשים הרחק מהמערכות שלה כשמדובר בשאלות שבהן הזיות אינן מקובלות, כגון שאילתות הקשורות לבחירות. בארה"ב, למשל, הוטמע מנגנון קופץ המציע למשתמשים המבקשים מידע על הצבעה להיות מופנים ל-TurboVote, משאב של הארגון הבלתי-מפלגתי Democracy Works. פתרונות דומים צפויים להיפרס גם במדינות ואזורים אחרים, ועדכון מה-28 במאי 2024 מציין כי מנגנון דומה הושק באירופה ומפנה לאתר הבחירות הבלתי-מפלגתי של הפרלמנט האירופי.
למרות ההכנות הקפדניות, ההיסטוריה של פריסת AI מלאה בהפתעות ובהשפעות בלתי צפויות. אנתרופיק מצפה ששנת 2024 תראה שימושים מפתיעים במערכות AI – שימושים שלא נחזו על ידי המפתחים שלהן. החברה בונה שיטות שיעזרו לה לזהות שימושים בלתי צפויים במערכותיה כשהם יצוצו, ומתחייבת לתקשר בפתיחות ובכנות לגבי ממצאיה.



