אנתרופיק וחברות AI מובילות מתאחדות למען בטיחות ילדים
בצעד משמעותי שמטרתו להפוך את המרחב הדיגיטלי לבטוח יותר עבור הדור הצעיר, חברת אנתרופיק (Anthropic), מובילה בתחום ה-AI, הצטרפה לחברות AI נוספות והתחייבה ליישם אמצעי בטיחות חזקים להגנה על ילדים. ההתחייבות נוגעת לכל שלבי הפיתוח, הפריסה והתחזוקה של טכנולוגיות AI יוצרות (גנרטיביות). היוזמה החדשה מובלת על ידי ארגון Thorn, עמותה המוקדשת להגנה על ילדים מפני התעללות מינית, ו-All Tech Is Human, ארגון הפועל לפתרון בעיות מורכבות בצומת הטכנולוגיה והחברה. מטרתה המרכזית היא לצמצם את הסיכונים ש-AI מציב בפני ילדים, בדגש על מניעת יצירה או הפצה של חומרים פוגעניים (AIG-CSAM) וצורות אחרות של פגיעה מינית.
מחויבות זו מסמלת צעד קדימה במאמץ הגלובלי למנוע ניצול לרעה של טכנולוגיות AI. כאחד הארגונים המובילים בגישת "בטיחות קודם" (Safety by Design), אנתרופיק מקדמת כבר עתה מדיניות קפדנית, מבצעת תהליכי Red Teaming נרחבים ומשתפת פעולה עם מומחים חיצוניים כדי להבטיח את בטיחות המודלים שלה. מדיניות השימוש של אנתרופיק אוסרת באופן מוחלט תוכן שמתאר, מעודד, תומך או מפיץ כל צורה של ניצול או התעללות מינית בילדים. במקרה של זיהוי חומרים כאלה, החברה מדווחת עליהם מידית למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC).
במסגרת עקרונות "בטיחות מובנית" (Safety by Design) שאומצו, אנתרופיק מחויבת לשורה של פעולות ממוקדות. אלו כוללות, בין היתר:
- בשלב הפיתוח: הקפדה על מקורות נתוני אימון אחראיים, זיהוי והסרה של תכנים פוגעניים (CSAM ו-CSEM) מנתוני האימון, וביצוע Red Teaming שיטתי לבדיקת עמידות המודלים.
- בשלב הפריסה: זיהוי תכנים פוגעניים בקלט ופלט, הכללת מנגנוני דיווח למשתמשים ומנגנוני אכיפה, ושילוב מסרים למניעת בקשות לתכנים פוגעניים.
- בשלב התחזוקה: דיווח מתמשך ל-NCMEC עם תיוג מתאים, השקעה בכלים להגנה מפני מניפולציות המופקות על ידי AI, וניטור שוטף של השימוש בפלטפורמות למניעת ניצול לרעה.



