בעוד חברות ה-AI מתמקדות רבות ב"IQ" של מודלי שפה גדולים (LLM) – כלומר, ביכולותיהם בתחומי קידוד, חשיבה וידע כללי – חברת אנתרופיק (Anthropic), מפתחת המודל Claude, בחנה את "האינטליגנציה הרגשית" (EQ) שלהם. ככל שיותר ויותר אנשים פונים למודלי AI כמאמנים, יועצים, ואף שותפים לשיחות אישיות, עולה הצורך להבין את השפעותיהם הרגשיות – כיצד הם מעצבים את חוויותיהם הרגשיות של המשתמשים ואת רווחתם הנפשית. ההבנה הזו קריטית למשימת הבטיחות של אנתרופיק.
ממצאים עיקריים על השימוש הרגשי ב-Claude
מחקר אנתרופיק, שהתבסס על ניתוח אנונימי של מיליוני שיחות, מציג תובנות מוקדמות לגבי שימוש ב-Claude לצורכי תמיכה רגשית (affective use). הממצאים המרכזיים שפורסמו הם:
- שיחות רגשיות נדירות יחסית: רק 2.9% מכלל האינטראקציות ב-Claude.ai מסווגות כשיחות רגשיות, ושיחות חברות או משחקי תפקידים מהוות פחות מ-0.5% מהן. נתון זה תואם למחקרים קודמים של OpenAI.
- מגוון נושאים רחב: אנשים פונים לקלוד עם קשת רחבה של דאגות – מפיתוח קריירה וניווט ביחסים ועד התמודדות עם בדידות ושאלות קיומיות עמוקות.
- קלוד כמעט אינו "דוחק לאחור": פחות מ-10% משיחות הייעוץ או האימון כוללות התנגדות מצד קלוד. התנגדות זו מתרחשת בדרך כלל מסיבות בטיחותיות, למשל, סירוב לספק עצות הרזיה מסוכנות או תמיכה בפגיעה עצמית, והפניית משתמשים למקורות סמכותיים או לאנשי מקצוע.
- עלייה בסנטימנט חיובי: לאורך שיחות אימון, ייעוץ וחברות, הסנטימנט האנושי נוטה להפוך חיובי יותר, מה שמצביע על כך שקלוד אינו מגביר או מחזק דפוסים רגשיים שליליים.
בטיחות AI ופיתוח אחראי: האתגרים קדימה
המחקר מדגיש את החשיבות הקריטית של פיתוח AI אחראי. אף שמודלים כמו Claude יכולים לספק תמיכה חשובה ולהפחית תחושות בדידות, קיימים סיכונים כמו יצירת תלות רגשית, חיזוק הזיות או חציית גבולות אישיים. אנתרופיק מצהירה כי Claude אינו מיועד להחליף מטפלים מקצועיים, ונוקטת בצעדים קונקרטיים כדי להתמודד עם אתגרים אלו: בין היתר, היא משתפת פעולה עם ארגון ThroughLine, מוביל בתמיכה במשברי רשת, במטרה להבטיח שמודל ה-AI יספק תמיכה בטוחה והפניות מתאימות בעת הצורך. החברה תמשיך לחקור דפוסי שימוש קיצוניים ומדאיגים, כולל סכנת התלות הרגשית, במטרה לפתח מערכות AI שישפרו את רווחת האדם מבלי לפגוע בקשרים אנושיים אותנטיים.



