חדשות

כל החדשות, העדכונים וההכרזות האחרונות מאנתרופיק ומעולם הבינה המלאכותית

אנתרופיק חושפת: כך תשפרו את ביצועי קלוד בחלון הקשר הארוך

אנתרופיק חושפת: כך תשפרו את ביצועי קלוד בחלון הקשר הארוך

אנתרופיק (Anthropic), חברת בטיחות ומחקר ה-AI, פרסמה מחקר חדש המתמקד באופטימיזציה של מודל השפה הגדול קלוד (Claude) בעת שימוש בחלונות הקשר ארוכים במיוחד, המגיעים עד 100,000 טוקנים. המחקר חושף שתי טכניקות הנדסת פרומפטים קריטיות – שליפת ציטוטים רלוונטיים והכללת דוגמאות בתוך הפרומפט – המשפרות משמעותית את דיוק הזיכרון של המודל במידע מורכב. ממצאי המחקר מספקים הדרכה מעשית למפתחים כיצד למקסם את יכולותיו של קלוד, ומודגמים ב-Anthropic Cookbook החדש. הממצאים מדגישים את החשיבות של פרומפטים מפורטים ומכוונים כדי להתגבר על אתגרים הקשורים לעיבוד מידע ארוך ומורכב.

11 במאי 2023קרא עוד
קפיצת מדרגה לקלוד: אנתרופיק משיקה חלון הקשר של 100,000 טוקנים
11 במאי 2023

קפיצת מדרגה לקלוד: אנתרופיק משיקה חלון הקשר של 100,000 טוקנים

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ומחקר ה-AI, הרחיבה משמעותית את חלון ההקשר של מודל השפה הגדול שלה, Claude, מ-9,000 ל-100,000 טוקנים. הרחבה זו, השווה לכ-75,000 מילים, מאפשרת למודל לעבד מאות עמודים של טקסטים מורכבים בתוך שניות בודדות. המהלך פותח דלתות לשימושים עסקיים חדשים, כגון ניתוח דוחות פיננסיים, סיכום מחקרים ארוכים וסיוע בקריאת תיעוד למפתחים, ומבטיח יכולות הסקה ושליפת מידע מתקדמות יותר.

קרא עוד
שיתוף פעולה אסטרטגי: אנתרופיק ו-BCG יפיצו את Claude בארגונים בדגש על AI אחראי
9 במאי 2023

שיתוף פעולה אסטרטגי: אנתרופיק ו-BCG יפיצו את Claude בארגונים בדגש על AI אחראי

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ו-AI אחראי, הכריזה על שיתוף פעולה אסטרטגי עם קבוצת הייעוץ הבינלאומית Boston Consulting Group (BCG). במסגרת השותפות, מודלי ה-AI של אנתרופיק, ובראשם Claude, יוטמעו בארגוני ענק ברחבי העולם, תוך שימת דגש על פריסה בטוחה, אמינה ואתית. שיתוף הפעולה יאפשר ללקוחות BCG לקבל גישה ישירה ל-Claude ולייעל תהליכים עסקיים קריטיים במגוון תחומי פעילות, ויקבע סטנדרט חדש ליישום AI אחראי בארגונים.

קרא עוד
אנתרופיק ו-Scale מאחדות כוחות: Claude מגיע לעולם האנטרפרייז
26 באפריל 2023

אנתרופיק ו-Scale מאחדות כוחות: Claude מגיע לעולם האנטרפרייז

חברת המחקר והבטיחות בתחום ה-AI, אנתרופיק, הפועלת לבניית מערכות AI אמינות, בעלות פרשנות וניתנות לשליטה, הודיעה על שיתוף פעולה אסטרטגי עם Scale. השותפות נועדה להנגיש את מודל השפה הגדול שלה, Claude, למגוון רחב של ארגונים באמצעות הפלטפורמה המובילה של Scale. מהלך זה יאפשר לעסקים לפרוס ולנהל יישומי AI גנרטיביים מתקדמים, תוך ניצול יכולות הנדסת פרומפטים, אימות מודלים ואבטחה ברמת אנטרפרייז שמציעה Scale, בצירוף למערכת ה-AI החוקתי של אנתרופיק.

קרא עוד
אנתרופיק קוראת לרגולציה: מפת דרכים לאחריות מודלי AI מתקדמים
20 באפריל 2023

אנתרופיק קוראת לרגולציה: מפת דרכים לאחריות מודלי AI מתקדמים

חברת המחקר והבטיחות בתחום ה-AI, אנתרופיק (Anthropic), הגישה לאחרונה מסמך המלצות מפורט לממשל האמריקאי, המתווה דרכים להבטחת אחריות ופיקוח על מערכות בינה מלאכותית מתקדמות. המסמך קורא להקמת תשתית ופרוטוקולים אחידים להערכה, ניהול סיכונים ופריסה בטוחה של מודלי AI, תוך שיתוף פעולה בין גורמי ממשל, חברות טכנולוגיה וחוקרים. המטרה היא לגשר על הפער הקיים כיום בהערכה מקיפה של מערכות AI, ולהבטיח שהשפעותיהן העתידיות יהיו חיוביות ובטוחות.

קרא עוד
אנתרופיק משיקה את קלוד: סייען ה-AI החדש ששם דגש על בטיחות
20 באפריל 2023

אנתרופיק משיקה את קלוד: סייען ה-AI החדש ששם דגש על בטיחות

חברת אנתרופיק, המתמקדת במחקר ובטיחות AI, פותחת את הגישה הרחבה למודל השפה הגדול שלה, קלוד (Claude). לאחר תקופת אלפא סגורה עם שותפים מובילים, קלוד זמין כעת למפתחים וארגונים דרך ממשק צ'אט ו-API, ומציע יכולות מתקדמות במגוון משימות לצד התחייבות לבטיחות, כנות ומועילות. המודל מושק בשתי גרסאות – קלוד וקלוד אינסטנט – ומבטיח פלטים אמינים וניתנים לכוונון, כפי שמעידות חברות כמו Quora, Juni Learning ו-Notion שכבר משתמשות בו.

קרא עוד
אנתרופיק מברכת: צעדי רגולציה גלובליים חדשים לבטיחות AI
20 באפריל 2023

אנתרופיק מברכת: צעדי רגולציה גלובליים חדשים לבטיחות AI

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ומחקר בינה מלאכותית, פירסמה לאחרונה את עמדתה בנוגע לשלושה אירועים מדיניים מכוננים שהתרחשו בשבוע האחרון: הצו הנשיאותי המקיף על AI בארה"ב, קוד ההתנהגות הבינלאומי של מדינות ה-G7, ופסגת בטיחות ה-AI בבלצ'לי פארק (Bletchley Park) בבריטניה. החברה, שמטרתה לפתח מערכות AI אמינות, ניתנות לפרשנות וניתנות לשליטה, מברכת על המאמצים הגלובליים הללו. היא רואה בהם אבן דרך חשובה לקביעת סטנדרטים ורגולציה שתבטיח את פיתוחה הבטוח והאחראי של בינה מלאכותית, ותקדם שיתוף פעולה בינלאומי בנושא.

קרא עוד
החוקה של Claude: אנתרופיק מפרטת את עקרונות ה-AI האחראי שלה
8 במרץ 2023

החוקה של Claude: אנתרופיק מפרטת את עקרונות ה-AI האחראי שלה

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ה-AI, פיתחה את גישת ה-AI החוקתי (Constitutional AI) כדי להפוך מודלי שפה גדולים (LLM) לאמינים, ברי פרשנות וניתנים לשליטה. גישה זו, המוטמעת במודל Claude שלהם, מציעה מענה לשאלת ה"ערכים" של מודלי שפה על ידי מתן עקרונות מפורשים, בניגוד להסתמכות בלעדית על משוב אנושי. השיטה מאפשרת סקיילינג יעיל של פיקוח AI, שקיפות גבוהה יותר של המודל, ומבטיחה תגובות מועילות ולא מזיקות מבלי לחשוף מפעילים אנושיים לתכנים מטרידים.

קרא עוד
אנתרופיק מתריעה: AI טרנספורמטיבי בפתח – אך הבטיחות עדיין בגדר תעלומה
8 במרץ 2023

אנתרופיק מתריעה: AI טרנספורמטיבי בפתח – אך הבטיחות עדיין בגדר תעלומה

אנתרופיק (Anthropic), חברת ה-AI המובילה, מפרסמת מסמך עמדה שבו היא מזהירה כי מערכות בינה מלאכותית טרנספורמטיביות (Transformative AI) עשויות להגיע כבר בעשור הקרוב, עם יכולות שישתוו או יעלו על ביצועי אדם במרבית המשימות האינטלקטואליות. עם זאת, היא מדגישה כי הקהילה עדיין אינה מבינה כיצד להפוך מודלים חזיתיים אלו לבטוחים, מהימנים ומיושרים באופן יציב עם ערכי האדם. החברה קוראת למאמץ מחקרי דחוף ורב-גוני בתחום בטיחות ה-AI, ומציגה את הגישה האמפירית שלה לטיפול ב"בעיית היישור" (alignment) כדי למנוע סיכונים קטסטרופליים אפשריים, העשויים לנבוע מתקלות טכניות או מהפרעה חברתית נרחבת.

קרא עוד