חדשות

כל החדשות, העדכונים וההכרזות האחרונות מאנתרופיק ומעולם הבינה המלאכותית

אנתרופיק משיקה את Claude 2: מודל שפה חזק, בטוח ועם חלון הקשר ענק

אנתרופיק משיקה את Claude 2: מודל שפה חזק, בטוח ועם חלון הקשר ענק

חברת ה-AI אנתרופיק (Anthropic), הנחשבת לאחד השחקניות המובילות בתחום, שחררה את Claude 2, הדור החדש של מודל השפה הגדול (LLM) שלה, שנועד להיות אמין, ניתן לפרשנות ובטוח יותר. המודל החדש מציג שיפורים משמעותיים בביצועים, יכולות קידוד וחשיבה, ומגיע עם חלון הקשר עצום של 100 אלף טוקנים. בנוסף, הוא זמין דרך API וגם באתר בטא ציבורי חדש, מה שמאפשר נגישות רחבה יותר למודל המתקדם. אנתרופיק מדגישה את מחויבותה לבטיחות ה-AI, ומציינת ש-Claude 2 מציג עמידות כפולה בפני פרומפטים מזיקים בהשוואה לקודמו.

11 במאי 2023קרא עוד
אנתרופיק חושפת: כך תשפרו את ביצועי קלוד בחלון הקשר הארוך
11 במאי 2023

אנתרופיק חושפת: כך תשפרו את ביצועי קלוד בחלון הקשר הארוך

אנתרופיק (Anthropic), חברת בטיחות ומחקר ה-AI, פרסמה מחקר חדש המתמקד באופטימיזציה של מודל השפה הגדול קלוד (Claude) בעת שימוש בחלונות הקשר ארוכים במיוחד, המגיעים עד 100,000 טוקנים. המחקר חושף שתי טכניקות הנדסת פרומפטים קריטיות – שליפת ציטוטים רלוונטיים והכללת דוגמאות בתוך הפרומפט – המשפרות משמעותית את דיוק הזיכרון של המודל במידע מורכב. ממצאי המחקר מספקים הדרכה מעשית למפתחים כיצד למקסם את יכולותיו של קלוד, ומודגמים ב-Anthropic Cookbook החדש. הממצאים מדגישים את החשיבות של פרומפטים מפורטים ומכוונים כדי להתגבר על אתגרים הקשורים לעיבוד מידע ארוך ומורכב.

קרא עוד
קפיצת מדרגה לקלוד: אנתרופיק משיקה חלון הקשר של 100,000 טוקנים
11 במאי 2023

קפיצת מדרגה לקלוד: אנתרופיק משיקה חלון הקשר של 100,000 טוקנים

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ומחקר ה-AI, הרחיבה משמעותית את חלון ההקשר של מודל השפה הגדול שלה, Claude, מ-9,000 ל-100,000 טוקנים. הרחבה זו, השווה לכ-75,000 מילים, מאפשרת למודל לעבד מאות עמודים של טקסטים מורכבים בתוך שניות בודדות. המהלך פותח דלתות לשימושים עסקיים חדשים, כגון ניתוח דוחות פיננסיים, סיכום מחקרים ארוכים וסיוע בקריאת תיעוד למפתחים, ומבטיח יכולות הסקה ושליפת מידע מתקדמות יותר.

קרא עוד
שיתוף פעולה אסטרטגי: אנתרופיק ו-BCG יפיצו את Claude בארגונים בדגש על AI אחראי
9 במאי 2023

שיתוף פעולה אסטרטגי: אנתרופיק ו-BCG יפיצו את Claude בארגונים בדגש על AI אחראי

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ו-AI אחראי, הכריזה על שיתוף פעולה אסטרטגי עם קבוצת הייעוץ הבינלאומית Boston Consulting Group (BCG). במסגרת השותפות, מודלי ה-AI של אנתרופיק, ובראשם Claude, יוטמעו בארגוני ענק ברחבי העולם, תוך שימת דגש על פריסה בטוחה, אמינה ואתית. שיתוף הפעולה יאפשר ללקוחות BCG לקבל גישה ישירה ל-Claude ולייעל תהליכים עסקיים קריטיים במגוון תחומי פעילות, ויקבע סטנדרט חדש ליישום AI אחראי בארגונים.

קרא עוד
אנתרופיק ו-Scale מאחדות כוחות: Claude מגיע לעולם האנטרפרייז
26 באפריל 2023

אנתרופיק ו-Scale מאחדות כוחות: Claude מגיע לעולם האנטרפרייז

חברת המחקר והבטיחות בתחום ה-AI, אנתרופיק, הפועלת לבניית מערכות AI אמינות, בעלות פרשנות וניתנות לשליטה, הודיעה על שיתוף פעולה אסטרטגי עם Scale. השותפות נועדה להנגיש את מודל השפה הגדול שלה, Claude, למגוון רחב של ארגונים באמצעות הפלטפורמה המובילה של Scale. מהלך זה יאפשר לעסקים לפרוס ולנהל יישומי AI גנרטיביים מתקדמים, תוך ניצול יכולות הנדסת פרומפטים, אימות מודלים ואבטחה ברמת אנטרפרייז שמציעה Scale, בצירוף למערכת ה-AI החוקתי של אנתרופיק.

קרא עוד
אנתרופיק קוראת לרגולציה: מפת דרכים לאחריות מודלי AI מתקדמים
20 באפריל 2023

אנתרופיק קוראת לרגולציה: מפת דרכים לאחריות מודלי AI מתקדמים

חברת המחקר והבטיחות בתחום ה-AI, אנתרופיק (Anthropic), הגישה לאחרונה מסמך המלצות מפורט לממשל האמריקאי, המתווה דרכים להבטחת אחריות ופיקוח על מערכות בינה מלאכותית מתקדמות. המסמך קורא להקמת תשתית ופרוטוקולים אחידים להערכה, ניהול סיכונים ופריסה בטוחה של מודלי AI, תוך שיתוף פעולה בין גורמי ממשל, חברות טכנולוגיה וחוקרים. המטרה היא לגשר על הפער הקיים כיום בהערכה מקיפה של מערכות AI, ולהבטיח שהשפעותיהן העתידיות יהיו חיוביות ובטוחות.

קרא עוד
אנתרופיק משיקה את קלוד: סייען ה-AI החדש ששם דגש על בטיחות
20 באפריל 2023

אנתרופיק משיקה את קלוד: סייען ה-AI החדש ששם דגש על בטיחות

חברת אנתרופיק, המתמקדת במחקר ובטיחות AI, פותחת את הגישה הרחבה למודל השפה הגדול שלה, קלוד (Claude). לאחר תקופת אלפא סגורה עם שותפים מובילים, קלוד זמין כעת למפתחים וארגונים דרך ממשק צ'אט ו-API, ומציע יכולות מתקדמות במגוון משימות לצד התחייבות לבטיחות, כנות ומועילות. המודל מושק בשתי גרסאות – קלוד וקלוד אינסטנט – ומבטיח פלטים אמינים וניתנים לכוונון, כפי שמעידות חברות כמו Quora, Juni Learning ו-Notion שכבר משתמשות בו.

קרא עוד
אנתרופיק מברכת: צעדי רגולציה גלובליים חדשים לבטיחות AI
20 באפריל 2023

אנתרופיק מברכת: צעדי רגולציה גלובליים חדשים לבטיחות AI

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ומחקר בינה מלאכותית, פירסמה לאחרונה את עמדתה בנוגע לשלושה אירועים מדיניים מכוננים שהתרחשו בשבוע האחרון: הצו הנשיאותי המקיף על AI בארה"ב, קוד ההתנהגות הבינלאומי של מדינות ה-G7, ופסגת בטיחות ה-AI בבלצ'לי פארק (Bletchley Park) בבריטניה. החברה, שמטרתה לפתח מערכות AI אמינות, ניתנות לפרשנות וניתנות לשליטה, מברכת על המאמצים הגלובליים הללו. היא רואה בהם אבן דרך חשובה לקביעת סטנדרטים ורגולציה שתבטיח את פיתוחה הבטוח והאחראי של בינה מלאכותית, ותקדם שיתוף פעולה בינלאומי בנושא.

קרא עוד
החוקה של Claude: אנתרופיק מפרטת את עקרונות ה-AI האחראי שלה
8 במרץ 2023

החוקה של Claude: אנתרופיק מפרטת את עקרונות ה-AI האחראי שלה

חברת אנתרופיק (Anthropic), מובילה בתחום בטיחות ה-AI, פיתחה את גישת ה-AI החוקתי (Constitutional AI) כדי להפוך מודלי שפה גדולים (LLM) לאמינים, ברי פרשנות וניתנים לשליטה. גישה זו, המוטמעת במודל Claude שלהם, מציעה מענה לשאלת ה"ערכים" של מודלי שפה על ידי מתן עקרונות מפורשים, בניגוד להסתמכות בלעדית על משוב אנושי. השיטה מאפשרת סקיילינג יעיל של פיקוח AI, שקיפות גבוהה יותר של המודל, ומבטיחה תגובות מועילות ולא מזיקות מבלי לחשוף מפעילים אנושיים לתכנים מטרידים.

קרא עוד