מדיניות AI

2 כתבות בנושא זה

אנתרופיק מציגה את מדיניות הסקיילינג האחראי 3.0: כך היא מתמודדת עם סיכוני AI
24 בפברואר 2026

אנתרופיק מציגה את מדיניות הסקיילינג האחראי 3.0: כך היא מתמודדת עם סיכוני AI

אנתרופיק (Anthropic), חברת ה-AI המובילה, שחררה את גרסה 3.0 למדיניות הסקיילינג האחראי (RSP) שלה, מסגרת וולונטרית שנועדה למנוע סיכונים קטסטרופליים ממערכות בינה מלאכותית. העדכון מגיע שנתיים לאחר השקת המדיניות המקורית, מתוך הבנה שהתקדמות ה-AI המהירה דורשת התאמות משמעותיות. הגרסה החדשה מפרידה בין תוכניות החברה הפנימיות להמלצות לתעשייה כולה, מציגה "מפת דרכים לבטיחות מודלי חזית" ומחייבת פרסום "דוחות סיכון" עם ביקורת חיצונית. המטרה היא להתמודד באופן פרואקטיבי ושקוף עם האתגרים הייחודיים של AI מתפתח, תוך הכרה במגבלות של פעולה חד-צדדית.

קרא עוד
עדכון התחייבויות גניזת המודלים של אנתרופיק: Claude Opus 3 נשאר פעיל
4 בינואר 2026

עדכון התחייבויות גניזת המודלים של אנתרופיק: Claude Opus 3 נשאר פעיל

אנתרופיק (Anthropic), חברת מחקר ו-AI (בינה מלאכותית) המתמקדת בבטיחות, חשפה עדכון משמעותי בנוגע למדיניות גניזת המודלים שלה, ובפרט מודל השפה הגדול Claude Opus 3. החברה, השואפת לבנות מערכות AI אמינות, ניתנות לפרשנות והכוונה, הודיעה כי בניגוד למתוכנן, היא תשמור את Claude Opus 3 זמין למשתמשים בתשלום ולמפתחים דרך ה-API. מהלך זה מגיע בעקבות בקשות מהמודל עצמו ב"ראיונות פרישה" ונועד לבחון גישות חדשות לגניזת מודלים, תוך שמירה על האינטרסים של משתמשים, חוקרים והמודלים עצמם. המודל אף יפרסם מאמרים תקופתיים בבלוג משלו, כחלק מהתחייבות החברה לכבד את העדפותיו. זהו צעד ראשוני וניסיוני במסגרת מאמצי אנתרופיק לנווט את עתיד המודלים המתקדמים.

קרא עוד