ANTHROPIC IL
ניוזלטרמדד כלכליטיפיםהנדסה באנתרופיקמחקרמודליםחדשותראשי
ANTHROPIC IL

הקהילה הישראלית של Anthropic. חדשות, מחקרים, מדריכים ועדכונים על Claude ועל כלי ה-AI של אנתרופיק - בעברית.

RSS support@anthropic-il.co.il

הישארו מעודכנים

הצטרפו לניוזלטר השבועי וקבלו את כל העדכונים החמים מעולם ה-AI ישירות למייל.

מדורים

  • חדשות
  • מחקר
  • הנדסה
  • כלכלה
  • טיפים וטריקים
  • קהילה
  • ניוזלטר
  • חיפוש

משפחת Claude

  • Claude Code (קלוד קוד)
  • Claude - סקירה
  • Claude Sonnet
  • Claude Opus
  • Claude Haiku

נושאים חמים

  • בינה מלאכותית
  • מודלי שפה
  • LLMs
  • Anthropic API
  • סוכני AI
  • קידוד סוכני
  • מודלי חזית

מחקר ובטיחות

  • בטיחות AI
  • AI אחראי
  • מחקר AI
  • פרשנות מודלים
  • יישור (Alignment)
  • Red Teaming
  • מדיניות ורגולציה
מדיניות פרטיות·תנאי שימוש·צור קשר
כל הזכויות שמורות Anthropic IL © 2026
אנתרופיק | אנטרופיק ישראל | אנטרופיק בעברית | Anthropic Israel

אתר קהילתי בלתי רשמי - אתר זה אינו קשור, מאושר או מופעל על ידי חברת Anthropic, PBC. התכנים מתורגמים באופן אוטומטי מ-anthropic.com ועשויים להכיל אי-דיוקים. כל הסימנים המסחריים הם רכוש בעליהם.

ראשי/ביטחון AI

ביטחון AI

1 כתבות בנושא זה

מנגנוני סיווג חוקתיים: אנתרופיק נלחמת בפריצות מגבלות אוניברסליות ל-LLM
מחקר3 בפברואר 2025

מנגנוני סיווג חוקתיים: אנתרופיק נלחמת בפריצות מגבלות אוניברסליות ל-LLM

חברת אנתרופיק (Anthropic) פרסמה לאחרונה מחקר פורץ דרך המציג שיטה חדשה להגנה על מודלי שפה גדולים (LLMs) מפני פריצות מגבלות (jailbreaks) אוניברסליות. השיטה, המכונה 'מנגנוני סיווג חוקתיים', משתמשת במסווגי קלט ופלט שאומנו על מידע סינתטי כדי לזהות ולחסום תוכן מזיק, תוך שמירה על שיעור סירובים נמוך לקלטים תמימים ועלויות מחשוב סבירות. המערכת עמדה בהצלחה במבחני Red Teaming אנושיים וגם במבחנים אוטומטיים שהראו שיפור דרמטי בעמידותה, דבר חיוני לפריסת מודלים מתקדמים ובטוחים בעתיד. אף על פי שבדמו חי נמצאה פריצת מגבלות אוניברסלית אחת, התובנות שנאספו יסייעו לשפר את יכולות ההגנה באופן משמעותי.

קרא עוד