
אנתרופיק נגד פייק ניוז בבחירות: חושפת את מנגנוני הבטיחות של מודלי ה-AI שלה
לקראת שנת הבחירות הגלובלית של 2024, חברת אנתרופיק (Anthropic) מפרסמת הצצה למאמציה המתמשכים לבחון ולהפחית סיכונים הקשורים לבחירות במודלי ה-AI שלה, בדגש על קלוד (Claude). החברה משתמשת בשילוב של בדיקות עומק ידניות עם מומחים חיצוניים (PVT) והערכות אוטומטיות מבוססות סקיילינג, כדי לזהות ולטפל בסוגיות כמו מידע שגוי והטיה. הדו"ח מפרט כיצד ממצאי הבדיקות מובילים ליישום אסטרטגיות הפחתה אפקטיביות, כולל עדכונים ל-System Prompt וכוונון עדין של המודלים, במטרה להבטיח את שלמות התהליך הדמוקרטי. תהליך זה מדגים את מחויבותה של אנתרופיק ל-AI אחראי.







