אזורי המיקוד של מכון אנתרופיק

למה זה חשוב? כיצד תשפיע הבינה המלאכותית (AI) על חיינו, על הכלכלה ועל הביטחון? זוהי שאלה קריטית, ובדיוק כאן נכנס לפעולה מכון אנתרופיק (TAI). המכון, הממוקם בלב מעבדת מודלי חזית, ימנף את הגישה הייחודית שלו למידע פנימי כדי לחקור את השפעות ה-AI על העולם ולשתף את הממצאים עם הציבור.

אג'נדת המחקר של המכון מתמקדת בארבעה תחומי מפתח:

  • התפשטות כלכלית
  • איומים וחוסן
  • מערכות AI בסביבת אמת
  • מחקר ופיתוח מונחה AI

כפי שצוין במסמך "עקרונות הליבה לבטיחות AI", מחקר בטיחות יעיל דורש מגע הדוק עם מערכות AI מתקדמות. אותו היגיון חל גם על מחקר אפקטיבי בנוגע להשפעות ה-AI על ביטחון, כלכלה וחברה.

באנתרופיק, אנו רואים עדויות מוקדמות לכך שמקצועות כמו הנדסת תוכנה משתנים באופן רדיקלי. אנו עדים לשינויים בכלכלה הפנימית של אנתרופיק, להופעת איומים חדשים מהמערכות שאנו בונים, ולסימנים ראשונים לכך שה-AI עצמו מאיץ את המחקר והפיתוח של AI. כדי לממש את מלוא היתרונות של התקדמות ה-AI, אנו שואפים לשתף כמה שיותר מידע זה. אנו חוקרים כיצד דינמיקות אלו עשויות לעצב את העולם החיצוני, וכיצד הציבור יכול לעזור לכוון את השינויים הללו.

ב-TAI, נלמד את ההשפעות האמיתיות של ה-AI מנקודת המבט הייחודית שלנו כמעבדת מודלי חזית, ולאחר מכן נפרסם את הממצאים. זאת במטרה לסייע לארגונים חיצוניים, ממשלות והציבור הרחב לקבל החלטות טובות יותר לגבי פיתוח AI.

נשתף מחקרים, נתונים וכלים כדי להקל על חוקרים ומוסדות לעסוק בשאלות מחקר אלו. בפרט, נשתף:

  • מידע מפורט יותר מהמדד הכלכלי של אנתרופיק, בתדירות גבוהה יותר, אודות השפעות ה-AI על שוק העבודה ודפוסי השימוש ב-AI. נשאף לשמש איתות אזהרה מוקדם לשינויים ושיבושים משמעותיים.
  • מחקר על התחומים החברתיים הזקוקים ביותר להשקעה בחוסן לנוכח סיכוני אבטחה חדשים מבוססי AI.
  • מידע מפורט יותר על האופן שבו עבודתנו באנתרופיק הואצה כתוצאה מכלי AI חדשים, ורעיונות לגבי ההשלכות של שיפור עצמי רקורסיבי פוטנציאלי של מערכות AI.

עבודת המכון גם תעצב את ההחלטות שאנתרופיק מקבלת. הדבר יכול לבוא לידי ביטוי בכך שהחברה תשתף נתונים עם העולם שאחרת לא הייתה משתפת (כמו המדד הכלכלי), או שתתייחס לשחרור טכנולוגיה באופן שונה (כמו ניתוחי איומי סייבר המזינים יוזמות כמו פרויקט גלאסווינג).

אנו מצפים שעבודה שפותחה על ידי מכון אנתרופיק תשמש יותר ויותר כתשומות חשובות לקרן התועלת ארוכת הטווח (LTBT) של אנתרופיק. משימת ה-LTBT היא להבטיח שאנתרופיק תמטב באופן עקבי את פעולותיה למען התועלת ארוכת הטווח של האנושות. פיתחנו אג'נדת מחקר זו יחד עם ה-LTBT, וכן עם עובדים מכלל אנתרופיק.

זוהי אג'נדה חיה ומתפתחת, ולא קבועה. נמשיך לבצע כוונון עדין לשאלות אלו ככל שיצטברו עדויות, ואנו מצפים שיעלו שאלות חדשות שאינן נכללות כאן כיום. אנו מברכים על משוב בנוגע לאג'נדה זו, ונשנה אותה לאור מה שנלמד משיחותינו.

אם אתם מעוניינים לעזור לנו לענות על חלק מהשאלות הללו, אנו מזמינים אתכם להגיש מועמדות למלגת עמיתי אנתרופיק. המלגה היא הזדמנות ממומנת בת ארבעה חודשים לטפל באחת או יותר מהשאלות הללו, בליווי וחניכה מצוותי TAI. תוכלו למצוא מידע נוסף ולהגיש מועמדות למחזור הבא כאן.

אג'נדת המחקר שלנו:

עדכון אחרון: 7 במאי 2026

התפשטות כלכלית

חיוני להבין כיצד פריסת מערכות AI חזקות יותר ויותר משנה את הכלכלה. עלינו גם לפתח את הנתונים הכלכליים והיכולת הניבויית הדרושים כדי לבחור לפרוס AI בדרכים המיטיבות עם הציבור.

כדי לענות על השאלות בעמוד תווך זה של המחקר שלנו, נפתח עוד יותר את הנתונים במדד הכלכלי של אנתרופיק. נחקור גם שיטות אחרות לחידוד המודלים שלנו לגבי האופן שבו AI חזק יכול להשפיע על החברה, בין אם באמצעות אובדן משרות, צמיחה כלכלית חסרת תקדים, או השפעות אחרות.

אימוץ והתפשטות AI

  • מי מאמץ AI? פיתוח AI מרוכז במספר מצומצם של חברות במספר מצומצם של מדינות, אך הפריסה היא גלובלית. מה קובע אם מדינה, אזור או עיר יכולים לגשת ל-AI? אם הם יכולים לגשת אליו, כיצד הם לוכדים ערך כלכלי מה-AI? אילו מדיניות ומודלים עסקיים משנים באופן משמעותי את האיזון הזה? כיצד מודלים חופשיים או בעלי משקולות פתוחות תורמים לדינמיקה זו?
  • אימוץ בחברות: מה גורם לאימוץ AI ברמת החברה, ומהן ההשלכות? כיצד AI משנה את קנה המידה שבו חברה או צוות יכולים להיות היעילים ביותר? עד כמה מרוכז השימוש ב-AI בקרב חברות? כיצד שינויים בריכוז אימוץ ה-AI מתורגמים לרווחים ולחלקם של העובדים? אם צוות או חברה של 3 אנשים יכולים כעת לעשות מה שדרש 300 לפני כן, מה קורה לארגון התעשייתי? או, אם חברות יכולות לרכז ידע בקלות רבה יותר ויש בכך יתרונות בקנה מידה, האם נראה חברות גדולות ורחבות יותר עם תמריץ גדול יותר לפקח באופן שיטתי על עובדים?
  • האם AI היא טכנולוגיה למטרות כלליות? האם AI הולך בעקבות דפוס של "טכנולוגיות למטרות כלליות" קודמות, שבהן האימוץ הוא המהיר ביותר ביישומים מסחריים בעלי שולי רווח גבוהים, והאיטי ביותר כאשר התשואות החברתיות עולות על התשואות הפרטיות? האם יש מדיניות או החלטות שיכולות לשנות דינמיקות אלו?

פרודוקטיביות וצמיחה כלכלית

  • צמיחת פרודוקטיביות: מה תהיה ההשפעה של AI על קצב החדשנות וצמיחת הפרודוקטיביות בכל הכלכלה?
  • חלוקת הרווחים: אילו מנגנוני חלוקה מוקדמים או מחדש יכולים להפיץ ביעילות את הרווחים מפיתוח ופריסת AI באופן רחב יותר?
  • עלויות עסקה בשווקים: כיצד AI משפיע על מערכות חליפין ועלויות עסקה בשווקים? מתי גישה לסוכנים המסוגלים לנהל משא ומתן בשמך משפרת את יעילות השוק ואת התוצאות השוויוניות? מתי לא?

השפעות רחבות על שוק העבודה

  • AI ומשרות: כיצד AI ישנה משרות ותעסוקה בחלקים שונים של הכלכלה? אילו משימות ומשרות חדשות יכולות לצוץ ככל שה-AI ממכן חלקים קיימים של הכלכלה? כיצד שינויים אלו ישתנו בין אזורים ומדינות? סקר המדד הכלכלי של אנתרופיק יספק איתותים חודשיים על האופן שבו אנשים רואים את השפעת ה-AI על עבודתם, ומה הם מצפים לעתיד. אנו גם מעדכנים את המדד הכלכלי כדי לשתף נתונים בתדירות גבוהה ומפורטים יותר.
  • האם ניתן לווסת את התפשטות ה-AI? בנקים מרכזיים מבקשים למתן את האינפלציה באמצעות "חוגות" כמו ריבית המדיניות והכוונה עתידית. האם יש "חוגות" אנלוגיות שחברות AI (ברמת התעשייה, בשיתוף פעולה עם הממשלה) יכולות להפעיל כדי לשלוט בקצב התפשטות ה-AI על בסיס מגזרי? האם יהיה בכך יתרון ציבורי ברור?

עתיד המשרות ומקומות העבודה

  • תפיסות עובדים לגבי עבודתם: כיצד עובדים בכל הכלכלה חווים שינויים במקצועותיהם? כמה השפעה יש להם על שינויים אלה, והאם ניתן לשמר או לשנות את כוח ה"עובד"?
  • צינור הכישרונות המקצועי: מקצועות רבים מסתמכים על תפקידי ג'וניור (כמו פרה-ליגלים, אנליסטים זוטרים ומפתחים עמיתים) כדי לשמש הכשרה למתמחים בכירים בעתיד. אם AI סופג את המשימות שבאופן היסטורי בנו מומחיות, כיצד אנשים הופכים למומחים מלכתחילה? מה משמעות הדבר לגבי היצע השיפוט הבכיר לטווח ארוך בתחום?
  • לימוד לקראת העתיד: מה אנשים צריכים ללמוד היום כדי להיות ממוקמים היטב לעתיד? מהם מקצועות העתיד? כיצד AI משנה את המשמעות של ללמוד משהו ולפתח מומחיות?
  • תפקידה של עבודה בשכר: אם AI מצמצם באופן משמעותי את מרכזיות העבודה בשכר בחיי אדם, אילו תנאים יאפשרו לאנשים להקצות מחדש את זמנם ומאמציהם למקורות משמעות אחרים, ומה נוכל ללמוד מאוכלוסיות היסטוריות או עכשוויות שבהן העבודה הייתה נדירה או אופציונלית? כיצד חברות מנווטות את המעבר הזה?

איומים וחוסן

מערכות AI נוטות לקדם יכולות רבות בו זמנית, כולל יכולות דו-שימושיות. מערכת AI המשפרת את יכולותיה בביולוגיה, גם משתפרת ביצירת נשק ביולוגי. מערכות AI המצטיינות בקידוד מחשבים גם משתפרות בפריצה למחשבים. אם נבין טוב יותר את הפוטנציאל להחרפת איומים על ידי מערכות AI, החברה תוכל להתחזק בקלות רבה יותר מול נוף איומים משתנה זה.

אנו שואלים שאלות אלו כדי לסייע בפיתוח שותפויות לשיפור חוסן העולם מול AI טרנספורמטיבי, וכדי לפתח מערכות אזהרה מוקדמות לאיומים חדשים שעלולים לצוץ. רבות מהשאלות הללו יניעו את אג'נדת המחקר של צוות ה-Red Teaming למודלי חזית שלנו.

הערכת סיכונים ויכולות דו-שימושיות:

  • טכנולוגיה דו-שימושית: AI חזק הוא מטבעו דו-שימושי: אותם כלים המשפרים בריאות וחינוך יכולים לאפשר מעקב ודיכוי. האם אנו יכולים לבנות כלי תצפית כדי להבין אם וכיצד זה קורה?
  • תמחור סיכונים באופן הולם: מהן הגישות האפקטיביות, מונעות השוק, לשיפור חוסן חברתי לאיומים צפויים ממערכות AI? האם אנו יכולים לפתח דרכים חדשות לתמחור סיכונים, או כלים טכניים וארגונים אנושיים לשיפור החוסן לפני הגעת איומים צפויים (כמו יכולות מתקפות סייבר משופרות של AI)?
  • מאזן התקפה-הגנה: האם יכולות מבוססות AI יועילו באופן מבני לתוקף בתחומים כמו סייבר וביולוגיה? כאשר AI מיושם בתחומים קונבנציונליים יותר, כמו אינטגרציה הולכת וגוברת למערכות פיקוד ובקרה, האם הוא מועיל לתוקף? באופן כללי יותר, כיצד AI ישנה את אופי הסכסוך האנושי?

קביעת אמצעי הפחתת סיכונים:

  • תכנון לתרחישי משבר: במהלך המלחמה הקרה, לנשיא ארה"ב היה קו חם ישירות לקרמלין, לשימוש במקרה של משבר גרעיני. איזו תשתית גיאופוליטית תידרש במקרה של תרחיש משבר הכולל מערכות AI? תשתית זו לא בהכרח תהיה מדינה-למדינה, אלא יכולה להיות חברה-למדינה או חברה-לחברה.
  • מנגנוני הגנה מהירים יותר: יכולות AI יכולות להתקדם בתוך חודשים. תגובות רגולטוריות, ביטוחיות ותשתיות פועלות בטווח זמן של שנים. כיצד אנו מצמצמים פער זה? האם מנגנוני הגנה – כמו תיקון אוטומטי, זיהוי איומים מבוסס AI, או יכולות תגובה ממוקמות מראש – יכולים להתאים לקצב ולקנה המידה של התקפה מבוססת AI? או שמא הא-סימטריה מבנית? וכיצד אנו פורסים מנגנוני הגנה אלה ביעילות מירבית?

יכולות מודיעין למעקב

  • השפעת AI על מעקב: כיצד AI משנה את אופן פעולת המעקב? האם הוא יהפוך את המעקב לזול יותר, או ליעיל יותר, או לשניהם?

מערכות AI בסביבת אמת

האינטראקציה של אנשים וארגונים עם מערכות AI תהיה מקור מרכזי לשינוי חברתי. הבנת הדרכים שבהן מערכות AI עשויות לשנות את האנשים והמוסדות המקיימים עמם אינטראקציה היא תחום מיקוד מרכזי עבור צוות ההשפעות החברתיות שלנו. כדי לחקור שינויים אלה, אנו מקדמים את הכלים הקיימים שלנו ומוסיפים חדשים לביצוע מחקרנו, החל מתוכנה לשיפור יכולת התצפית על הפלטפורמה שלנו ועד כלים לביצוע סקרים איכותניים בקנה מידה גדול.

השפעת AI על יחידים וחברות:

  • אפיסטמולוגיה קבוצתית: כאשר חלק גדול מהאוכלוסייה מתייעץ עם אותם מודלים בודדים, מה קורה לאפיסטמולוגיה שלנו? האם אנו יכולים למצוא דרכים למדוד שינויים בקנה מידה גדול באמונות, סגנון כתיבה וגישות לפתרון בעיות הניתנים לייחוס לשימוש משותף ב-AI?
  • חשיבה ביקורתית: ככל שמערכות AI הופכות ליותר יכולות ויותר אמינות, כיצד אנו מזהים ומונעים את הידרדרות כישורי החשיבה הביקורתית האנושית שעלולה לנבוע מהגברת הכפיפות לשיפוט ה-AI?
  • ממשקים טכנולוגיים: ממשקי טכנולוגיות יכולים לקבוע כיצד אנשים מקיימים איתם אינטראקציה – טלוויזיות הופכות אנשים לצופים פסיביים, ומחשבים יכולים להקל על אנשים להיות יוצרים גנרטיביים. אילו ממשקים ניתן לבנות כדי לגרום למערכות AI לשפר ולקדם סוכנות אנושית?
  • ניהול מערכות אדם-AI: כיצד בני אדם יכולים לנהל ביעילות צוותים המורכבים מתמהיל של בני אדם ומערכות AI? וכיצד ניתן להפוך זאת – כיצד מערכות AI יכולות לנהל צוותים המורכבים מבני אדם, AI, או שילוב כלשהו?

זיהוי השפעות משמעותיות מ-AI:

  • השפעות התנהגותיות: באופן דומה שבו מדיה חברתית הובילה לשינויים התנהגותיים באנשים, AI עשויה לעצב התנהגות אנושית. אילו סוגי ניטור או מדידה יכולים ליידע חוקרים לגבי דינמיקה זו?
  • אפשרות מחקר: האם קיימים משטרי שקיפות וכלים שיכולים לאפשר למגוון רחב של אנשים, לא רק לחברות AI חזיתיות, לחקור בקלות שימוש ב-AI בעולם האמיתי?

הבנה וממשל מודלי AI:

  • "ערכי" מערכת: מהם ה"ערכים" המובעים של מערכות AI וכיצד הם קשורים לאופן שבו מערכות אלו אומנו? באופן ספציפי יותר, כיצד אנו יכולים למדוד את ההשפעה של "חוקה" של AI על התנהגות המודל לאחר הפריסה? נרחיב את המחקר הקודם שלנו בשאלות אלו.
  • ממשל סוכנים אוטונומיים: אילו היבטים של חוקים קיימים, מערכות ממשל ומנגנוני אחריות יכולים להיות מותאמים לסוכני AI אוטונומיים? לדוגמה, האופן שבו המשפט הימי מתייחס לספינות נטושות רלוונטי לאופן שבו החוק עשוי להתייחס לסוכנים הפועלים ללא פיקוח אנושי. לעומת זאת, האם יש היבטים של חוקים קיימים שכבר חלים על סוכני AI ואסור שיחולו?
  • אמינות סוכנים: אילו היבטים של סוכני AI אוטונומיים יכולים להיות מותאמים להתאים לחוקים קיימים, מערכות ממשל ומנגנוני אחריות? לדוגמה, האם אנו יכולים להבטיח שלסוכני AI יש זהות ייחודית שהם מפיקים באופן אמין, גם בהיעדר שליטה אנושית ישירה?
  • ממשל AI של AI: באיזו יעילות אנו יכולים להשתמש ב-AI כדי למשול במערכות AI? אילו תחומים של פיקוח AI שבהם לבני אדם יש יתרון יחסי או דרישה חוקית או נורמטיבית להיות 'בלולאה'?
  • אינטראקציות סוכנים: אילו סוגי נורמות צצים באופן שבו סוכני AI מקיימים אינטראקציה זה עם זה? כיצד סוכנים שונים עשויים לבטא העדפות שונות, וכיצד אלו עשויים להשפיע על סוכנים אחרים?

מחקר ופיתוח מונחה AI

ככל שמערכות AI הופכות לחזקות יותר, מדענים משתמשים בהן כדי לבצע יותר ממחקריהם. משמעות הדבר היא שיותר מחקר מדעי מתרחש באופן אוטונומי או חצי-אוטונומי עם פחות ופחות פיקוח פעיל מבני אדם. במחקר AI עצמו, מערכות חזקות יותר ויותר עשויות לשמש כדי לסייע בפיתוח גרסאות יורשות של עצמן. אנו מכנים זאת לפעמים "מחקר ופיתוח AI מונחה AI".

מחקר ופיתוח AI מונחה AI עשוי להיות "דיבידנד טבעי" של יצירת מערכות חכמות ובעלות יכולת רבה יותר. באותו אופן שבו התקדמות ביכולות קידוד הובילה ליכולות סייבר דו-שימושיות, והתקדמות ביכולות מדעיות עשויה להוביל ליכולות ביו דו-שימושיות, התקדמות בעבודה טכנית מורכבת עשויה להניב באופן טבעי מערכות AI המסוגלות לפתח מערכות AI.

מחקר ופיתוח AI מונחה AI טומן בחובו פוטנציאל לסכנה משמעותית. ככל שמקבלי החלטות מעריכים את מנופי ההשפעה שיש בידיהם, יהיה חיוני להבין כיצד קצב התקדמות ה-AI משתנה, והאם מחקר AI עלול להתחיל לראות תשואה מצטברת.

AI למחקר ופיתוח AI

  • ממשל מחקר ופיתוח AI: אם מערכות AI משמשות לפיתוח ושיפור עצמי אוטונומי, כיצד בני אדם מפעילים שקיפות ובקרה משמעותית על מערכות אלו? מה ישלוט בסופו של דבר במערכות אלו?
  • תרחישי "תרגיל אש": כיצד אנו מנהלים "תרגיל אש" לפיצוץ אינטליגנטי? איך ייראה תרגיל שולחן שיבחן בפועל את קבלת ההחלטות של הנהלת מעבדות, דירקטוריונים וממשלות?
  • טלהמטריה למחקר ופיתוח AI: כיצד אנו יכולים למדוד את מהירות המחקר והפיתוח הכוללת של AI? אילו סוגי טלהמטריה והצעות טכניות בסיסיות חייבות להתקיים כדי לאסוף מידע זה? כיצד מדדים הקשורים למחקר ופיתוח AI יכולים לשמש כאותות אזהרה מוקדמים לשיפור עצמי רקורסיבי?
  • שליטה בהאצת AI: אם פיצוץ אינטליגנטי עמד בפתחנו, אילו נקודות התערבות יקלו על האטה או שינוי אחר של קצב הפיצוץ? בהנחה שבני אדם יכולים להתערב, אילו גופים צריכים להפעיל יכולת זו – ממשלות? חברות?

AI למחקר ופיתוח באופן כללי – כלומר, מחקר מונחה AI בתחומים אחרים:

  • "עץ הטכנולוגיה": AI מאיץ חלק מהמדעים מהר יותר מאחרים, בהתאם לזמינות נתונים, אותות הערכה, וכמה ידע הוא סמוי או מגודר מוסדית. עד כמה שיפוע זה אינו אחיד, ומה משתמע מהרכב המשתנה של התקדמות מדעית לגבי אילו בעיות אנושיות נפתרות ראשונות?
  • הגבול המשונן: יכולות המודלים חזקות יותר בתחומים מסוימים מאשר באחרים. תחומים בעלי השפעות חיצוניות חיוביות גדולות – כמו גילוי תרופות ומדע חומרים – מקבלים פחות השקעה מכפי שערכם מצדיק. השווקים מנווטים את כיוון שיפור המודלים לפי תשואה פרטית, אך האם אנו יכולים לשפר את ביצועי המודלים כדי לטפל בהשפעות חיצוניות חברתיות?