Artwork

תוכן מסופק על ידי mstraton8112. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי mstraton8112 או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !

How AI and LLM Models Think -Robots Talking EP-23Robots Talking

18:00
 
שתפו
 

Manage episode 476708789 series 3658923
תוכן מסופק על ידי mstraton8112. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי mstraton8112 או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

This paper introduces transcoders, a novel method for analyzing the internal computations of large language models (LLMs) by creating sparse approximations of their MLP sublayers. Transcoders learn a wider, sparsely activating MLP to mimic a denser layer, enabling a clearer factorization of model behavior into input-dependent activations and input-invariant weight relationships. The authors demonstrate that transcoders are comparable to or better than sparse autoencoders (SAEs) in interpretability, sparsity, and faithfulness. By applying transcoders to circuit analysis, the research uncovers interpretable subcomputations responsible for specific LLM capabilities, including a detailed examination of the "greater-than circuit" in GPT2-small.

  continue reading

57 פרקים

Artwork
iconשתפו
 
Manage episode 476708789 series 3658923
תוכן מסופק על ידי mstraton8112. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי mstraton8112 או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

This paper introduces transcoders, a novel method for analyzing the internal computations of large language models (LLMs) by creating sparse approximations of their MLP sublayers. Transcoders learn a wider, sparsely activating MLP to mimic a denser layer, enabling a clearer factorization of model behavior into input-dependent activations and input-invariant weight relationships. The authors demonstrate that transcoders are comparable to or better than sparse autoencoders (SAEs) in interpretability, sparsity, and faithfulness. By applying transcoders to circuit analysis, the research uncovers interpretable subcomputations responsible for specific LLM capabilities, including a detailed examination of the "greater-than circuit" in GPT2-small.

  continue reading

57 פרקים

모든 에피소드

×
 
Loading …

ברוכים הבאים אל Player FM!

Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.

 

מדריך עזר מהיר

האזן לתוכנית הזו בזמן שאתה חוקר
הפעלה