Player FM - Internet Radio Done Right
286 subscribers
Checked 8M ago
הוסף לפני eight שנים
תוכן מסופק על ידי NLP Highlights and Allen Institute for Artificial Intelligence. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי NLP Highlights and Allen Institute for Artificial Intelligence או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !
התחל במצב לא מקוון עם האפליקציה Player FM !
פודקאסטים ששווה להאזין
בחסות
B
Biscuits & Jam


1 Shuai Wang’s Journey from China to Charleston 38:30
38:30
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי38:30
Chef Shuai Wang was the runner-up on the 22nd season of Bravo’s Top Chef and is the force behind two standout restaurants in Charleston, South Carolina—Jackrabbit Filly and King BBQ—where he brings together the flavors of his childhood in Beijing and the spirit of the South in some pretty unforgettable ways. He grew up just a short walk from Tiananmen Square, in a tiny home with no electricity or running water, where his grandmother often cooked over charcoal. Later, in Queens, New York, his mom taught herself to cook—her first dishes were a little salty, but they were always made with love. And somewhere along the way, Shuai learned that cooking wasn’t just about food—it was about taking care of people. After years working in New York kitchens, he made his way to Charleston and started building something that feels entirely his own. Today, we’re talking about how all those experiences come together on the plate, the family stories behind his cooking, and what it’s been like to share that journey on national TV. For more info visit: southernliving.com/biscuitsandjam Learn more about your ad choices. Visit podcastchoices.com/adchoices…
138 - Compositional Generalization in Neural Networks, with Najoung Kim
Manage episode 353046391 series 1452120
תוכן מסופק על ידי NLP Highlights and Allen Institute for Artificial Intelligence. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי NLP Highlights and Allen Institute for Artificial Intelligence או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Compositional generalization refers to the capability of models to generalize to out-of-distribution instances by composing information obtained from the training data. In this episode we chatted with Najoung Kim, on how to explicitly evaluate specific kinds of compositional generalization in neural network models of language. Najoung described COGS, a dataset she built for this, some recent results in the space, and why we should be careful about interpreting the results given the current practice of pretraining models of lots of unlabeled text. Najoung's webpage: https://najoungkim.github.io/ Papers we discussed: 1. COGS: A Compositional Generalization Challenge Based on Semantic Interpretation (Kim et al., 2020): https://www.semanticscholar.org/paper/b20ddcbd239f3fa9acc603736ac2e4416302d074 2. Compositional Generalization Requires Compositional Parsers (Weissenhorn et al., 2022): https://www.semanticscholar.org/paper/557ebd17b7c7ac4e09bd167d7b8909b8d74d1153 3. Uncontrolled Lexical Exposure Leads to Overestimation of Compositional Generalization in Pretrained Models (Kim et al., 2022): https://www.semanticscholar.org/paper/8969ea3d254e149aebcfd1ffc8f46910d7cb160e Note that we referred to the final paper by an earlier name in the discussion.
…
continue reading
145 פרקים
Manage episode 353046391 series 1452120
תוכן מסופק על ידי NLP Highlights and Allen Institute for Artificial Intelligence. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי NLP Highlights and Allen Institute for Artificial Intelligence או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Compositional generalization refers to the capability of models to generalize to out-of-distribution instances by composing information obtained from the training data. In this episode we chatted with Najoung Kim, on how to explicitly evaluate specific kinds of compositional generalization in neural network models of language. Najoung described COGS, a dataset she built for this, some recent results in the space, and why we should be careful about interpreting the results given the current practice of pretraining models of lots of unlabeled text. Najoung's webpage: https://najoungkim.github.io/ Papers we discussed: 1. COGS: A Compositional Generalization Challenge Based on Semantic Interpretation (Kim et al., 2020): https://www.semanticscholar.org/paper/b20ddcbd239f3fa9acc603736ac2e4416302d074 2. Compositional Generalization Requires Compositional Parsers (Weissenhorn et al., 2022): https://www.semanticscholar.org/paper/557ebd17b7c7ac4e09bd167d7b8909b8d74d1153 3. Uncontrolled Lexical Exposure Leads to Overestimation of Compositional Generalization in Pretrained Models (Kim et al., 2022): https://www.semanticscholar.org/paper/8969ea3d254e149aebcfd1ffc8f46910d7cb160e Note that we referred to the final paper by an earlier name in the discussion.
…
continue reading
145 פרקים
כל הפרקים
×ברוכים הבאים אל Player FM!
Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.