Artwork

תוכן מסופק על ידי Nicola Kelly and ARTICLE 19. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Nicola Kelly and ARTICLE 19 או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !

AI's English language problem

35:01
 
שתפו
 

Manage episode 371926485 series 3494322
תוכן מסופק על ידי Nicola Kelly and ARTICLE 19. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Nicola Kelly and ARTICLE 19 או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

In this week's episode, we look at the language biases inherent in AI technologies with guests Aliya Bhatia and Gabriel Nicholas from the Center for Democracy and Technology.

Chris, Aliya and Gabriel discuss how large language models work, the underrepresentation of non English-language nations in training data and the effects of an AI trained largely in English. They look at how this might affect communities in India and dialects such as Catalan, where translations are viewed through an anglo-centric lens and the mistakes that commonly get made. And they explore how companies might redress the balance, to ensure a diversity and quality of data which cover different cultural contexts.

Follow the show and don’t miss an episode, published fortnightly on Mondays.

Hosted by tech reporter Chris Stokel-Walker
Produced by Christopher Hooton and Nicola Kelly.

Find out more about ARTICLE 19's work and follow us on:
Twitter: https://twitter.com/article19org
Facebook: https://www.facebook.com/ARTICLE19org
LinkedIn: https://www.linkedin.com/company/article19/

  continue reading

13 פרקים

Artwork
iconשתפו
 
Manage episode 371926485 series 3494322
תוכן מסופק על ידי Nicola Kelly and ARTICLE 19. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Nicola Kelly and ARTICLE 19 או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

In this week's episode, we look at the language biases inherent in AI technologies with guests Aliya Bhatia and Gabriel Nicholas from the Center for Democracy and Technology.

Chris, Aliya and Gabriel discuss how large language models work, the underrepresentation of non English-language nations in training data and the effects of an AI trained largely in English. They look at how this might affect communities in India and dialects such as Catalan, where translations are viewed through an anglo-centric lens and the mistakes that commonly get made. And they explore how companies might redress the balance, to ensure a diversity and quality of data which cover different cultural contexts.

Follow the show and don’t miss an episode, published fortnightly on Mondays.

Hosted by tech reporter Chris Stokel-Walker
Produced by Christopher Hooton and Nicola Kelly.

Find out more about ARTICLE 19's work and follow us on:
Twitter: https://twitter.com/article19org
Facebook: https://www.facebook.com/ARTICLE19org
LinkedIn: https://www.linkedin.com/company/article19/

  continue reading

13 פרקים

Tüm bölümler

×
 
Loading …

ברוכים הבאים אל Player FM!

Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.

 

מדריך עזר מהיר