Artwork

תוכן מסופק על ידי Philosophy Talk Starters. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Philosophy Talk Starters או שותף פלטפורמת הפודקאסט שלו. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !

463: The Ethics of Algorithms

11:15
 
שתפו
 

Manage episode 214858210 series 1555508
תוכן מסופק על ידי Philosophy Talk Starters. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Philosophy Talk Starters או שותף פלטפורמת הפודקאסט שלו. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
More at https://www.philosophytalk.org/shows/morality-algorithms. Recent years have seen the rise of machine learning algorithms surrounding us in our homes and back pockets. They're increasingly used in everything from recommending movies to guiding sentencing in criminal courts, thanks to their being perceived as unbiased and fair. But can algorithms really be objective when they are created by biased human programmers? Are such biased algorithms inherently immoral? And is there a way to resist immoral algorithms? Josh and Ken run code with Angèle Christin from Stanford University, author of "Algorithms in Practice: Comparing Web Journalism and Criminal Justice."
  continue reading

590 פרקים

Artwork

463: The Ethics of Algorithms

Philosophy Talk Starters

373 subscribers

published

iconשתפו
 
Manage episode 214858210 series 1555508
תוכן מסופק על ידי Philosophy Talk Starters. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Philosophy Talk Starters או שותף פלטפורמת הפודקאסט שלו. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
More at https://www.philosophytalk.org/shows/morality-algorithms. Recent years have seen the rise of machine learning algorithms surrounding us in our homes and back pockets. They're increasingly used in everything from recommending movies to guiding sentencing in criminal courts, thanks to their being perceived as unbiased and fair. But can algorithms really be objective when they are created by biased human programmers? Are such biased algorithms inherently immoral? And is there a way to resist immoral algorithms? Josh and Ken run code with Angèle Christin from Stanford University, author of "Algorithms in Practice: Comparing Web Journalism and Criminal Justice."
  continue reading

590 פרקים

כל הפרקים

×
 
Loading …

ברוכים הבאים אל Player FM!

Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.

 

מדריך עזר מהיר