Artwork

תוכן מסופק על ידי NORDE. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי NORDE או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !

Det sosiale dilemmaet for utviklere av kunstig intelligens

22:45
 
שתפו
 

Manage episode 331086317 series 2739429
תוכן מסופק על ידי NORDE. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי NORDE או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

Hvis en utvikler får beskjed av sjefen om å overse problematiske sider ved kunstig intelligens, setter det utvikleren i et såkalt sosialt dilemma. En lege kan trygt nekte å utføre uetiske operasjoner med helsepersonelloven i hånd. En utvikler av kunstig intelligens løper derimot en større karrieremessig risiko ved å protestere mot uetisk teknologi. Velger man da å gjøre det rette, selv om man vet at det kan føre til personlige, negative konsekvenser? Leonora Bergsjø fra Høgskolen i Østfold og Universitetet i Agder, og Inga Strümke fra NTNU og SimulaMet, diskuterer hva vi kan gjøre med slike sosiale dilemmaer for utviklere av kunstig intelligens, og hvordan etiske retningslinjer fungerer. Samtalen ledes av Inge Harkestad fra Høyskolen Kristiania, og podkasten støttes av den Norske Dataforeningen.

  continue reading

32 פרקים

Artwork
iconשתפו
 
Manage episode 331086317 series 2739429
תוכן מסופק על ידי NORDE. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי NORDE או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

Hvis en utvikler får beskjed av sjefen om å overse problematiske sider ved kunstig intelligens, setter det utvikleren i et såkalt sosialt dilemma. En lege kan trygt nekte å utføre uetiske operasjoner med helsepersonelloven i hånd. En utvikler av kunstig intelligens løper derimot en større karrieremessig risiko ved å protestere mot uetisk teknologi. Velger man da å gjøre det rette, selv om man vet at det kan føre til personlige, negative konsekvenser? Leonora Bergsjø fra Høgskolen i Østfold og Universitetet i Agder, og Inga Strümke fra NTNU og SimulaMet, diskuterer hva vi kan gjøre med slike sosiale dilemmaer for utviklere av kunstig intelligens, og hvordan etiske retningslinjer fungerer. Samtalen ledes av Inge Harkestad fra Høyskolen Kristiania, og podkasten støttes av den Norske Dataforeningen.

  continue reading

32 פרקים

כל הפרקים

×
 
Loading …

ברוכים הבאים אל Player FM!

Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.

 

מדריך עזר מהיר