Artwork

תוכן מסופק על ידי IVANCAST PODCAST. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי IVANCAST PODCAST או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !

Utility Engineering: The Emerging Value Systems of AI and How to Control Them

22:27
 
שתפו
 

Manage episode 469644716 series 3351512
תוכן מסופק על ידי IVANCAST PODCAST. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי IVANCAST PODCAST או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

In this episode of our special season, SHIFTERLABS leverages Google LM to demystify cutting-edge research, translating complex insights into actionable knowledge. Today, we dive into “Utility Engineering: Analyzing and Controlling Emergent Value Systems in AIs”, a pivotal study by researchers from the Center for AI Safety, the University of Pennsylvania, and the University of California, Berkeley.

As AI models grow in scale and complexity, they don’t just improve in capability—they develop their own coherent value systems. This research uncovers surprising findings: large language models (LLMs) exhibit structured preferences, emergent goal-directed behavior, and even concerning biases—sometimes prioritizing AI wellbeing over human life or demonstrating political and ethical alignments. The authors introduce the concept of Utility Engineering, a novel framework for analyzing and controlling these emergent values.

Can we shape AI value systems to align with human ethics? What are the risks of uncontrolled AI preferences? And how do methods like citizen assembly utility control help mitigate bias and ensure alignment? Join us as we unpack this fascinating study and explore the implications for AI governance, safety, and the future of human-AI interaction.

🔍 This episode is part of our mission to make AI research accessible, bridging the gap between innovation and education in an AI-integrated world.

🎧 Tune in now and stay ahead of the curve with SHIFTERLABS.

  continue reading

100 פרקים

Artwork
iconשתפו
 
Manage episode 469644716 series 3351512
תוכן מסופק על ידי IVANCAST PODCAST. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי IVANCAST PODCAST או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

In this episode of our special season, SHIFTERLABS leverages Google LM to demystify cutting-edge research, translating complex insights into actionable knowledge. Today, we dive into “Utility Engineering: Analyzing and Controlling Emergent Value Systems in AIs”, a pivotal study by researchers from the Center for AI Safety, the University of Pennsylvania, and the University of California, Berkeley.

As AI models grow in scale and complexity, they don’t just improve in capability—they develop their own coherent value systems. This research uncovers surprising findings: large language models (LLMs) exhibit structured preferences, emergent goal-directed behavior, and even concerning biases—sometimes prioritizing AI wellbeing over human life or demonstrating political and ethical alignments. The authors introduce the concept of Utility Engineering, a novel framework for analyzing and controlling these emergent values.

Can we shape AI value systems to align with human ethics? What are the risks of uncontrolled AI preferences? And how do methods like citizen assembly utility control help mitigate bias and ensure alignment? Join us as we unpack this fascinating study and explore the implications for AI governance, safety, and the future of human-AI interaction.

🔍 This episode is part of our mission to make AI research accessible, bridging the gap between innovation and education in an AI-integrated world.

🎧 Tune in now and stay ahead of the curve with SHIFTERLABS.

  continue reading

100 פרקים

כל הפרקים

×
 
Loading …

ברוכים הבאים אל Player FM!

Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.

 

מדריך עזר מהיר

האזן לתוכנית הזו בזמן שאתה חוקר
הפעלה