Artwork

תוכן מסופק על ידי Debbie Reynolds. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Debbie Reynolds או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !

The Data Diva E261 - Jesse Kirkpatrick and Debbie Reynolds

45:58
 
שתפו
 

Manage episode 517658884 series 2897113
תוכן מסופק על ידי Debbie Reynolds. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Debbie Reynolds או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

Send us a text

In Episode 261 of The Data Diva Talks Privacy Podcast, Debbie Reynolds, The Data Diva, talks with Jesse Kirkpatrick, Co Director at the Mason Autonomy and Robotics Center at George Mason University, about the rapidly expanding adoption of generative artificial intelligence and the significant risks that accompany this high velocity of change. They examine the widespread excitement around AI and why its usefulness is intertwined with sensitive data that may be collected without boundaries or transparency, leaving the public in the dark. The discussion digs into why people cannot easily understand how their data is being used, whether informed consent is truly possible, and what happens when powerful systems learn from information that individuals never intended to share.

Debbie and Jesse also evaluate how governments, major technology companies, and commercial applications rely on massive data acquisition to fuel model performance, raising questions about privacy protection, public safety, and whether surveillance harms can be reversed. They discuss the real dangers behind model hallucination, accuracy failures, security breaches, and malicious exploitation, especially when artificial intelligence is used for high stakes decisions without accountability.

Listeners will learn why Jesse believes responsible innovation must precede scaled deployment and how transparency, enforceable obligations, and redress mechanisms can help society avoid severe consequences as these systems evolve. This episode highlights the urgent need for clear guardrails while encouraging deeper public understanding of how generative AI reshapes social trust, personal rights, and the boundaries of data use.

Support the show

Become an insider, join Data Diva Confidential for data strategy and data privacy insights delivered to your inbox.


💡 Receive expert briefings, practical guidance, and exclusive resources designed for leaders shaping the future of data and AI.


👉 Join here:
http://bit.ly/3Jb8S5p

Debbie Reynolds Consulting, LLC

  continue reading

261 פרקים

Artwork
iconשתפו
 
Manage episode 517658884 series 2897113
תוכן מסופק על ידי Debbie Reynolds. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Debbie Reynolds או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

Send us a text

In Episode 261 of The Data Diva Talks Privacy Podcast, Debbie Reynolds, The Data Diva, talks with Jesse Kirkpatrick, Co Director at the Mason Autonomy and Robotics Center at George Mason University, about the rapidly expanding adoption of generative artificial intelligence and the significant risks that accompany this high velocity of change. They examine the widespread excitement around AI and why its usefulness is intertwined with sensitive data that may be collected without boundaries or transparency, leaving the public in the dark. The discussion digs into why people cannot easily understand how their data is being used, whether informed consent is truly possible, and what happens when powerful systems learn from information that individuals never intended to share.

Debbie and Jesse also evaluate how governments, major technology companies, and commercial applications rely on massive data acquisition to fuel model performance, raising questions about privacy protection, public safety, and whether surveillance harms can be reversed. They discuss the real dangers behind model hallucination, accuracy failures, security breaches, and malicious exploitation, especially when artificial intelligence is used for high stakes decisions without accountability.

Listeners will learn why Jesse believes responsible innovation must precede scaled deployment and how transparency, enforceable obligations, and redress mechanisms can help society avoid severe consequences as these systems evolve. This episode highlights the urgent need for clear guardrails while encouraging deeper public understanding of how generative AI reshapes social trust, personal rights, and the boundaries of data use.

Support the show

Become an insider, join Data Diva Confidential for data strategy and data privacy insights delivered to your inbox.


💡 Receive expert briefings, practical guidance, and exclusive resources designed for leaders shaping the future of data and AI.


👉 Join here:
http://bit.ly/3Jb8S5p

Debbie Reynolds Consulting, LLC

  continue reading

261 פרקים

Все серии

×
 
Loading …

ברוכים הבאים אל Player FM!

Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.

 

מדריך עזר מהיר

האזן לתוכנית הזו בזמן שאתה חוקר
הפעלה