Artwork

תוכן מסופק על ידי David Such. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי David Such או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !

LLMs - Fancy Autocorrect or can they actually Reason?

14:58
 
שתפו
 

Manage episode 469876863 series 3620285
תוכן מסופק על ידי David Such. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי David Such או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

Send us a text

In this episode, we discuss the limitations of Large Language Models (LLMs) in areas like deductive reasoning, analogy-making, and ethical judgment. While today’s AI models excel at recognizing statistical patterns in vast datasets, they lack genuine understanding or an internal model of the world. Researchers are tackling these challenges through innovations such as causal AI, inference-time computing, and neuro-symbolic approaches, all aimed at enabling AI to move beyond mere pattern recognition towards true reasoning.

We explore how these emerging technologies, including causal inference, inference-time computing, and neuro-symbolic integration, are pushing AI closer to human-like, “System 2” reasoning. Will these advancements finally bridge the gap between AI imitation and genuine reasoning? Tune in as we dive into the future of artificial intelligence and explore what it will take for machines to truly think.

If you are interested in learning more then please subscribe to the podcast or head over to https://medium.com/@reefwing, where there is lots more content on AI, IoT, robotics, drones, and development. To support us in bringing you this material, you can buy me a coffee or just provide feedback. We love feedback!

  continue reading

26 פרקים

Artwork
iconשתפו
 
Manage episode 469876863 series 3620285
תוכן מסופק על ידי David Such. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי David Such או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

Send us a text

In this episode, we discuss the limitations of Large Language Models (LLMs) in areas like deductive reasoning, analogy-making, and ethical judgment. While today’s AI models excel at recognizing statistical patterns in vast datasets, they lack genuine understanding or an internal model of the world. Researchers are tackling these challenges through innovations such as causal AI, inference-time computing, and neuro-symbolic approaches, all aimed at enabling AI to move beyond mere pattern recognition towards true reasoning.

We explore how these emerging technologies, including causal inference, inference-time computing, and neuro-symbolic integration, are pushing AI closer to human-like, “System 2” reasoning. Will these advancements finally bridge the gap between AI imitation and genuine reasoning? Tune in as we dive into the future of artificial intelligence and explore what it will take for machines to truly think.

If you are interested in learning more then please subscribe to the podcast or head over to https://medium.com/@reefwing, where there is lots more content on AI, IoT, robotics, drones, and development. To support us in bringing you this material, you can buy me a coffee or just provide feedback. We love feedback!

  continue reading

26 פרקים

כל הפרקים

×
 
Loading …

ברוכים הבאים אל Player FM!

Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.

 

מדריך עזר מהיר

האזן לתוכנית הזו בזמן שאתה חוקר
הפעלה