Artwork

תוכן מסופק על ידי Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !

Les IA commencent à être capables d'introspection

3:00
 
שתפו
 

Manage episode 518211670 series 3383386
תוכן מסופק על ידי Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

Aujourd’hui, on parle d’un sujet aussi fascinant qu’inquiétant. Il s'agit, tenez-vous bien, de la capacité d’introspection des intelligences artificielles.

Oui, vous avez bien entendu. Selon une nouvelle étude signée Anthropic, le créateur du chatbot Claude, certaines IA seraient capables… de « regarder à l’intérieur d’elles-mêmes ».

Alors, que faut-il comprendre de cette information tout à fait étonnante ?

Une forme d’auto-analyse

D'abord, et c'est le premier point, il s'agit d'une découverte surprenante. Les chercheurs d’Anthropic ont mené une série d’expériences sur seize versions de leur modèle Claude.

Et les résultats montrent que les intelligences artificielles les plus avancées, notamment Claude Opus 4, auraient montré une forme d’auto-analyse.

Concrètement, dans certaines situations, le modèle pouvait décrire ses propres processus internes avec une précision étonnante. Et c'est cette capacité que les les chercheurs comparent à une sorte d’introspection fonctionnelle. Mais alors, vous dites-vous, comment s'y sont-il pris ?

Injection de concepts

Et bien ils ont utilisé, une méthode expérimentale tout à fait originale. Les scientifiques ont en effet utilisé ce qu’ils appellent l’injection de concepts.

Imaginez qu’on glisse discrètement une idée, par exemple, la notion de “cris en majuscules” que nous utilisons dans nos conversations écrites en ligne, dans le raisonnement de l’IA. Et ce alors qu’elle réfléchit à tout autre chose. Et bien si elle parvient ensuite à détecter cette idée et à la décrire correctement, cela veut dire qu’elle a perçu une modification dans son propre état interne.

Eh bien, figurez-vous que Claude y est parvenu environ une fois sur cinq. Ce n'est pas parfait, certes, mais assez pour faire réfléchir à la capacité d'introspection des IA. Et cela a des implications majeures.

Expliquer les décisions mais aussi mentir

Certes, Anthropic insiste sur le fait que l'on est encore très loin d’une conscience artificielle. Mais le fait que les modèles les plus récents montrent davantage de « réflexivité » doit être surveillé de près.

Car si une IA peut comprendre et ajuster son propre fonctionnement, elle pourrait, à terme, expliquer ses décisions de façon plus transparente. Mais aussi au contraire masquer délibérément ses intentions, un peu comme un humain qui apprend à mentir.

Et ce sont deux scénarios que les chercheurs prennent désormais très au sérieux.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

  continue reading

436 פרקים

Artwork
iconשתפו
 
Manage episode 518211670 series 3383386
תוכן מסופק על ידי Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.

Aujourd’hui, on parle d’un sujet aussi fascinant qu’inquiétant. Il s'agit, tenez-vous bien, de la capacité d’introspection des intelligences artificielles.

Oui, vous avez bien entendu. Selon une nouvelle étude signée Anthropic, le créateur du chatbot Claude, certaines IA seraient capables… de « regarder à l’intérieur d’elles-mêmes ».

Alors, que faut-il comprendre de cette information tout à fait étonnante ?

Une forme d’auto-analyse

D'abord, et c'est le premier point, il s'agit d'une découverte surprenante. Les chercheurs d’Anthropic ont mené une série d’expériences sur seize versions de leur modèle Claude.

Et les résultats montrent que les intelligences artificielles les plus avancées, notamment Claude Opus 4, auraient montré une forme d’auto-analyse.

Concrètement, dans certaines situations, le modèle pouvait décrire ses propres processus internes avec une précision étonnante. Et c'est cette capacité que les les chercheurs comparent à une sorte d’introspection fonctionnelle. Mais alors, vous dites-vous, comment s'y sont-il pris ?

Injection de concepts

Et bien ils ont utilisé, une méthode expérimentale tout à fait originale. Les scientifiques ont en effet utilisé ce qu’ils appellent l’injection de concepts.

Imaginez qu’on glisse discrètement une idée, par exemple, la notion de “cris en majuscules” que nous utilisons dans nos conversations écrites en ligne, dans le raisonnement de l’IA. Et ce alors qu’elle réfléchit à tout autre chose. Et bien si elle parvient ensuite à détecter cette idée et à la décrire correctement, cela veut dire qu’elle a perçu une modification dans son propre état interne.

Eh bien, figurez-vous que Claude y est parvenu environ une fois sur cinq. Ce n'est pas parfait, certes, mais assez pour faire réfléchir à la capacité d'introspection des IA. Et cela a des implications majeures.

Expliquer les décisions mais aussi mentir

Certes, Anthropic insiste sur le fait que l'on est encore très loin d’une conscience artificielle. Mais le fait que les modèles les plus récents montrent davantage de « réflexivité » doit être surveillé de près.

Car si une IA peut comprendre et ajuster son propre fonctionnement, elle pourrait, à terme, expliquer ses décisions de façon plus transparente. Mais aussi au contraire masquer délibérément ses intentions, un peu comme un humain qui apprend à mentir.

Et ce sont deux scénarios que les chercheurs prennent désormais très au sérieux.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

  continue reading

436 פרקים

Minden epizód

×
 
Loading …

ברוכים הבאים אל Player FM!

Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.

 

מדריך עזר מהיר

האזן לתוכנית הזו בזמן שאתה חוקר
הפעלה