Player FM - Internet Radio Done Right
Checked 11d ago
הוסף לפני three שנים
תוכן מסופק על ידי Shaïman Thürler and Le Futurologue. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Shaïman Thürler and Le Futurologue או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Player FM - אפליקציית פודקאסט
התחל במצב לא מקוון עם האפליקציה Player FM !
התחל במצב לא מקוון עם האפליקציה Player FM !
Le Futurologue Podcast
סמן הכל כלא נצפה...
Manage series 3283516
תוכן מסופק על ידי Shaïman Thürler and Le Futurologue. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Shaïman Thürler and Le Futurologue או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Des interviews pour comprendre comment l’IA bouleverse le monde. Nouvel épisode toutes les deux semaines.
…
continue reading
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
78 פרקים
סמן הכל כלא נצפה...
Manage series 3283516
תוכן מסופק על ידי Shaïman Thürler and Le Futurologue. כל תוכן הפודקאסטים כולל פרקים, גרפיקה ותיאורי פודקאסטים מועלים ומסופקים ישירות על ידי Shaïman Thürler and Le Futurologue או שותף פלטפורמת הפודקאסט שלהם. אם אתה מאמין שמישהו משתמש ביצירה שלך המוגנת בזכויות יוצרים ללא רשותך, אתה יכול לעקוב אחר התהליך המתואר כאן https://he.player.fm/legal.
Des interviews pour comprendre comment l’IA bouleverse le monde. Nouvel épisode toutes les deux semaines.
…
continue reading
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
78 פרקים
ทุกตอน
×L
Le Futurologue Podcast

1 "L’IA est déjà hors de contrôle." - Raja Chatila 1:15:58
1:15:58
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:15:58
💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 🌐 Rejoignez-moi sur YouTube , Discord , TikTok , Instagram , Facebook , X , Threads , LinkedIn , Bluesky ——— 👉 Laissez-moi un feedback anonyme ——— MES RECOMMANDATIONS Mes livres préférés sur l’IA Tous les livres que j’ai lus Mon matériel high-tech CyberGhost VPN Riverside (Enregistrement de podcast) Audible (Livres audio) Kindle (eBooks) Notion (Productivité) ——— TIME CODE 0:00 Introduction 0:10 Pourquoi avoir signé la lettre ouverte du FLI ? 6:05 Le risque de perte de contrôle 17:35 Les problèmes actuels de l’IA 22:00 La neutralité de l’IA 30:28 S’inspirer de la sécurité d’autres domaines 37:38 Le risque d’extinction de l’humanité 48:15 Sommes-nous proches de l’IA générale ? 52:55 La régulation européenne sur l’IA 1:04:02 La surrégulation et la course à l’IA 1:11:40 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Pandémie artificielle : Le grand danger - Diane Letourneur 1:18:14
1:18:14
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:18:14
💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 🌐 Rejoignez-moi sur YouTube , Discord , TikTok , Instagram , Facebook , X , Threads , LinkedIn , Bluesky ——— 👉 Laissez-moi un feedback anonyme ——— MES RECOMMANDATIONS Mes livres préférés sur l’IA Tous les livres que j’ai lus Mon matériel high-tech CyberGhost VPN Audible (Livres audio) ——— TIME CODE 0:00 Introduction 0:58 Définition des pandémies artificielles 1:48 Comment des bioterroristes pourraient-ils utiliser l’IA ? 3:38 De quelles IA parle-t-on ? 4:31 Comment un LLM pourrait-il contribuer à une pandémie artificielle ? 9:37 La simplicité de contourner les barrières de sécurité des LLM 11:26 Comment une IA spécialisée pourrait-elle contribuer à une pandémie artificielle ? 14:49 Définition de la recherche gain de fonction 18:18 Dangerosité de la recherche gain de fonction 23:34 Comment fabriquer un virus dangereux ? 28:45 Que faut-il pour fabriquer un virus dangereux ? 32:41 Que faut-il faire pour obtenir un pathogène dangereux ? 33:48 Possibilité de faire un stage en biologie ou d’avoir accès à un laboratoire 34:52 Comment utiliser l’IA pour organiser une attaque bioterroriste ? 36:54 Doit-on craindre l’usage militaire des pathogènes ? 38:57 L’utilisation de pathogènes pour tuer indirectement 39:34 Le risque de fuite de laboratoire 44:39 La Covid-19 est-elle une fuite de laboratoire ? 45:56 Les risques de la science ouverte 47:30 La confidentialité permise par les LLM 48:30 Est-ce que les pandémies sont un risque existentiel ? 51:00 Les risques des algorithmes de recommandation en temps de pandémie 58:24 Utiliser l’IA pour accélérer le développement des vaccins 1:03:38 Utiliser l’IA pour accélérer la détection des épidémies 1:07:13 Utiliser l’IA pour modéliser l’évolution des épidémies 1:08:48 L’IA qui invente des molécules chimiques dangereuses 1:10:15 Que faire face aux pandémies artificielles du futur ? 1:15:00 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Questionnement Philosophique - Monsieur Phi 1:02:26
1:02:26
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:02:26
📖 Achetez le livre de Monsieur Phi ——— 💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 🌐 Rejoignez-moi sur YouTube , Discord , TikTok , Instagram , Facebook , X , Threads , LinkedIn , Bluesky ——— 👉 Laissez-moi un feedback anonyme ——— MES RECOMMANDATIONS Mes livres préférés sur l’IA Tous les livres que j’ai lus Mon matériel high-tech CyberGhost VPN Riverside (Enregistrement de podcast) Audible (Livres audio) Kindle (eBooks) Notion (Productivité) ——— TIME CODE 0:00 Introduction 0:25 Qu’est-ce que la philosophie ? 3:18 La philosophie, c’était mieux avant ? 6:11 Est-ce que toutes les philosophies sont vouées à devenir une science ? 7:59 Que penser du critère de réfutabilité ? 10:26 Que penser de l’utilitarisme ? 13:09 Le danger d’une super IA utilitariste 16:41 Que penser de l’altruisme efficace ? 25:15 Que penser du longtermisme ? 33:21 Sur quoi est-ce que nos descendants nous trouveront immoraux ? 37:44 Que penser du transhumanisme ? 41:00 A-t-on des raisons d’être physicaliste ? 46:10 Que penser du monisme de l’esprit ? 51:13 Est-on dans une simulation ? 57:38 Que penser du stoïcisme ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 L’IA Détruit Notre Cerveau ? - Albert Moukheiber 1:26:06
1:26:06
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:26:06
📖 Achetez le dernier livre d’Albert Moukheiber ——— 💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 🌐 Rejoignez-moi sur YouTube , Discord , TikTok , Instagram , Facebook , X , Threads , LinkedIn , Bluesky ——— 👉 Laissez-moi un feedback anonyme ——— MES RECOMMANDATIONS Mes livres préférés sur l’IA Tous les livres que j’ai lus Mon matériel high-tech CyberGhost VPN Riverside (Enregistrement de podcast) Audible (Livres audio) Kindle (eBooks) Notion (Productivité) ——— TIME CODE 0:00 Introduction 0:11 Présentation de l’invité 0:32 Est-ce que l’IA va nous rendre stupide ? 7:27 Est-ce que l’IA peut lire dans nos pensées ? 11:50 L’esprit critique face à l’intelligence artificielle 17:11 Les problèmes des IA de recommandation 20:48 Non, l’éducation ne résout pas tout. 25:20 La bonne volonté ne suffit pas. 27:39 Est-ce que l’IA fonctionne comme le cerveau ? 32:18 Les LLM sont prédictifs, comme le cerveau ? 34:22 Pourquoi le cerveau hallucine ? 38:24 Les IA ont-elles une conscience phénoménale ? 41:30 Que penser de la guerre des intelligences ? 49:27 Les biais des intelligences artificielles 53:03 Que sont les neurosciences computationnelles ? 53:52 De nouvelles molécules grâce à l’IA ? 55:33 Est-ce que les IA remplaceront les psychologues ? 1:01:38 Où en est la psychologie clinique ? 1:03:26 Les gens de la tech sont-ils autistes ? 1:06:29 L’importance d’avoir des systèmes robustes 1:13:09 Que penser des améliorations cognitives ? 1:19:56 Que penser de la cryonie ? 1:21:20 Est-on des cerveaux dans des cuves ? 1:24:55 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Il est l’heure de faire le bilan ! - Le Futurologue 1:03:07
1:03:07
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:03:07
💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 🌐 Rejoignez-moi sur YouTube , Discord , TikTok , Instagram , Facebook , X , Threads , LinkedIn , Bluesky ——— 👉 Laissez-moi un feedback anonyme ——— MES RECOMMANDATIONS Mes livres préférés sur l’IA Tous les livres que j’ai lus Mon matériel high-tech CyberGhost VPN Riverside (Enregistrement de podcast) Audible (Livres audio) Kindle (eBooks) Notion (Productivité) ——— TIME CODE 0:00 Introduction 0:46 Qu’est-ce qui te motive à te lever tous les matins pour travailler ? 3:30 Quel est ton pari bayésien sur l’arrivée de l’IA générale et sur les scénarios qui pourraient survenir ? 10:04 Quelles sont, d’après toi, les meilleures approches pour réduire les risques causés par les IA ? 16:27 Je trouve que ta chaîne est trop centrée sur les dangers de l’IA et pas sur son potentiel. 18:52 Comptes-tu donc continuer à réaliser des vidéos sur ta chaîne principale ? 20:03 N’es-tu pas atteint par le syndrome d’Antoine Daniel (le fait de vouloir proposer des vidéos de meilleure qualité à chaque fois, et par conséquent de te retrouver totalement inhibé par la complexité que représente la prochaine vidéo) ? 22:54 Comment t’organises-tu pour créer un podcast ? 24:44 Tes podcasts ont lieu maintenant en studio. Est-ce que ce n’est pas trop onéreux ? Est-ce que tu arrives à t’y retrouver financièrement ? 30:16 Changement d’opinion 1 : Les éthiques centrées sur la souffrance 33:12 Changement d’opinion 2 : La méditation 34:20 Changement d’opinion 3 : Le stoïcisme 36:46 Changement d’opinion 4 : La banalité du mal 37:59 Changement d’opinion 5 : L’ostéopathie 38:48 Changement d’opinion 6 : Le libre arbitre 40:00 Bilan et futur du projet « Le Futurologue » Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Bientôt Des IA Conscientes ? - Monsieur Phi 1:12:01
1:12:01
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:12:01
📖 Achetez le livre de Monsieur Phi ——— 💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 🌐 Rejoignez-moi sur YouTube , Discord , TikTok , Instagram , Facebook , X , Threads , LinkedIn , Bluesky ——— 👉 Laissez-moi un feedback anonyme ——— MES RECOMMANDATIONS Mes livres préférés sur l’IA Tous les livres que j’ai lus Mon matériel high-tech CyberGhost VPN Riverside (Enregistrement de podcast) Audible (Livres audio) Kindle (eBooks) Notion (Productivité) ——— TIME CODE 0:00 Introduction 1:48 Maintenant, les machines parlent. C’est fou ! 8:54 Est-ce que les LLM pensent ? 12:03 Est-ce que les LLM vont mener à l’IA générale ? 16:18 Est-ce que les IA comprennent ce qu’elles font ? 29:17 Est-ce que les IA ne font que simuler ? 33:53 Est-ce que les IA sont conscientes ? 53:46 Qu’est-ce que le fonctionnalisme ? 1:00:28 Que penser des risques existentiels de l’IA ? 1:08:03 Comment la conscience influence les risques ? 1:09:15 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Intelligence Artificielle : Le Grand Déni - Laurent Alexandre 1:16:22
1:16:22
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:16:22
📖 Achetez le dernier livre de Laurent Alexandre : « ChatGPT va nous rendre immortels » ——— 💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 🌐 Rejoignez-moi sur YouTube , Discord , TikTok , Instagram , Facebook , X , Threads , LinkedIn , Bluesky ——— 👉 Laissez-moi un feedback anonyme ——— MES RECOMMANDATIONS Mes livres préférés sur l’IA Tous les livres que j’ai lus Mon matériel high-tech CyberGhost VPN Audible (Livres audio) ——— TIME CODE 0:00 Introduction 0:32 Qu’est-ce que la guerre des intelligences ? 2:43 Pourquoi est-ce l’IA va augmenter les inégalités ? 4:16 L’IA ne va-t-elle pas automatiser les intellectuels en premier ? 7:23 Les intellectuels ne seront-ils pas les grands perdants de l’IA ? 9:24 L’IA va-t-elle automatiser tous les emplois ? 12:14 Le travail va-t-il bientôt disparaître ? 14:34 Quelle est la solution à la guerre des intelligences ? 18:54 En route vers l’augmentation cognitive ? 20:19 Allons-nous vers la fin de l’école ? 25:56 Faut-il mettre l’IA en pause ? 29:15 Que penser de l’IA Act et du rapport de la Commission de l’IA ? 32:36 L’Europe doit-elle se spécialiser dans l’IA sécurisée ? 34:19 Est-il possible de rattraper la Chine et les États-Unis ? 36:07 L’IA générale est-elle pour bientôt ? 40:37 L’augmentation cognitive face à l’IA ? 42:07 Faut-il avoir peur du transhumanisme ? 46:50 L’avis de Laurent Alexandre sur le RN 50:40 L’avis de Laurent Alexandre sur la carte des QI 51:26 Laurent Alexandre est-il transhumaniste ? 53:29 Que penser des risques existentiels de l’IA ? 57:33 La course à l’IA est-elle une course au suicide ? 58:38 Les jeunes ont-ils des raisons d’être heureux ? 1:03:58 Est-ce que 2050 sera mieux qu’aujourd’hui ? 1:05:39 Quelle est l’utopie de Laurent Alexandre ? 1:07:57 Le danger de la désinformation 1:10:39 Qu’est-ce que l’accélérationisme efficace ? 1:13:42 Les changements d’avis de Laurent Alexandre 1:15:43 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Comment Contrôler Une Super IA ? - Stuart Armstrong 55:34
55:34
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי55:34
📖 Achetez le livre de Stuart Armstrong sur l’IA ——— 💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 🌐 Rejoignez-moi sur YouTube , Discord , TikTok , Instagram , Facebook , X , Threads , LinkedIn , Bluesky ——— 👉 Laissez-moi un feedback anonyme ——— MES RECOMMANDATIONS Mes livres préférés sur l’IA Tous les livres que j’ai lus Mon matériel high-tech CyberGhost VPN Riverside (Enregistrement de podcast) Audible (Livres audio) Kindle (eBooks) Notion (Productivité) ——— TIME CODE 0:00 Introduction 0:25 Qu’est-ce que le problème de l’alignement ? 1:47 Pourquoi est-il si difficile à résoudre ? 7:01 Est-il possible de le résoudre ? 12:09 Les plans d’alignement des Big Tech 13:45 L’évolution du domaine de l’alignement 16:36 Le problème des humains malveillants 19:29 La super IA pourrait-elle s’auto-aligner ? 23:10 La super IA suivra-t-elle un objectif stupide ? 28:39 La super IA pourrait-elle changer de but ? 33:33 Faut-il vraiment aligner l’IA avec l’humain ? 38:28 Faut-il aligner les IA avec les animaux ? 42:27 Que penser du verrouillage des valeurs ? 46:00 Faut-il vraiment aligner les IA ? 49:31 Arrivera-t-on à aligner les IA à temps ? 51:48 Faut-il mettre l’IA en pause ? 53:01 Présentation d’Aligned AI 54:47 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Super IA et Risque Existentiel - Stuart Armstrong 1:11:43
1:11:43
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:11:43
📖 Achetez le livre de Stuart Armstrong sur l’IA ——— 💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 🌐 Rejoignez-moi sur YouTube , Discord , TikTok , Instagram , Facebook , X , Threads , LinkedIn , Bluesky ——— 👉 Laissez-moi un feedback anonyme ——— MES RECOMMANDATIONS Mes livres préférés sur l’IA Tous les livres que j’ai lus Mon matériel high-tech CyberGhost VPN Riverside (Enregistrement de podcast) Audible (Livres audio) Kindle (eBooks) Notion (Productivité) ——— TIME CODE 0:00 Introduction 0:33 Présentation de Stuart Armstrong 2:18 Définition de l’IA de niveau humain et de l’IA générale 7:22 Sommes-nous loin de l’IA générale ? 14:05 Arrivera-t-on à l’IA générale avec les méthodes actuelles ? 15:29 Pourquoi la super IA sera plus puissante qu’intelligente ? 20:38 Possibilité et conséquence de l’explosion d’intelligence 29:29 Quel processus mènera aux capacités de généralisation ? 33:13 La différence entre l’IA et les autres risques existentiels 38:24 À quoi ressemblerait le risque existentiel de l’IA ? 43:09 Est-ce vraiment possible d’éradiquer l’humanité ? 48:58 Scénario concert de risque existentiel dû à l’IA 54:40 Le risque existentiel de l’IA n’est-il que du marketing ? 56:13 Y aura-t-il plusieurs IA générales en même temps ? 1:00:33 Que penser de la singularité ? 1:03:57 En route vers un futur merveilleux ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Les Vrais Dangers De l’IA - Le Futurologue 12:56
12:56
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי12:56
💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 👉 Suivez-moi sur YouTube , TikTok , Instagram , Facebook , X , Threads , LinkedIn ——— TIME CODE 0:00 Introduction 0:15 Présentation 0:30 Propagation de la haine et de la virulence 1:17 Désinformation 2:37 Déclin démocratique 3:39 Pandémie artificielle 4:31 Cybercriminalité 6:49 Perte d’emploi 8:21 Risque existentiel Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 L’IA Va Tous Nous Mettre Au Chômage - Stéphane Mallard 1:23:16
1:23:16
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:23:16
📖 Achetez le dernier livre de Stéphane Mallard ——— 💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 🌐 Rejoignez-moi sur YouTube , Discord , TikTok , Instagram , Facebook , X , Threads , LinkedIn , Bluesky ——— 👉 Laissez-moi un feedback anonyme ——— MES RECOMMANDATIONS Mes livres préférés sur l’IA Tous les livres que j’ai lus Mon matériel high-tech CyberGhost VPN Riverside (Enregistrement de podcast) Audible (Livres audio) Kindle (eBooks) Notion (Productivité) ——— TIME CODE 0:00 Introduction 0:10 Présentation 1:05 Les discours sur l’IA en France 2:07 Les agents intelligents 5:26 L’empathie artificielle 7:31 Les chatbots sociaux 10:13 Le pouvoir de Big Tech 12:16 Le mirage du libre arbitre 13:35 Est-on des algorithmes ? 14:50 Intelligence humaine vs artificielle 16:08 l’IA ne fait que simuler ? 18:07 La conscience artificielle 20:14 Les risques existentiels de l’IA 22:49 Mettre l’IA en pause ? 25:15 Le revenu universel 27:32 L’IA centralise l’économie 29:07 Un revenu universel sans état ? 31:12 Les conséquences du libertarianisme 37:42 Vers la fin du salariat ? 45:55 La fin du salariat est-elle une bonne chose ? 49:18 Vers la fin du travail ? 55:57 Le prompt engineering 58:46 L’IA va automatiser les intellectuels 1:00:43 La disruption 1:03:41 Le réel 1:05:39 Nous sommes déjà dans le métavers 1:07:32 Le développement personnel 1:11:24 L’accélerationisme efficace 1:12:41 Accélerationisme et risques existentiels 1:13:41 À quoi ressemble ton utopie ? 1:14:45 Vivons-nous dans une simulation ? 1:18:28 La physique quantique 1:21:40 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Le Plus Grand Danger De l’IA - Science4All vs Jérémy Perret 54:51
54:51
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי54:51
💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 👉 Suivez-moi sur YouTube , TikTok , Instagram , Facebook , X , Threads , LinkedIn ——— TIME CODE 0:00 Introduction 0:21 Présentation des invités 1:23 Quel est le plus grand danger de l’IA ? 11:17 Quel risque de l’IA faut-il prioriser ? 28:33 La complaisance de l’altruisme efficace envers OpenAI 35:26 Quelles solutions face aux risques de l’IA ? Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Gouverner L’intelligence Artificielle - Henry Papadatos 1:02:19
1:02:19
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:02:19
💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 👉 Suivez-moi sur YouTube , TikTok , Instagram , Facebook , X , Threads , LinkedIn ——— TIME CODE 0:00 Introduction 0:19 Présentation d’Henry 1:39 Présentation de SaferAI 3:47 Qu’est-ce que la gouvernance de l’IA ? 5:20 Qu’est-ce que l’IA Act ? 10:13 Clarification sur l’IA générale 11:16 Faut-il réguler uniquement les usages ? 13:58 L’IA Act est-elle assez stricte ? 16:35 Compétitivité vs éthique 18:50 La régulation de l’IA en Chine et aux États-Unis 19:55 Les processus pour aboutir à l’IA Act 22:23 Est-ce que les politiciens comprennent l’IA ? 24:42 Quels sont les risques de l’IA ? 30:44 Dans combien de temps arrivera l’IA générale ? 32:56 En quoi est-ce un défi de réguler l’IA ? 34:14 Faut-il prévoir les prochaines capacités des IA ? 36:01 L’importance du quantitatif dans la gestion des risques de l’IA 39:57 Pourquoi la gestion des risques de l’IA n’est pas déjà quantitative ? 41:07 À quoi ressemblerait une gestion quantitative des risques de l’IA ? 43:07 État des lieux de la gestion des risques de l’IA actuelle 46:06 Quelles bonnes pratiques peut-on importer des autres industries ? 48:53 L’importance de l’évaluation de l’IA 52:47 Capacité à mentir et conscience de soi dans les IA 55:16 L’importance de la coopération internationale en IA 57:50 Comment faire respecter les lois en vigueur en IA ? 58:45 Les tendances en gouvernance de l’IA 59:50 Es-tu optimiste pour le futur de la gouvernance de l’IA ? 1:01:14 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Il Est Urgent De Mettre l’IA En Pause ! - Maxime Fournes 1:25:27
1:25:27
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:25:27
🌐 Jetez un œil au site web de Pause IA ——— 💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 👉 Suivez-moi sur YouTube , TikTok , Instagram , Facebook , X , Threads , LinkedIn ——— TIME CODE 0:00 Introduction 0:45 La langue de bois dans l’IA 3:36 Présentation de l’invité 10:26 Prise de conscience des risques de l’IA 17:42 Interprétabilité et alignement des IA 22:10 L’IA de niveau humain est pour bientôt. 25:19 L’histoire du lancement de Pause IA 30:04 Yann Le Cun est-il un imposteur ? 34:29 La commission de l’IA et son rapport 41:36 Les actions et revendications de Pause IA 1/2 42:21 L’IA n’est pas un outil. 46:09 Les actions et revendications de Pause IA 2/2 50:33 Une pause de l’IA est-elle vraiment faisable ? 54:12 Les IA sont plus persuasives que les humains 1:01:43 Les IA au service du cybercrime 1:03:35 Bientôt un point de non-retour ? 1:06:52 Les dangers du revenu de base universel 1:11:20 L’autocratie des Big Tech 1:15:04 Les stades du déni de l’IA 1:19:38 Comment garder espoir ? 1:23:18 Un message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
L
Le Futurologue Podcast

1 Les IA Envahissent Nos Vies - Laurence Devillers 1:11:50
1:11:50
הפעל מאוחר יותר
הפעל מאוחר יותר
רשימות
לייק
אהבתי1:11:50
💸 Soutenez-moi financièrement sur Tipeee , Patreon , PayPal ——— 👉 Suivez-moi sur YouTube , TikTok , Instagram , Facebook , X , Threads , LinkedIn ——— TIME CODE 0:00 Introduction 0:12 Présentation de l’invitée 3:07 La place des SHS dans l’IA 8:41 Compétitivité vs éthique 17:54 Les IA nous manipulent 23:51 Faut-il faire une pause de l’IA ? 33:11 L’affective computing 43:43 Le sexisme dans l’IA 46:53 Des machines émotionnelles ? 52:14 Faut-il protéger les robots ? 56:17 À quand la démocratisation des robots ? 1:01:44 Détecter le contenu généré par IA 1:09:08 Un message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.…
ברוכים הבאים אל Player FM!
Player FM סורק את האינטרנט עבור פודקאסטים באיכות גבוהה בשבילכם כדי שתהנו מהם כרגע. זה יישום הפודקאסט הטוב ביותר והוא עובד על אנדרואיד, iPhone ואינטרנט. הירשמו לסנכרון מנויים במכשירים שונים.