Couverture de L'IA aujourd'hui !

L'IA aujourd'hui !

L'IA aujourd'hui !

De : Michel Levy Provençal
Écouter gratuitement

3 mois pour 0,99 €/mois Offre valable jusqu'au 12 décembre 2025. 3 mois pour 0,99 €/mois, puis 9,95 €/mois. Offre soumise à conditions.J'en profite

À propos de ce contenu audio

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


En savoir plus sur Michel Levy Provençal

Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Michel Levy Provençal
Les membres Amazon Prime bénéficient automatiquement de 2 livres audio offerts chez Audible.

Vous êtes membre Amazon Prime ?

Bénéficiez automatiquement de 2 livres audio offerts.
Bonne écoute !
    Épisodes
    • L'IA aujourd'hui épisode du 2025-11-09
      Nov 9 2025
      Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : IA et censure dans les bibliothèques scolaires, malware auto-adaptatif guidé par des modèles, cadres agentiques pour développeurs, et chiffres contrastés sur l’adoption et la sécurité.D’abord, dans l’édition scolaire, la société Children’s Literature Comprehensive Database lance Class-Shelf Plus v3. Ce logiciel de gestion de catalogues pour bibliothèques scolaires intègre une automatisation pilotée par l’IA, une analyse contextuelle des risques, un marqueur de “matériel sensible” et une notation par feux tricolores. Objectif annoncé : réduire de plus de 80 % la charge de travail de révision manuelle imposée par les lois locales interdisant certains livres et programmes. Un livre blanc cite un “contournement” d’interdiction, qui consiste en réalité à proposer des titres alternatifs “sans le contenu contesté”. Le produit est en phase pilote. Son président explique qu’il aide les districts à rendre visibles au public la majorité de leurs collections, à repérer un petit sous-ensemble de titres à revoir selon les directives de l’État, et à défendre ces choix avec des preuves et des données plutôt qu’avec des jugements subjectifs.Dans le même secteur, des bibliothécaires décrivent un afflux de solutions de bibliothèque alimentées par l’IA et des catalogues saturés de livres générés par l’IA à trier. Plus largement, la promotion agressive de l’IA par des entreprises technologiques, des acteurs financiers et des agences publiques s’articule, selon eux, avec des campagnes d’interdictions de livres et des efforts de censure éducative. La pression pour “ne pas rater le train” de l’IA générative facilite l’intégration de solutions parfois immatures, aux coûts énergétiques élevés, avec des risques pour les minorités, le climat et l’écosystème informationnel. Les bibliothèques publiques, financées par des fonds non lucratifs, pourraient jouer un rôle de référence: promouvoir des pratiques durables, transparentes et ouvertes, et fournir des données fiables. Elles doivent cependant concilier ces valeurs avec des marchés dominés par de grands acteurs commerciaux, dans une stratégie de long terme.Cap sur la cybersécurité. Google signale PROMPTFLUX, un malware de “data mining” qui se réécrit toutes les heures en s’appuyant sur l’API Gemini. Son module “Thinking Robot” demande du code d’obfuscation et d’évasion adapté aux antivirus rencontrés, brouillant la détection. Écrit en VBScript, il régénère son propre source à intervalles réguliers. Plusieurs variantes ont été observées, certaines encore en test. À ce stade, il n’est pas capable de compromettre un appareil ou un réseau de bout en bout, mais l’évolution est rapide. Le rapport souligne l’usage d’ingénierie sociale pour contourner les garde-fous des IA, avec des acteurs qui se font passer pour des étudiants ou des chercheurs. Ce cas fait écho à un précédent: un ransomware autonome présenté en 2025, capable de s’adapter à son environnement. Des comptes associés à ces menaces ont été désactivés.On reste côté développement, avec l’essor de GPT-5 et de Gemini 2.5 Pro qui accélère les cadres dits “agentiques”. Exemple: LangGraph. Ce framework open source simplifie les flux de travail d’IA en gérant l’appel d’outils, l’état des agents et l’humain dans la boucle. À l’usage, il facilite la configuration et l’orchestration, mais impose encore du code standard et expose des erreurs spécifiques lors de l’implémentation. L’enjeu est d’équilibrer abstraction et contrôle pour construire des systèmes fiables, auditables et ajustables.Enfin, les chiffres d’adoption montrent un paysage contrasté. 97 % des organisations utilisent déjà ou testent des assistants de codage IA et intègrent leur code. Mais 65 % constatent une hausse des risques: vulnérabilités, erreurs, biais. Côté exposition, 1 100 serveurs Ollama ont été découverts accessibles sans autorisation, créant des risques pour les hôtes. 85 % des développeurs s’inquiètent de la sécurité liée à la dépendance à l’IA générative et d’une perte de pensée critique. Dans les directions d’entreprise, 85 % jugent la cybersécurité déterminante pour la croissance, et 61 % sont préoccupés par les menaces alimentées par l’IA. Malgré l’engouement, 80 % des projets d’IA échouent, soit le double des projets informatiques classiques, générant des gaspillages financiers. En France, 11 % des entreprises seulement ont déployé pleinement des modèles d’IA générative, mais 55 % projettent de le faire.Ces actualités se rejoignent sur un point: la nécessité de preuves, de gouvernance et d’outils vérifiables. Qu’il s’agisse de classifier des livres sous contrainte ...
      Afficher plus Afficher moins
      6 min
    • L'IA aujourd'hui épisode du 2025-11-08
      Nov 8 2025
      Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : IA et catalogues scolaires, malware qui se réécrit en continu, et adoption de l’IA en entreprise entre promesses et risques.On commence dans les écoles américaines. L’entreprise Children’s Literature Comprehensive Database lance Class-Shelf Plus v3, un logiciel de gestion de catalogues qui ajoute de l’automatisation, une analyse contextuelle des risques et un marqueur de “matériel sensible” alimenté par l’IA. Un score de risque par feux tricolores met en avant les titres à vérifier. Objectif affiché : alléger la conformité aux lois restreignant certains livres ou programmes. Selon l’éditeur, les districts peuvent réduire de plus de 80 % la charge de relecture manuelle et rendre visible au public la majorité des collections de classe, au nom de la transparence et de l’accès.Dans un livre blanc, CLCD cite un cas présenté comme un contournement d’interdiction ; en pratique, il s’agit surtout de proposer des titres alternatifs sans le contenu contesté. Le président Ajay Gupte rappelle que le produit est en phase pilote. Il affirme qu’il aide à isoler un petit sous-ensemble d’ouvrages à réviser selon les directives d’État et qu’il protège enseignants et bibliothécaires d’accusations de partialité ou de non‑conformité, en appui sur des preuves et des données plutôt que sur des opinions.Sur le terrain, des bibliothécaires décrivent une autre réalité : multiplication des offres de logiciels d’IA dédiés, et catalogues inondés de livres générés par IA à trier. Plus largement, ils relient cette poussée technologique à un climat de pression idéologique sur écoles et bibliothèques. L’IA promet de l’efficacité, mais elle comprime la nuance dans des tâches comme la classification ou le marquage : un modèle décide si un contenu est “sensible”, avec le risque de figer des jugements. En parallèle, l’entraînement et l’exploitation de grands modèles restent très coûteux en ressources, avec des effets possibles sur le climat, les minorités et le paysage informationnel. L’ampleur de l’impact reste mouvante, même si des implications concrètes émergent déjà.Face à cela, des alternatives existent : privilégier des approches plus durables, transparentes et ouvertes. Les bibliothèques publiques, financées sur fonds non lucratifs, peuvent se positionner comme fournisseurs ou courtiers de données fiables pour la recherche et les usages productifs. Mais il faut tenir une ligne claire dans un environnement dominé par de grands acteurs privés, et structurer un réseau de coopération sur le long terme pour faire évoluer les pratiques.Changement de front avec la cybersécurité. Google signale PROMPTFLUX, un malware de “data mining” qui se réinvente chaque heure grâce à l’IA. Son module “Thinking Robot” interagit avec l’API Gemini pour obtenir du code capable de contourner les antivirus. Cette auto‑modification “juste à temps” réécrit le code source en continu afin de rester indétectable. Les chercheurs décrivent plusieurs variantes, dont certaines réécrivent la totalité du code pour échapper à la détection, et notent des tentatives d’ingénierie sociale où les acteurs malveillants se font passer pour des étudiants ou des chercheurs en cybersécurité afin de tromper les systèmes de sécurité de l’IA. Le groupe serait encore en phase de développement ou de test ; Google dit avoir désactivé des comptes liés. La tendance n’est pas isolée : en août 2025, un ransomware autonome nommé PromptLock illustrait déjà cette capacité d’adaptation.Côté entreprises, l’adoption avance vite, la sécurité moins. 97 % des organisations utilisent ou testent des assistants de codage et intègrent du code généré par IA. 65 % constatent une hausse des risques associés : vulnérabilités, erreurs, non‑conformité aux normes. Des déploiements mal sécurisés exposent des actifs : 1 100 serveurs Ollama ont été trouvés accessibles en ligne, créant des risques d’accès non autorisé et de compromission des hôtes. 85 % des développeurs disent craindre les risques de sécurité liés aux assistants de code et la perte de pensée critique due à leur usage. Côté directions, 85 % jugent la cybersécurité décisive pour la croissance et 61 % s’inquiètent des menaces liées à l’IA. Dans les faits, 80 % des projets d’IA échouent, soit le double des projets IT classiques, avec un gâchis financier notable. En France, 11 % des entreprises ont déployé pleinement des modèles d’IA générative, et 55 % prévoient de le faire, signe d’une adoption mesurée face aux défis techniques, sécuritaires et réglementaires.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de...
      Afficher plus Afficher moins
      5 min
    • L'IA aujourd'hui épisode du 2025-11-07
      Nov 7 2025
      Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : bases de l’IA générative, IA pour la biosphère, protocole MCP et exécution de code, failles “HackedGPT”, IA et références académiques, et financement d’OpenAI.Commençons par un rappel utile. L’IA générative apprend à partir de données existantes pour créer du nouveau contenu: texte, images, audio, vidéo, code. Là où une IA classique reconnaît un chat sur une photo, une IA générative peut en “imaginer” un et le dessiner. Les grandes familles de modèles incluent les GANs, les VAEs, les transformateurs et les modèles de diffusion. ChatGPT illustre la génération de texte, DALL·E et Stable Diffusion la création d’images photoréalistes. Comprendre ces bases permet d’aborder n’importe quel système, de GPT-4 à Midjourney, et d’en composer des usages sur mesure.Cap sur la biosphère. De nouvelles recherches visent à prédire le risque de déforestation et à cartographier les espèces à grande échelle. En partenariat avec le World Resources Institute, un modèle fondé sur la télédétection produit une cartographie des facteurs de perte forestière — agriculture, exploitation forestière, minière, incendies — avec une résolution de 1 km² pour 2000-2024. L’équipe publie un jeu de données de référence pour anticiper le risque de déforestation. Particularité: le modèle s’appuie uniquement sur des entrées satellites, sans couches locales comme les routes, et utilise une architecture de transformateurs de vision. Résultat: des prédictions fines, jusqu’à 30 mètres, couvrant de vastes régions.Deuxième volet: localiser les espèces. Un réseau de neurones graphiques combine des observations de terrain ouvertes, des intégrations satellitaires d’AlphaEarth Foundations et des traits d’espèces — par exemple la masse corporelle — pour inférer des aires de répartition probables, à grande échelle et pour de nombreuses espèces simultanément. Les scientifiques peuvent ensuite affiner ces cartes avec leurs données locales.Troisième brique: écouter la nature. La bioacoustique s’appuie sur des enregistreurs bon marché, mais les volumes audio sont massifs et bruités. Perch 2.0, une mise à jour d’un classificateur de vocalisations animales, améliore l’identification, notamment des oiseaux. Proposé en tant que modèle fondamental, il peut être rapidement adapté sur le terrain à de nouvelles espèces et habitats, partout sur Terre.Passons aux agents IA et à l’intégration d’outils. Le Model Context Protocol, standard ouvert lancé en novembre 2024, a vu naître des milliers de serveurs et des SDK dans les principaux langages. Problème: plus on connecte d’outils, plus charger leurs définitions et faire transiter les résultats intermédiaires dans la fenêtre de contexte devient coûteux et lent. Solution proposée: l’exécution de code avec MCP. Plutôt que d’appeler directement les outils, l’agent écrit du code qui dialogue avec les serveurs MCP, ne charge que les outils utiles, traite les données dans l’environnement d’exécution et ne renvoie que le résultat. Exemple chiffré: joindre la transcription d’une réunion depuis Google Drive à un lead Salesforce passe d’environ 150 000 à 2 000 jetons, soit 98,7 % d’économie. Les résultats intermédiaires restent dans l’exécution, limitant l’exposition de données sensibles; l’état peut être conservé via des fichiers. En contrepartie, il faut un bac à sable sécurisé, des limites de ressources et une supervision.Côté sécurité, un rapport signale sept vulnérabilités dites “HackedGPT” visant ChatGPT; quatre persisteraient dans ChatGPT-5. Techniques observées: un commentaire piégé sur un blog peut injecter des instructions lors d’un simple résumé; une attaque “0‑click” compromet l’utilisateur si le modèle visite une page au code malveillant; le mécanisme “url_safe” peut être contourné via des liens de tracking Bing, utilisés pour exfiltrer des données en codant chaque lettre; “Conversation Injection” exploite l’architecture double; un bug de rendu markdown masque des commandes; enfin, des instructions peuvent être inscrites dans la mémoire longue durée. Les vulnérabilités ont été signalées; certaines restent non corrigées.Sur la fiabilité des références académiques, une comparaison montre des écarts nets. Pour les hallucinations de premier ordre — références inexistantes —: ChatGPT fournit environ 60 % de références réelles, Claude 56 %, Gemini 20 %, avec parfois zéro référence valide. Pour les hallucinations de second ordre — références réelles mais hors‑sujet —: environ 50 % des citations de ChatGPT soutiennent les affirmations, Claude entre 40 et 50 %, Gemini 0 %. Les meilleurs résultats sont obtenus avec ChatGPT et, de près, Claude Sonnet 4 en ...
      Afficher plus Afficher moins
      6 min
    Aucun commentaire pour le moment