Couverture de L'IA aujourd'hui épisode du 2025-11-08

L'IA aujourd'hui épisode du 2025-11-08

L'IA aujourd'hui épisode du 2025-11-08

Écouter gratuitement

Voir les détails
3 mois pour 0,99 €/mois Offre valable jusqu'au 12 décembre 2025. 3 mois pour 0,99 €/mois, puis 9,95 €/mois. Offre soumise à conditions.J'en profite

À propos de ce contenu audio

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : IA et catalogues scolaires, malware qui se réécrit en continu, et adoption de l’IA en entreprise entre promesses et risques.On commence dans les écoles américaines. L’entreprise Children’s Literature Comprehensive Database lance Class-Shelf Plus v3, un logiciel de gestion de catalogues qui ajoute de l’automatisation, une analyse contextuelle des risques et un marqueur de “matériel sensible” alimenté par l’IA. Un score de risque par feux tricolores met en avant les titres à vérifier. Objectif affiché : alléger la conformité aux lois restreignant certains livres ou programmes. Selon l’éditeur, les districts peuvent réduire de plus de 80 % la charge de relecture manuelle et rendre visible au public la majorité des collections de classe, au nom de la transparence et de l’accès.Dans un livre blanc, CLCD cite un cas présenté comme un contournement d’interdiction ; en pratique, il s’agit surtout de proposer des titres alternatifs sans le contenu contesté. Le président Ajay Gupte rappelle que le produit est en phase pilote. Il affirme qu’il aide à isoler un petit sous-ensemble d’ouvrages à réviser selon les directives d’État et qu’il protège enseignants et bibliothécaires d’accusations de partialité ou de non‑conformité, en appui sur des preuves et des données plutôt que sur des opinions.Sur le terrain, des bibliothécaires décrivent une autre réalité : multiplication des offres de logiciels d’IA dédiés, et catalogues inondés de livres générés par IA à trier. Plus largement, ils relient cette poussée technologique à un climat de pression idéologique sur écoles et bibliothèques. L’IA promet de l’efficacité, mais elle comprime la nuance dans des tâches comme la classification ou le marquage : un modèle décide si un contenu est “sensible”, avec le risque de figer des jugements. En parallèle, l’entraînement et l’exploitation de grands modèles restent très coûteux en ressources, avec des effets possibles sur le climat, les minorités et le paysage informationnel. L’ampleur de l’impact reste mouvante, même si des implications concrètes émergent déjà.Face à cela, des alternatives existent : privilégier des approches plus durables, transparentes et ouvertes. Les bibliothèques publiques, financées sur fonds non lucratifs, peuvent se positionner comme fournisseurs ou courtiers de données fiables pour la recherche et les usages productifs. Mais il faut tenir une ligne claire dans un environnement dominé par de grands acteurs privés, et structurer un réseau de coopération sur le long terme pour faire évoluer les pratiques.Changement de front avec la cybersécurité. Google signale PROMPTFLUX, un malware de “data mining” qui se réinvente chaque heure grâce à l’IA. Son module “Thinking Robot” interagit avec l’API Gemini pour obtenir du code capable de contourner les antivirus. Cette auto‑modification “juste à temps” réécrit le code source en continu afin de rester indétectable. Les chercheurs décrivent plusieurs variantes, dont certaines réécrivent la totalité du code pour échapper à la détection, et notent des tentatives d’ingénierie sociale où les acteurs malveillants se font passer pour des étudiants ou des chercheurs en cybersécurité afin de tromper les systèmes de sécurité de l’IA. Le groupe serait encore en phase de développement ou de test ; Google dit avoir désactivé des comptes liés. La tendance n’est pas isolée : en août 2025, un ransomware autonome nommé PromptLock illustrait déjà cette capacité d’adaptation.Côté entreprises, l’adoption avance vite, la sécurité moins. 97 % des organisations utilisent ou testent des assistants de codage et intègrent du code généré par IA. 65 % constatent une hausse des risques associés : vulnérabilités, erreurs, non‑conformité aux normes. Des déploiements mal sécurisés exposent des actifs : 1 100 serveurs Ollama ont été trouvés accessibles en ligne, créant des risques d’accès non autorisé et de compromission des hôtes. 85 % des développeurs disent craindre les risques de sécurité liés aux assistants de code et la perte de pensée critique due à leur usage. Côté directions, 85 % jugent la cybersécurité décisive pour la croissance et 61 % s’inquiètent des menaces liées à l’IA. Dans les faits, 80 % des projets d’IA échouent, soit le double des projets IT classiques, avec un gâchis financier notable. En France, 11 % des entreprises ont déployé pleinement des modèles d’IA générative, et 55 % prévoient de le faire, signe d’une adoption mesurée face aux défis techniques, sécuritaires et réglementaires.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de...
Les membres Amazon Prime bénéficient automatiquement de 2 livres audio offerts chez Audible.

Vous êtes membre Amazon Prime ?

Bénéficiez automatiquement de 2 livres audio offerts.
Bonne écoute !
    Aucun commentaire pour le moment