Épisodes

  • Episode 217 : BDH live à Devoxx Paris 2025
    May 28 2025
    (00:00:00) Episode 217 : BDH live à Devoxx Paris 2025
    (00:01:04) Conférence Bug Bash et tests autonomes
    (00:06:23) Windsurf : révolution du coding assistant
    (00:16:23) Automatisation de la veille technologique
    (00:22:28) LLM spécialisés vs généraux
    (00:37:00) Ariga Atlas pour les bases de données

    Cet épisode spécial du Big Data Hebdo, enregistré à Devoxx Paris, explore les dernières innovations en IA et développement. Les invités discutent de leurs expériences avec des outils révolutionnaires comme Windsurf pour l'assistance au code, les avancées en test autonome avec Antithesis (qui a réussi à casser ETCD), et l'automatisation de la veille technologique via des workflows N8N couplés aux LLM. L'épisode aborde aussi l'évolution vers des modèles plus petits et spécialisés (SLM), les implications sociétales de l'IA, et les solutions d'automatisation pour les bases de données comme Ariga Atlas.
    Afficher plus Afficher moins
    42 min
  • Episode 216 : DBT vs SQLMesh
    Apr 11 2025
    Dans cet épisode, on revient sur l’évolution de la data-ingénierie à travers deux outils : DBT et SQLMesh. Comment ces outils ont émergé avec la montée en puissance du SQL dans les architectures modernes ? Comment ils répondent aux enjeux de modélisation, d’industrialisation et de gouvernance de la donnée ? L’épisode est aussi l’occasion d’aborder l’évolution des métiers de la data, notamment l’émergence du rôle d’analytic engineer, à la croisée des chemins entre data engineering et data analytics.
    1. La révolution du SQL modulaire
      → Retour sur l’historique du SQL dans l’analytique moderne, l’explosion du SQL dans les moteurs cloud et les limites des requêtes monolithiques.
    2. DBT
      → Origine de DBT, philosophie “analyst-friendly”, séparation entre DBT Core et DBT Cloud, gestion du versioning, testing, documentation, templating avec Jinja.
    3. Le rôle d’Analytic Engineer
      → Mutation des équipes BI vers plus d’autonomie technique, convergence entre modélisation métier et industrialisation.
    4. Pourquoi SQLMesh ?
      → Introduction à SQLMesh comme alternative à DBT, positionnement technique, différences d’usage, réflexion sur les cas d’adoption.
    Retrouvez les épiosodes et show notes sur https://bigdatahebdo.com
    -----------------
    Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .

    CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .

    Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus.

    Le générique a été composé et réalisé par Maxence Lecointe
    Afficher plus Afficher moins
    53 min
  • Episode 215 : Le RAG en 2025 toujours d'actualité ?
    Apr 7 2025
    Dans cet épisode du Big Data Hebdo, on fait le point sur le RAG (Retrieval-Augmented Generation) : est-il toujours au cœur des usages d’IA générative en entreprise, ou dépassé par les nouveaux paradigmes comme l’agentic AI ?

    Paul, Jérôme, Nicolas et Vincent reviennent sur :
    • Les fondamentaux du RAG : pourquoi est-il apparu ?
    • Comment fonctionne techniquement un pipeline RAG ?
    • Les erreurs à éviter quand on passe en production
    • Les bonnes pratiques : hybrid search, cache, feedback utilisateurs
    • Ce qui change en 2025 : modularité, agentic RAG, graph RAG, et plus encore !

    Retrouvez les épiosodes et show notes sur https://bigdatahebdo.com
    -----------------
    Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .

    CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .

    Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus.

    Le générique a été composé et réalisé par Maxence Lecointe
    Afficher plus Afficher moins
    58 min
  • Episode 214 : Plus vite et moins cher sur Snowflake avec Indexima
    Mar 21 2025
    Dans cet épisode du Big Data Hebdo, 🎙️ j’ai eu le plaisir d’échanger avec Nicolas Korchia de Indexima, qui nous dévoile comment leur solution révolutionne la performance des requêtes analytiques sur Snowflake⚡

    👉 Indexima for Snowflake analyse les requêtes en temps réel et génère automatiquement des agrégats optimisés avec les Dynamic Tables, réduisant drastiquement les temps de réponse et les coûts ! 💰💨

    Show notes et chapitres sur http://bigdatahebdo.com/podcast/episode-214-plus-vite-et-moins-cher-sur-snowflake-avec-indexima/

    -----------------
    Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .

    CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .

    Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus.

    Le générique a été composé et réalisé par Maxence Lecointe
    Afficher plus Afficher moins
    52 min
  • episode 213 : Timeseries et SQL avec Warp10
    Feb 21 2025

    🎙️ On plonge dans les séries temporelles et l’intégration SQL avec Warp 10, en compagnie de Mathias Herbert (Senx.io).

    📊 SQL atteint vite ses limites face aux time series. Comment faire mieux sans exploser la facture cloud ? WarpLibapporte une solution en s’intégrant dans Databricks, Starburst et bientôt Snowflake !

    Show notes et chapitres sur http://bigdatahebdo.com/podcast/episode-213-timeseries-et-sql-avec-warp10/
    Afficher plus Afficher moins
    1 h
  • Episode 212 Analytique en Cloud Hybride
    Feb 3 2025
    Le BigDataHebdo reçoit Florian Caringi, responsable des plateformes Data & IA au sein du groupe BPCE. On discute de l'évolution des architectures Big Data, de Hadoop aux environnements hybrides et cloud, avec une adoption massive de Google Cloud (BigQuery, Vertex AI) pour des usages analytiques et data science.

    Florian partage son expérience sur les défis de migration, de FinOps, et l'intégration des IA génératives. Une discussion passionnante sur la modernisation des infrastructures et l'impact des nouvelles technologies dans les grandes organisations.

    Show notes et chapitres sur http://bigdatahebdo.com/podcast/episode-212-cloud-hybride-bpce/
    Afficher plus Afficher moins
    1 h et 18 min
  • Episode 211 - Motherduck
    Jan 23 2025
    Le BigDataHebdo, reçoit Mehdi, Developer Advocate chez MotherDuck, pour explorer l’univers de DuckDB et MotherDuck. Au programme, les origines académiques de DuckDB, son évolution en tant que moteur SQL analytique performant, et son extension MotherDuck qui permet de l’utiliser comme un Data Warehouse en ligne.

    Show notes sur http://bigdatahebdo.com/podcast/episode-211-motherduck/
    Afficher plus Afficher moins
    55 min
  • Episode 210 - Prédictions 2025
    Jan 17 2025
    Dans cet épisode on revient brièvement sur l'année écoulée, et on vous parle de ce qu'on prévoit sur 2025. Evidement ces prédictions sont très tintées d'IA !

    Retrouvez tous les épisodes avec leurs shownotes : https://bigdatahebdo.com/?src=shownotes

    -----------------
    Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .

    CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .

    Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus.

    Le générique a été composé et réalisé par Maxence Lecointe
    Afficher plus Afficher moins
    45 min