Épisodes

  • 126 - Agenten verstehen: Fähigkeiten erweitern
    Feb 20 2026

    In Teil 3 von "Agenten verstehen" lassen wir unübersichtliche Skripte hinter uns und bauen eine skalierbare KI-Architektur auf. Im Zentrum steht dabei das Model Context Protocol (MCP).

    Die Highlights der Folge:

    Skalierbare Architektur: Die saubere Trennung von Agent (Client) und Werkzeugen (Servern) durch das MCP.

    Effizienz & Sicherheit: Wie dynamisch geladene Werkzeug-Beschreibungen das Kontextfenster entlasten und ausgelagerte Server die eigene Infrastruktur schützen.

    Keine Sprachbarrieren: Warum die Programmiersprache durch das Protokoll egal wird und Python-Agenten nahtlos mit Rust- oder Go-Servern kommunizieren.

    Die Agenten-Ökonomie: Ein Ausblick auf die Zukunft, in der KI-Agenten ihre eigenen Werkzeuge programmieren und in einem globalen Netzwerk anderen Agenten anbieten.

    Afficher plus Afficher moins
    21 min
  • 125 - multimodales RAG
    Feb 18 2026

    Diese Folge erklärt Multimodal RAG und wie man Retrieval Augmented Generation erweitert, um neben Text auch Bilder, Audio und Video zu verarbeiten. Wir vergleichen drei technische Ansätze für die Umsetzung: die Umwandlung aller Medien in Text („Text-ify everything“), das hybride Modell und das komplexe „Full Multimodal RAG“, das einen gemeinsamen Vektorraum für alle Datentypen nutzt.

    Afficher plus Afficher moins
    6 min
  • 124 - HeyGen
    Feb 16 2026

    In dieser Folge vergleichen wir die KI-Video-Plattform HeyGen mit lokalen Open-Source-Alternativen.

    Wir beleuchten die Unterschiede zwischen der bequemen Cloud-Lösung für skalierbare Business-Anwendungen und der vollen Kontrolle durch lokale Modelle.

    Zudem klären wir, welche Hardware – insbesondere Nvidia-Grafikkarten – und welches technische Verständnis für den eigenständigen Betrieb auf dem eigenen Rechner notwendig sind.Welche Open-Source-Alternativen gibt es konkret zu HeyGen?

    Wie hoch sind die Kosten für die Nutzung von HeyGen?

    Was sind die Vorteile von ComfyUI für lokale KI-Modelle?

    Afficher plus Afficher moins
    5 min
  • 123 - Agenten verstehen Teil 2
    Feb 13 2026

    In Teil 2 der Serie verwandeln wir das „Gehirn im Glas“ in einen echten Agenten, der nicht nur chattet, sondern handelt. Wir erklären, wie JSON-Schemas als Vertrag für Werkzeuge dienen und wie der Kreislauf aus Denken, Handeln und Beobachten (Thought, Action, Observation) funktioniert. Zudem beleuchten wir Strategien gegen Kostenexplosionen wie Model Routing und essenzielle Sicherheitskonzepte wie den „Human in the Loop“.

    Afficher plus Afficher moins
    12 min
  • 122 - Skills, MCP & Tool-calling
    Feb 11 2026

    In dieser Folge der KI Gilde werden die oft verwechselten Begriffe Tool Calling, Model Context Protocol (MCP) und Agent Skills entwirrt.

    Wir erklären die Unterschiede anhand einer anschaulichen Handwerker-Analogie: Tool Calling als das einzelne Werkzeug (z. B. Hammer), MCP als die universelle Werkbank mit standardisierten Anschlüssen und Skills als der detaillierte Bauplan für komplexe Aufgaben. Zudem erfährst du, wie Anbieter wie OpenAI, Anthropic und Google diese Technologien nutzen, um KI-Modelle effizienter und handlungsfähiger zu machen.

    Afficher plus Afficher moins
    7 min
  • 121 - Prompt Guide
    Feb 9 2026

    Vergiss den Mythos vom „einen perfekten Prompt“ – der wahre Erfolg liegt im Ökosystem drumherum. In dieser Folge des KI Gilde Podcasts analysieren wir die unsichtbaren Faktoren, die deine KI-Ergebnisse massiv beeinflussen.

    Wir gehen Schritt für Schritt durch die entscheidenden Stellschrauben:

    Fundament & Struktur: Warum Klarheit und positive Formulierungen wichtiger sind als Verbote.

    Systemprompts & Kontext: Wie du der KI eine Rolle gibst und „Lost in the Middle“-Probleme vermeidest.

    Technik & Taktik: Der Einfluss von Modell-Versionen, Few-Shot-Examples und Settings wie der „Temperature“.

    Der Faktor Mensch: Wie deine eigene Perspektive das Ergebnis steuert.Lerne, wie du diese Hebel nutzt, um präzise und konsistente Antworten zu erhalten.

    Afficher plus Afficher moins
    11 min
  • 120 - KI Agenten verstehen Teil 1
    Feb 6 2026

    In dieser Folge starten wir unsere neue Serie zur Anatomie von KI-Agenten und analysieren die ersten drei evolutionären Phasen: vom reinen Code-Schnipsel bis zum hilfreichen Assistenten.

    Wir klären, wie die Kommunikation über APIs funktioniert, wie man die technische „Vergesslichkeit“ der Modelle durch eine Message History umgeht und mittels System Prompts Persönlichkeit erschafft.

    Das Ergebnis ist die Blaupause für Custom GPTs – ein brillantes „Gehirn im Glas“, das zwar denken, aber noch nicht autonom in der Außenwelt handeln kann,.

    Afficher plus Afficher moins
    15 min
  • 119 - Token Caching
    Feb 4 2026

    In dieser Folge des KI-Gilde-Podcasts beleuchten wir das Thema Prompt Caching und wie sich damit die Kosten für LLM-Schnittstellen massiv senken lassen.

    Wir erklären die technische Funktionsweise des sogenannten KV-Cache, der rechenintensive Zwischenergebnisse speichert, anstatt den Kontext jedes Mal neu zu verarbeiten. Erfahre, warum der Zugriff auf den Cache bis zu 90 % günstiger ist als reguläre Input-Token und wieso das erste "Schreiben" in den Cache etwas mehr kostet. Zudem diskutieren wir die unterschiedlichen Philosophien von Anbietern wie OpenAI (automatisch) und Anthropic (explizite Steuerung) und nennen die wichtigsten Regeln, um Caching erfolgreich in der Entwicklung einzusetzen.

    Afficher plus Afficher moins
    6 min