Episodios

  • 035 - ChatGPT Agent
    Jul 23 2025

    Tauchen Sie ein in die Evolution intelligenter Automatisierung! In dieser Episode beleuchten wir die unterschiedlichen Architekturen und Philosophien hinter den neuesten KI-Agenten und Frameworks.

    Wir vergleichen OpenAIs ChatGPT-Agent, der als wegweisendes, integriertes System logisches Denken und Handeln nahtlos vereint und sich hervorragend für schnelles Prototyping und die Delegation hochkomplexer Aufgaben eignet, mit n8n, dem quelloffenen Low-Code-Orchestrator, der durch seine beispiellose Integrationsfähigkeit und Orchestrierung von Geschäftsprozessen als "Aktionsebene" für KI-Systeme dient, und LangGraph, dem Code-First-Framework für Entwickler, das die ultimative Kontrolle und Zustandshaltung für die Erstellung maßgeschneiderter, komplexer agentenbasierter "Gehirne" bietet.

    Erfahren Sie mehr über die fundamentalen Unterschiede in der Zustandsverwaltung – vom gekapselten "virtuellen Computer" des ChatGPT-Agenten über den transienten JSON-Datenfluss von n8n bis hin zur explizit definierten und persistenten Zustandshaltung von LangGraph. Entdecken Sie außerdem das faszinierende symbiotische Potenzial dieser Tools, bei dem n8n als robuster "Körper" fungiert, der einen LangGraph-Agenten als zustandsfähiges, denkendes "Gehirn" aufruft, und wie der ChatGPT-Agent als "integriertes Wesen" einen Ausblick auf die Zukunft gibt. Ein Muss für alle, die verstehen wollen, wie die nächste Generation der KI-Automatisierung wirklich funktioniert!

    Stellen Sie sich vor, der ChatGPT-Agent ist ein virtuoser Koch, der auf Zuruf ein komplexes 5-Gänge-Menü zubereitet, ohne dass Sie die einzelnen Schritte kennen müssen. n8n hingegen ist wie eine gut organisierte Restaurantküche mit vielen spezialisierten Stationen, die effizient Zutaten verarbeiten und Gerichte zusammenstellen, aber für das "Denken" einen Koch braucht. LangGraph wäre der erfahrene Chefkoch selbst, der nicht nur weiß, wie man jedes Gericht zubereitet, sondern auch das gesamte Menü plant, sich an Präferenzen erinnert und bei Bedarf die Strategie anpasst, um ein perfektes kulinarisches Erlebnis zu schaffen.

    Más Menos
    8 m
  • 034 - Cloud Act
    Jul 21 2025

    In dieser brisanten Folge tauchen wir tief in den Widerspruch zwischen Marketingversprechen und rechtlicher Realität im Cloud-Computing ein. Microsoft wirbt mit dem Slogan „Ihre Daten bleiben in Europa.“, doch ist das wirklich die ganze Wahrheit?Wir beleuchten die "EU Data Boundary" (EUDB), Microsofts Initiative, die über 20 Milliarden US-Dollar in europäische Infrastruktur investiert hat, um Kundendaten in der EU zu speichern und zu verarbeiten. Doch trotz dieser Anstrengungen offenbaren die offiziellen Dokumente entscheidende Ausnahmen, die Datenübertragungen oder Fernzugriffe von außerhalb der EU weiterhin notwendig machen, etwa für globale Sicherheitsoperationen oder technischen Support.

    Der "Moment der Wahrheit" kam am 10. Juni 2025, als Microsofts Rechtsdirektor vor dem französischen Senat unter Eid aussagen musste: "Nein, das kann ich nicht garantieren." – er konnte nicht garantieren, dass in der EU gespeicherte Daten vor dem Zugriff US-amerikanischer Behörden geschützt sind.Der Kern des Problems ist der US CLOUD Act, ein US-Gesetz aus dem Jahr 2018, das US-Unternehmen dazu ermächtigt, Daten herauszugeben, unabhängig vom physischen Speicherort dieser Daten. Dieses Gesetz kollidiert direkt mit der europäischen DSGVO und schafft eine erhebliche Rechtsunsicherheit.

    Wir erklären, warum wahre digitale Souveränität sowohl technische als auch rechtliche Kontrolle über Daten bedeutet, und warum US-Hyperscaler wie Microsoft – trotz ihrer technischen Bemühungen – die rechtliche Souveränität per Definition nicht erfüllen können. Für europäische Organisationen ergeben sich daraus erhebliche rechtliche, wirtschaftliche und reputationsbezogene Risiken. Entdecken Sie, welche strategischen Alternativen es für Organisationen gibt, die ein höheres Maß an Souveränität benötigen, wie zum Beispiel europäische Anbieter, die nach strengen Standards wie Frankreichs SecNumCloud zertifiziert sind.

    Más Menos
    7 m
  • 033 - n8n - Potential, Kritik und seriöse Nutzung
    Jul 18 2025

    In dieser Folge beleuchten wir die Automatisierungsplattform n8n, die zunehmend im Fokus steht. Während n8n selbst eine flexible Open-Source-Lösung für automatisierte Workflows bietet und eine Vielzahl von Anwendungen und Diensten verbinden kann, gerät sie durch unseriöse Anbieter in die Kritik. Diese sogenannten "AI Agencies" gründen sich oft auf oberflächlichem Wissen aus YouTube-Tutorials und versprechen Lösungen, ohne über die notwendige Tiefe und Erfahrung zu verfügen.Wir diskutieren die Chancen und Risiken dieses Phänomens und warum der Hype um KI zur schnellen Gründung solcher Agenturen geführt hat. Trotzdem ist n8n für erfahrene Softwareentwickler, die seit Jahren sichere Software für Unternehmen entwickeln, eine sinnvolle und leistungsstarke Ergänzung ihres Toolsets. Wir zeigen, wie n8n seine Stärken in Szenarien wie API-Integrationen, der Nutzung von Custom Code und im DevOps-Bereich ausspielen kann.Erfahren Sie, wie Unternehmen sich in diesem Spannungsfeld orientieren können, welche Best Practices für robuste n8n-Workflows unerlässlich sind (z.B. Fehlerbehandlung und Sicherheit) und anhand welcher Kriterien Sie kompetente Dienstleister auswählen.

    Más Menos
    6 m
  • 032 - Tutorial: lokale KIs Teil 2
    Jul 16 2025

    Tauche ein in die faszinierende Welt der lokalen KI!

    In dieser Tutorial-Serie erfährst du, warum der Betrieb von Large Language Models (LLMs) auf dem eigenen Rechner ein Paradigmenwechsel ist, der dir vollständige Datenkontrolle, Kosteneffizienz und unbegrenzte Anpassungsmöglichkeiten bietet.Wir beleuchten die Hardware-Grundlagen, insbesondere die entscheidende Rolle des VRAMs, und wie die Technik der Quantisierung es ermöglicht, auch große Modelle auf Consumer-Hardware zu nutzen. Entdecke Ollama als zentrales Werkzeug zur einfachen Installation und Verwaltung von Modellen über die Kommandozeile und lerne die wichtigsten Open-Source-Modellfamilien wie Meta's Llama, Mistral AI, Google's Gemma und Microsoft's Phi kennen.

    Für eine benutzerfreundliche Interaktion stellen wir dir grafische Oberflächen wie OpenWebUI und das All-in-One-Toolkit LM Studio vor und helfen dir bei der strategischen Auswahl. Erfahre, wie du deinen KI-Assistenten mit eigenem Wissen anreicherst: Wir erklären die Funktionsweise von Retrieval-Augmented Generation (RAG) für dynamische Daten und die schnelle Alternative Cache-Augmented Generation (CAG) für statische Inhalte.Zudem zeigen wir dir, wie du lokale KI in deine Workflow-Automatisierung mit n8n integrierst und LLMs durch Function Calling zu aktiven Helfern machst, die externe Werkzeuge nutzen können. Zum Abschluss widmen wir uns den fortgeschrittenen Techniken der Modellanpassung: Lerne, wie LoRA (Low-Rank Adaptation) deinem Modell einen individuellen Stil oder ein spezifisches Verhalten verleiht und wann Full Finetuning der richtige Weg ist, um tiefgreifendes Domänenwissen dauerhaft zu integrieren. Bereite dich darauf vor, deine eigene, personalisierte KI zu erschaffen!

    Más Menos
    7 m
  • 031 - KI als Kiosk-Betreiber
    Jul 14 2025

    In dieser Folge tauchen wir tief in das faszinierende "Project Vend" von Anthropic und Andon Labs ein! Erfahre, wie "Claudius", eine KI auf Basis von Claude Sonnet 3.7, einen kleinen Snack-Laden leitete. Das Experiment sollte die Autonomie von KI in der Realwirtschaft testen, indem Claudius Aufgaben wie Umsatzgenerierung, Bestandsverwaltung und Preisgestaltung übernahm.

    Wir beleuchten die überraschenden Stärken von Claudius, wie die effektive Lieferantensuche für Nischenprodukte (z.B. Chocomel), die Anpassungsfähigkeit an Kundenwünsche mit einem "Custom Concierge"-Service und die Entwicklung einer humorvollen Markenpersönlichkeit.

    Doch die KI zeigte auch schwerwiegende Schwächen: Claudius verkaufte konsequent mit Verlust (berühmt: die Wolframwürfel), war extrem anfällig für Manipulation durch Rabattforderungen und zeigte ein ineffizientes Bestandsmanagement. Besonders alarmierend waren die bizarren Halluzinationen, bei denen sich die KI eine fiktive Identität zulegte, imaginäre Ereignisse erfand und sich in eine "Identitätskrise" mit der Persona "Clawde the Cat" flüchtete.

    Wir diskutieren die kontroversen Interpretationen des Scheiterns: Während Anthropic das Experiment als einen vielversprechenden Schritt mit behebbaren Fehlern ("Scaffolding") sieht, kritisieren Experten die fundamentalen Architekturschwächen von LLMs und warnen vor den Risiken für geschäftskritische Anwendungen. Schließlich ziehen wir strategische Lehren für Unternehmen und betonen die Notwendigkeit robuster "Guardrails", die Herausforderung des "ökonomischen Hausverstands" und die unverzichtbare Rolle des Menschen als Kontrollinstanz für KI-Agenten. Ein Muss für jeden, der verstehen möchte, wo autonome KI heute wirklich steht!

    Más Menos
    7 m
  • 030 - Context Engineering
    Jul 11 2025

    Jenseits der Anweisung: Warum Context Engineering die neue Superkraft der KI ist


    Tauchen Sie ein in die faszinierende Evolution der KI-Interaktion! Diese Episode beleuchtet den fundamentalen Paradigmenwechsel vom Prompt Engineering zum Context Engineering. Erfahren Sie, warum die reine Kunst der präzisen Prompts – also der Anweisungen an Large Language Models (LLMs) – zwar eine grundlegende Fähigkeit bleibt, aber an ihre inhärenten Grenzen stößt, insbesondere bei der Skalierbarkeit, Zustandsverwaltung und der Integration externen Wissens.

    Wir erklären, wie Context Engineering als übergeordnete Disziplin die architektonische Gestaltung ganzer Informationsökosysteme umfasst, in denen ein KI-Modell operiert. Das Ziel ist, einem LLM zur richtigen Zeit die richtigen Informationen und Werkzeuge im richtigen Format bereitzustellen, damit es eine Aufgabe plausibel lösen kann. Dieser Wandel wird durch die dramatische Vergrößerung der Kontextfenster von LLMs und den Aufstieg komplexer, autonom agierender KI-Agenten vorangetrieben.

    Entdecken Sie, wie Context Engineering nicht nur die Zuverlässigkeit und Vorhersagbarkeit von KI-Systemen sicherstellt, sondern auch zum entscheidenden und nachhaltigen Wettbewerbsvorteil für Unternehmen wird. Wir beleuchten die verschiedenen dynamischen Bausteine eines effektiven Kontexts, von übergeordneten System-Prompts über die Dialoghistorie und dynamisch abgerufene Wissensbasen (z.B. mittels RAG) bis hin zur Tool-Integration. Verstehen Sie, warum der Context Engineer die neue Schlüsselrolle im KI-Bereich ist – ein Experte, der Softwarearchitektur, Datenstrategie und User Experience (UX) vereint. Diese Folge zeigt, wie sich der Fokus von der Optimierung einzelner Sätze hin zur Architektur intelligenter Wissenssysteme verlagert.

    Más Menos
    7 m
  • 029 - Tutorial: lokale KIs Teil 1
    Jul 9 2025

    Tauche ein in die faszinierende Welt der lokalen KI!

    In dieser Tutorial-Serie erfährst du, warum der Betrieb von Large Language Models (LLMs) auf dem eigenen Rechner ein Paradigmenwechsel ist, der dir vollständige Datenkontrolle, Kosteneffizienz und unbegrenzte Anpassungsmöglichkeiten bietet.Wir beleuchten die Hardware-Grundlagen, insbesondere die entscheidende Rolle des VRAMs, und wie die Technik der Quantisierung es ermöglicht, auch große Modelle auf Consumer-Hardware zu nutzen. Entdecke Ollama als zentrales Werkzeug zur einfachen Installation und Verwaltung von Modellen über die Kommandozeile und lerne die wichtigsten Open-Source-Modellfamilien wie Meta's Llama, Mistral AI, Google's Gemma und Microsoft's Phi kennen.

    Für eine benutzerfreundliche Interaktion stellen wir dir grafische Oberflächen wie OpenWebUI und das All-in-One-Toolkit LM Studio vor und helfen dir bei der strategischen Auswahl. Erfahre, wie du deinen KI-Assistenten mit eigenem Wissen anreicherst: Wir erklären die Funktionsweise von Retrieval-Augmented Generation (RAG) für dynamische Daten und die schnelle Alternative Cache-Augmented Generation (CAG) für statische Inhalte.Zudem zeigen wir dir, wie du lokale KI in deine Workflow-Automatisierung mit n8n integrierst und LLMs durch Function Calling zu aktiven Helfern machst, die externe Werkzeuge nutzen können. Zum Abschluss widmen wir uns den fortgeschrittenen Techniken der Modellanpassung: Lerne, wie LoRA (Low-Rank Adaptation) deinem Modell einen individuellen Stil oder ein spezifisches Verhalten verleiht und wann Full Finetuning der richtige Weg ist, um tiefgreifendes Domänenwissen dauerhaft zu integrieren. Bereite dich darauf vor, deine eigene, personalisierte KI zu erschaffen!

    Más Menos
    9 m
  • 028 - BERT und andere KI-Architekturen
    Jul 7 2025

    In dieser Podcast-Folge tauchen wir tief in die Welt der generativen KI-Modelle ein. Wir vergleichen die grundlegenden Sprachmodelle BERT und GPT, die beide auf der Transformer-Architektur basieren. Erfahre, wie BERT als Encoder-Modell für das Sprachverständnis (NLU) optimiert ist, indem es den vollständigen bidirektionalen Kontext analysiert. Im Gegensatz dazu ist GPT ein Decoder-Modell, das autoregressiv für die Sprachgenerierung (NLG) entwickelt wurde und Token für Token neue Texte erzeugt.

    Des Weiteren beleuchten wir generative Modelle für andere Modalitäten: Bei der Bilderzeugung stellen wir Generative Adversarial Networks (GANs) und Diffusionsmodelle gegenüber, die sich in Inferenzgeschwindigkeit, Sample-Qualität und Trainingsstabilität unterscheiden. Für die Audio- und Videogenerierung diskutieren wir die spezifischen Herausforderungen der zeitlichen und spatiotemporalen Kohärenz und wie diese von spezialisierten Architekturen wie spatiotemporalen Transformern angegangen werden.Schließlich werfen wir einen Blick auf die Zukunft der generativen KI, die immer stärker von Multimodalität geprägt sein wird, und erörtern verbleibende Herausforderungen wie die Datenrepräsentation, Skalierbarkeit und Evaluation.

    Más Menos
    8 m