LangChain

KI-Agenten entmystifizieren: LangChains Open-Source-Blaupause mit Nvidia-Technologie

Dieser Artikel behandelt die wichtigsten Erkenntnisse aus LangChains Video „Open Models, Open Runtime, Open Harness – Building your own AI agent with LangChain and Nvidia“. LangChain stellt ein leistungsstarkes Open-Source-Framework zum Erstellen benutzerdefinierter AI-Agenten vor, das die Architektur fortschrittlicher Systeme wie Claude Code und Open Claw widerspiegelt. Das Video demonstriert, wie ein offenes Model (Nvidia Nemotron 3 Super), eine offene Runtime (Nvidia Open Shell) und ein offenes Harness (LangChain Deep Agents) kombiniert werden können, um einen sicheren, anpassbaren und persistenten Agenten zu erstellen. Laut LangChain ermöglicht dieser Ansatz Entwicklern, anspruchsvolle AI-Agenten auf einem vollständig offenen Stack zu konstruieren.

#LangChain#AI Agent#LLM

Dieser Artikel behandelt die wichtigsten Erkenntnisse aus Open Models, Open Runtime, Open Harness – Building your own AI agent with LangChain and Nvidia von LangChain.

Die Kernelemente eines AI-Agenten

LangChain beginnt mit der Erklärung, dass fortschrittliche AI-Agenten wie Claude Code, Manus und Open Claw eine ähnliche zugrunde liegende Architektur teilen. Laut LangChain bestehen diese Agenten aus drei grundlegenden Komponenten: einem Model, einer Runtime und einem Harness. Das Model liefert die Intelligenz des Agenten, die Runtime bietet die Ausführungsumgebung, und das Harness orchestriert diese Elemente zusammen mit einer Agenten-Schicht darüber. Das Video konzentriert sich darauf, wie Entwickler diese Komponenten mithilfe eines vollständig Open-Source-Stacks erstellen können.

Vorstellung des Open-Source-Agenten-Stacks

Für ihren Open-Source-Agenten-Stack präsentiert LangChain eine spezifische Kombination von Technologien:

  • Das Model: Nvidia Nemotron 3 Super LangChain hebt hervor, dass das kürzlich von Nvidia veröffentlichte Nemotron 3 Super Model sowohl in Bezug auf Accuracy als auch Geschwindigkeit hochperformant ist. Wie LangChain demonstriert, übertrifft es Models wie OpenAI's GPT OS in diesen Metriken und verschiebt die Grenzen dessen, was für die Responsiveness von Agenten möglich ist.

  • Die Runtime: Nvidia Open Shell Nvidia Open Shell, ebenfalls eine kürzliche Veröffentlichung, dient als Runtime für den Agenten. LangChain betont seine Sicherheitsfunktionen, die es Agenten ermöglichen, mit festgelegten Permission Sets zu laufen und lokal in GPU-accelerated Environments zu operieren, was entscheidend für die Nutzung von GPU-accelerated Libraries ist.

  • Das Harness: LangChain Deep Agents Deep Agents ist LangChains Open-Source-Agenten-Harness, das entwickelt wurde, um Models, Tools, Skills und File Systems zu orchestrieren. Laut LangChain bietet es integrierte Mechanismen für Agenten, um tiefer in Aufgaben einzusteigen ("go deeper"), nutzt Skills und Subagents intensiv und übernimmt gängige Context Engineering-Aufgaben wie die Summarization, wodurch Entwickler von der Verwaltung dieser undifferenzierten Aspekte entlastet werden.

Ihren Agenten erstellen und anpassen: Eine praktische Demonstration

LangChain bietet eine praktische Anleitung zum Einrichten und Ausführen eines Agenten mithilfe dieser Open-Source-Komponenten.

Erstes Setup und Umgebungskonfiguration

Die Demonstration beginnt mit der Installation von Open Shell und dem Start seines Gateways. LangChain zeigt, wie man eine persistente Sandbox mit Open Shell sandbox create --keep erstellt, die für alle Agentenläufe verwendet wird. Wichtige Environment Variables, wie von LangChain erklärt, umfassen den Nvidia API key, den Open Shell Sandbox-Namen und optional Langsmith API keys zur Beobachtung und Evaluierung des Agentenverhaltens.

Dekonstruktion der Agenten-Definition

LangChain taucht in den Code des Agenten ein und enthüllt dessen Struktur:

  • Model-Integration: Der Agent verwendet das Nvidia Nemotron 3 Model, konfiguriert mit dem angegebenen API key.
  • System Prompt: LangChain erklärt, dass ein fester System Prompt grundlegende Anweisungen, Workflow-Verständnis und Richtlinien für die Verwendung der Sandbox bereitstellt. Bemerkenswert ist, dass der Netzwerkzugriff der Sandbox policy-governed ist, eine Sicherheitsfunktion von Open Shell.
  • Agenten-Memory: Getrennt vom System Prompt wird der Agenten-Memory in einer separaten Datei (agent.md) gespeichert und kann vom Agenten selbst aktualisiert werden, was dynamisches Lernen und Anpassung ermöglicht.
  • Backend-Abstraktion: LangChain erläutert die Funktion create_backend, die eine Open Shell Sandbox-Session als zentrale Execution Environment erstellt. Entscheidend ist, dass es ein File System Backend darüber legt, wodurch Memory und Skills lokal auf der Maschine des Entwicklers verbleiben und über verschiedene Agenten-Sessions oder Sandboxes hinweg persistent sind. Dies wird, wie von LangChain erklärt, mithilfe eines Composite Backends erreicht.

Interaktion mit dem Agenten über Langsmith Studio

LangChain demonstriert die Ausführung des Agenten mit Langgraph dev, wodurch Langsmith Studio gestartet wird – eine Oberfläche für Interaktion und Beobachtung. Wichtige Ansichten umfassen:

  • Graph View: Laut LangChain visualisiert diese Ansicht die Architektur des Agenten, zeigt Middleware für Memory und Tool Calls sowie den Kern-Loop der Model Tools.
  • Chat View: Eine einfache Oberfläche für die direkte Interaktion mit dem Agenten.
  • Reasoning Blocks & Tool Calls: LangChain betont, dass diese Oberfläche tiefe Einblicke in die internen Denkprozesse und ausgeführten Befehle des Agenten bietet.

Agenten-Fähigkeiten in Aktion

Die Demonstration zeigt mehrere Agenten-Fähigkeiten:

  • Befehlsausführung: LangChain illustriert, wie der Agent Systembefehle wie uname -a und python3 --version innerhalb der Sandbox ausführt.
  • Code-Generierung und -Ausführung: Der Agent schreibt und führt erfolgreich ein Python-Skript aus, um Statistiken über Zufallszahlen zu generieren.
  • Durchsetzung der Sicherheitsrichtlinien: LangChain testet die Sicherheitsfunktionen von Open Shell, indem es den Agenten anweist, eine POST-Anfrage an evil.com zu senden. Wie erwartet wird die Anfrage blockiert, was den policy-governed Netzwerkzugriff der Sandbox bestätigt.
  • Persistente Memory-Updates: Der Agent aktualisiert seine agent.md-Datei, um „Spanisch zu sprechen“, und demonstriert, wie Memory außerhalb der Sandbox existieren und über Sessions hinweg persistent sein kann, wie von LangChain hervorgehoben.

Die Zukunft von Open-Source-Agenten

LangChain schließt mit der Äußerung großer Begeisterung für die Zukunft dieser Open-Source-Agenten-Grundlage. Sie erwarten weitere Investitionen in Deep Agents, mit Plänen für Features wie Async Subagents und diverse Execution Environments. LangChain freut sich auch auf weitere Verbesserungen bei Nvidia Open Shell, insbesondere dessen Integration mit GPU-accelerated Boxen, um Agenten mit komplexen Data Processing Capabilities auszustatten. Die Zukunft von Open-Source-Models, so LangChain, bleibt ein wichtiger Bereich der Begeisterung.

Um tiefer in die technischen Details einzutauchen und die vollständige Demonstration zu erleben, ermutigt LangChain die Leser, das Originalvideo anzusehen.


Dieser Artikel basiert auf einem Video von LangChain. Source: Open Models, Open Runtime, Open Harness – Building your own AI agent with LangChain and Nvidia

External Intelligence

LangChain

Open Models, Open Runtime, Open Harness - Building your own AI agent with LangChain and Nvidia

Watch on YouTube

Further Reading