KI

Dokumenten-Chat mit lokalem KI-Modell

Fullstack-Entwickler

Interaktive Chat-Anwendung, die es Nutzern ermöglicht, Fragen an einen Bestand von Unternehmensdokumenten zu stellen und präzise, quellenbasierte Antworten zu erhalten. Sämtliche KI-Verarbeitung erfolgt lokal.

Technische Highlights

  • Lokales LLM (Ollama): Keine externen API-Aufrufe — volle Datensouveränität und DSGVO-Konformität
  • RAG: Dokumente als Embeddings indexiert, relevanteste Passagen als Kontext für das LLM
  • Blazor WASM: Reaktive Chat-Oberfläche mit Echtzeit-Streaming
  • Fluxor State Management für Chat-Verlauf und UI-Zustand
  • MediatR Pipeline für Dokumenten-Upload, Embedding-Generierung und Chat-Anfragen

Tech-Stack

Blazor WASMOllamaFluxorMediatRLLMRAG

Was dieses Projekt zeigt

Praktische Erfahrung mit LLMs, RAG-Architekturen, Vektordatenbanken und datenschutzkonformer KI-Implementierung.

Ähnliches Projekt geplant?

Kontakt aufnehmen

Rejoining the server...

Rejoin failed... trying again in seconds.

Failed to rejoin.
Please retry or reload the page.

The session has been paused by the server.

Failed to resume the session.
Please reload the page.