Architektur

KI-Infrastruktur, die zu Ihren Datenregeln passt.

Ob vollständig lokal mit Ollama, hybrid mit OpenAI API oder gehostetes Cockpit mit lokalem Connector: Entscheidend sind klare Datenflüsse, Rechteprüfung und ein Betriebsmodell, das zum Unternehmen passt.

Architekturentscheidung

Nicht jede Datenquelle gehört in denselben KI-Pfad.

Die Architektur wird nach Schutzbedarf, Antwortqualität, Betrieb und Wartbarkeit entschieden. Sensible Inhalte können lokal bleiben, weniger kritische Workflows können hybrid umgesetzt werden.

Schutzbedarf prüfen

Dokumententyp
Nutzerrolle
Datenklassifizierung
Zweck der Anfrage

Voll lokal

MCP Server, Index und Ollama im Unternehmen

1

Hybrid

lokale Quellen, freigegebene Chunks an OpenAI

2

Cockpit gehostet

Frontend gehostet, Connector beim Kunden

3
Ergebnis: ein Betriebsmodell, das zu Datenklasse und Use Case passt.

Betriebsmodelle

Drei sinnvolle Wege, abhängig von Schutzbedarf und Betrieb.

Nicht jedes Unternehmen braucht dieselbe Architektur. Entscheidend ist, welche Daten verarbeitet werden, wer zugreifen darf und ob Inhalte das Unternehmen verlassen dürfen.

Hybrid mit OpenAI API

Originaldateien und lokaler Suchindex bleiben im Unternehmen. Für konkrete Antworten werden nur relevante, freigegebene Chunks und die Anfrage an die OpenAI API übertragen.

Voll lokal mit Ollama

MCP-Server, Connectoren, Index, Rechteprüfung und Modellinferenz laufen lokal. Dokumenteninhalte verlassen die Unternehmensumgebung nicht.

Cloud-Cockpit mit lokalem Connector

Das Cockpit kann gehostet werden, während Connector, Index und Datenzugriff im Kundennetz oder im eigenen Mandanten bleiben.

Kontakt

Lassen Sie uns prüfen, wie Ihre Unternehmensdaten sicher mit KI nutzbar werden.

Ein Erstgespräch klärt Ziel, Datenquellen, Schutzbedarf und den passenden Einstieg. Das Formular ist bewusst kurz gehalten.

Einordnung zu lokal, hybrid oder OpenAI API
technische Bewertung Ihrer Datenquellen
nächster Schritt für Pilot oder Umsetzung
Art der Anfrage