Voll lokal
MCP Server, Index und Ollama im Unternehmen
Architektur
Ob vollständig lokal mit Ollama, hybrid mit OpenAI API oder gehostetes Cockpit mit lokalem Connector: Entscheidend sind klare Datenflüsse, Rechteprüfung und ein Betriebsmodell, das zum Unternehmen passt.
Architekturentscheidung
Die Architektur wird nach Schutzbedarf, Antwortqualität, Betrieb und Wartbarkeit entschieden. Sensible Inhalte können lokal bleiben, weniger kritische Workflows können hybrid umgesetzt werden.
MCP Server, Index und Ollama im Unternehmen
lokale Quellen, freigegebene Chunks an OpenAI
Frontend gehostet, Connector beim Kunden
Betriebsmodelle
Nicht jedes Unternehmen braucht dieselbe Architektur. Entscheidend ist, welche Daten verarbeitet werden, wer zugreifen darf und ob Inhalte das Unternehmen verlassen dürfen.
Originaldateien und lokaler Suchindex bleiben im Unternehmen. Für konkrete Antworten werden nur relevante, freigegebene Chunks und die Anfrage an die OpenAI API übertragen.
MCP-Server, Connectoren, Index, Rechteprüfung und Modellinferenz laufen lokal. Dokumenteninhalte verlassen die Unternehmensumgebung nicht.
Das Cockpit kann gehostet werden, während Connector, Index und Datenzugriff im Kundennetz oder im eigenen Mandanten bleiben.
Kontakt
Ein Erstgespräch klärt Ziel, Datenquellen, Schutzbedarf und den passenden Einstieg. Das Formular ist bewusst kurz gehalten.