Lokale Variante für sensible Inhalte
Wenn Dokumenteninhalte das Unternehmen nicht verlassen dürfen, wird die Architektur auf lokale Verarbeitung ausgelegt: lokale Connectoren, lokaler Index, lokaler MCP-Server und lokales LLM.
Sicherheit
MCP Core plant KI-Infrastruktur so, dass Quellen, Rechte, Index, Modellanfrage und Betrieb voneinander getrennt bewertet werden. Dadurch wird klar, welche Daten wo verarbeitet werden und welche Variante zum Schutzbedarf passt.
Kontrollpunkte
Rechte, Quellen, Datenklasse und Zweck werden vor der Modellanfrage bewertet. Danach bleiben Quellen, verwendete Auszüge und Logs nachvollziehbar.
Datenkontrolle
Entscheidend ist nicht nur das Modell, sondern der Weg dorthin: Welche Quelle darf genutzt werden, welche Person fragt an, welche Auszüge sind nötig und wo findet die Modellverarbeitung statt?
Wenn Dokumenteninhalte das Unternehmen nicht verlassen dürfen, wird die Architektur auf lokale Verarbeitung ausgelegt: lokale Connectoren, lokaler Index, lokaler MCP-Server und lokales LLM.
Wenn OpenAI API eingesetzt wird, bleiben Originaldateien und Index lokal. Für Antworten können jedoch ausgewählte Textpassagen an OpenAI gehen. Dieser Unterschied wird technisch und fachlich klar festgehalten.
Quellen werden bewusst ausgewählt und technisch angebunden
Nutzer- und Rollenrechte fließen in die Antwortlogik ein
Suchindex, Originaldateien und Modellanfrage werden getrennt betrachtet
Für lokale Setups mit Ollama bleiben Dokumenteninhalte im Unternehmen
Bei OpenAI-Nutzung werden Datenflüsse und übertragene Textauszüge dokumentiert
Logging und Tests machen Verhalten und Berechtigungen prüfbar
Kontakt
Ein Erstgespräch klärt Ziel, Datenquellen, Schutzbedarf und den passenden Einstieg. Das Formular ist bewusst kurz gehalten.