
Interne KI
Wissensmanagement
RAG
Interner KI-Chat macht komplexes Sensorik-Wissen in Sekunden nutzbar
ME-Messsysteme bündelt Produkt- und Entwicklungswissen in einem internen KI-Chat. Mitarbeiter:innen finden Datenblätter, Anschlussdetails und Fachwissen in Sekunden. Antworten bleiben nachvollziehbar, weil Quellen verlinkt sind. So sinken Weiterleitungen, und Reaktionszeiten im Alltag werden kürzer.
Kunde
ME-Meßsysteme ist ein mittelständischer Technologieführer für 3D/6D-Kraft-Moment-Sensorik.
ME Meßsysteme ist ein mittelständischer Technologieführer für Sensorik und Auswerteelektronik mit eigenem Kalibrierlabor. Entwicklung und Fertigung erfolgen in Deutschland, nahe Berlin, am Standort Hennigsdorf. Die Produkte finden sich nahezu Überall z.B. zur Steuerung in Operationsrobotern, Robotern in hochautomatisierten Fertigungsstraßen sowie durch die Luft- und Raumfahrt sogar im Weltall.
Ausgangssituation:
Komplexes Wissen. Im Alltag schwer auffindbar.
- Kritisches Wissen ist personengebunden und verteilt auf wenige Schlüsselpersonen
- Expert:innen werden von Anfragen und E-Mails überrollt und sind schwer verfügbar
- Support- und Vertriebsfragen wandern durch mehrere Stationen, bis jemand antworten kann
- Technische Details liegen tief in Datenblättern, Wiki und Entwicklungsdokumenten
- Ohne zentralen Zugang suchen Teams lange oder fragen direkt bei Einzelpersonen nach
- Externe KI-Nutzung birgt Abflussrisiken für interne Informationen
- Viele Nutzer:innen, aber kein einheitlicher KI-Standard im Unternehmen
Wissensbasis für ME-Wissen aufgebaut
Wir bündelten verteiltes Produkt- und Prozesswissen in einer strukturierten Wissensbasis. So werden Antworten auch dann möglich, wenn Schlüsselpersonen nicht erreichbar sind. Quellen bleiben verlinkt und prüfbar.
- Datenblätter, Website-Inhalte und interne Doku zentral eingebunden
- Wiki und HubSpot-FAQs in ein einheitliches Wissensbild überführt
- Informationen so aufbereitet, dass sie schnell auffindbar sind
- Antworten immer mit Quellenlinks für schnelle Prüfung
- Ergebnis: weniger Nachfragen bei Expert:innen, schnellere Reaktionszeiten

Domainspezifische „Sensors.AI“ getrennt bereitgestellt
Wir schufen eine zweite Wissensbasis nur für Sensorik und Messtechnik. Sie bleibt bewusst getrennt vom Alltagswissen. So wird Entwicklungswissen nutzbar, ohne es zu streuen.
- Fachbücher, Veröffentlichungen und interne Entwicklungspapiere integriert
- Separater Wissensraum getrennt ansteuerbar gemacht
- Nutzung nur bei Bedarf oder in speziellen Agents erlaubt
- Schwerpunkt auf belegbarer, erklärbarer Fachauskunft gelegt
- Ergebnis: starke Unterstützung in Entwicklung, bei klarer Zugriffskontrolle
Highlight
Agents für klare Anwendungsfälle eingerichtet für über 50 Nutzer:innen
Wir richteten mehrere Agents für konkrete Aufgaben ein. So starten Mitarbeiter:innen schnell im richtigen Modus. Das reduziert Fehlbedienung und steigert Qualität.
- ME Expert Wissen für Datenblätter und technische Details
- ME Expert Arbeit für Texte, Briefings und Aufgabenableitung
- ME Expert E-Mail für Entwürfe mit Betreff und Struktur
- ME Expert Entwicklung für komplexe Berechnungen und Tiefe
- Zugriffe je Agent auf passende Wissensräume begrenzt
- Ergebnis: weniger Weiterleitungen, konsistente Antworten je Anwendungsfall


Zusammenarbeit und Teilen im Tool ermöglicht
Wir machten den Chat zu einem gemeinsamen Arbeitsraum. Wissen bleibt nicht im Einzelchat hängen. Ergebnisse werden auffindbar und wiederverwendbar.
- Chats automatisch sortiert und in Ordnern organisierbar gemacht
- Chats zwischen Mitarbeiter:innen teilbar gestaltet
- Channels für Coworking&Fachthemen wie Elektronik oder Konstruktion aufgesetzt
- KI kann in Diskussionen gezielt hinzugerufen werden
- Notizen anlegbar und teilbar für wiederkehrende Aufgaben
- Ergebnis: schnelleres Abstimmen, weniger Kontextverlust im Team
Qualität durch Feedback und Nachschärfung gesichert
Wir etablierten Feedback direkt an jeder Antwort. So wird sichtbar, wo Wissen fehlt. Prompts und Inhalte werden gezielt nachgeschärft.
- Daumen hoch/runter zur schnellen Bewertung aktiviert
- Schlechte Antworten systematisch analysiert
- Prompts und Agent-Regeln gezielt nachjustiert
- Fehlendes Wissen als Content-Aufgabe identifiziert
- Fokus auf belegte Antworten ohne Zusicherungen gelegt
- Ergebnis: Die KI wird im Betrieb besser, statt nur einmal „ausgerollt“ zu werden. Das reduziert Halluzinationen im Alltag und schafft eine belastbare Grundlage für spätere Automatisierung.
KI-Einsatz sicher skaliert – mit Governance, Zugriffssteuerung und belegbaren Antworten
Wir stellten den KI-Chat intern und datenschutzkonform bereit. So fließt kein Wissen in externe Tools ab. Gleichzeitig bleibt steuerbar, wer was nutzen darf. Vorkonfigurierte Agents geben Orientierung und verhindern Fehlanwendungen.
- Datenschutzkonforme Bereitstellung / kein Datenabfluss
- Kontroll- und Governance-Möglichkeiten
- Guidance über vorkonfigurierte Agents
- Komplexe Nutzer- und Rechtesteuerung
- Intelligente Retrieval-Logik: mehrere Suchanfragen/Queries pro Frage, liest bei Bedarf viele Quellen (z. B. 5–60)
- Quellenbasierte, „belegbare“ Antworten (Explainable/Traceable: Quellen per Link einsehbar)
Unzählige weitere Funktionen, die den Alltag spürbar erleichtern
Open WebUI ist nicht nur ein KI-Chat. Es ist eine Arbeitsoberfläche für Wissen, Inhalte und Zusammenarbeit. Neben Recherche und Antworten unterstützt es verschiedene Medienformate, Teamarbeit und Qualitätssteuerung. So wird die KI im Alltag nutzbar, auch für Mitarbeiter:innen ohne KI-Routine, und lässt sich gleichzeitig sauber skalieren und wirtschaftlich betreiben.






- Speech-to-Text (STT) / Inhalte aufsprechen
- Konversation mit der KI (Voice-/Dialog-Interaktion)
- Upload & Verarbeitung von PDFs
- Bildfunktionen (Bilder auslesen, Bilder generieren)
- Internet-Suche (aktivierbar)
- Code-Fähigkeiten (Code erzeugen & interpretieren, je nach Modell/Setup)
- Chat-Organisation & Zusammenarbeit
- Chats sinnvoll benennen, in Ordner verschieben
- Chats zwischen Mitarbeitenden teilen/referenzieren
- Notizen erstellen & teilen
- Channels/Arbeitsräume für Teams (z. B. Konstruktion, Elektronik) inkl. KI „dazuholen“ per Markierung
- Prompt-Assist/Prompt-Rewrite (Unterstützung für Nicht-KI-Natives beim Formulieren)
- Feedback- & Evaluationsmechanismus (Daumen hoch/runter) zur Qualitätsmessung und zum gezielten Nachschärfen von Prompts & Wissensbestand
- Mechanismus für Folgefragen (führt Nutzer durch Themen, triggert erneut Wissensabfragen)
- Skalierbarer Rollout für ca. 50 Mitarbeitende (Pay-per-Use statt viele Einzelaccounts)
- Kostenkontrolle durch nutzungsbasierte Abrechnung statt flächendeckender ChatGPT-/SaaS-Lizenzen
Weniger Komplexität, mehr Abschlussstärke
Kürzere Reaktionszeiten im Tagesgeschäft
Anfragen landen seltener in internen Weiterleitungsketten. Vertriebs- und Supportteams kommen schneller zu belastbaren Fakten. Das senkt Wartezeiten für Kund:innen und entlastet Expert:innen, weil Standardfragen direkt beantwortet werden.
Anfragen landen seltener in internen Weiterleitungsketten. Vertriebs- und Supportteams kommen schneller zu belastbaren Fakten. Das senkt Wartezeiten für Kund:innen und entlastet Expert:innen, weil Standardfragen direkt beantwortet werden.
Sicherer KI-Einsatz ohne Datenabfluss
Mitarbeiter:innen nutzen einen internen Chat statt verteilter Einzelaccounts. Sensibles Wissen bleibt im Unternehmen und ist je Agent steuerbar. Das schafft Kontrolle über Quellen, Nutzung und Weiterentwicklung der Wissensbasis.
Mitarbeiter:innen nutzen einen internen Chat statt verteilter Einzelaccounts. Sensibles Wissen bleibt im Unternehmen und ist je Agent steuerbar. Das schafft Kontrolle über Quellen, Nutzung und Weiterentwicklung der Wissensbasis.
Mehr Produktivität durch direkten Wissenszugang
Datenblätter, Anschlussbelegungen und technische Spezifikationen sind in Sekunden verfügbar. Teams müssen nicht mehr durch viele Seiten und Dokumente navigieren. Das hilft besonders bei häufigen Fragen und bei neuen Kolleg:innen.
Datenblätter, Anschlussbelegungen und technische Spezifikationen sind in Sekunden verfügbar. Teams müssen nicht mehr durch viele Seiten und Dokumente navigieren. Das hilft besonders bei häufigen Fragen und bei neuen Kolleg:innen.
MORGEN Leistung
Unternehmensstrategie
Organisationsentwicklung
Unsere Leistung: Interne KI mit Wissensdatenbank sicher im Alltag verankert
Wissensbasis aufgebaut und laufend erweitert: Wir machten verteiltes Produkt- und Prozesswissen auffindbar. Datenblätter, Wiki und interne Doku wurden in eine nutzbare Wissensbasis überführt. Antworten sind schnell prüfbar, weil Quellen verlinkt bleiben.
Schlüsselpersonen entlastet und Reaktionszeiten verkürzt: Wir reduzierten Weiterleitungen und Rückfragen an wenige Expert:innen. Vertrieb und Support finden Fakten selbst. Das senkt Unterbrechungen in Entwicklung und Produktmanagement.
Agents vorkonfiguriert und Nutzung geführt: Wir richteten Agents für klare Aufgaben ein. So starten Mitarbeiter:innen im richtigen Modus. Das verbessert Qualität und sorgt für konsistente Ergebnisse je Anwendungsfall.
Governance, Rechte und Datenschutz gesichert: Wir stellten die KI intern bereit und steuerten Zugriffe sauber. Rollen und Rechte schützen sensible Wissensräume. So bleibt Wissen im Unternehmen, ohne Datenabfluss in private Accounts.
Belegbarkeit und Retrieval-Logik umgesetzt: Wir sorgten für nachvollziehbare Antworten mit Quellenlinks. Die KI stellt mehrere Suchanfragen pro Frage und liest bei Bedarf viele Quellen. So steigt Trefferquote und Vertrauen in Ergebnisse.
Rollout wirtschaftlich skalierbar gemacht: Wir machten den Einsatz für rund 50 Mitarbeiter:innen möglich. Die Kosten bleiben steuerbar durch nutzungsbasierte Abrechnung. So entsteht Nutzen ohne Lizenzexplosion.
