Ausgangsszenario: Ausschreibungen effizient und transparent bewerten
Die Entscheidung über eine Teilnahme an einer Ausschreibung wirft zentrale Fragen auf:
- Passt das Thema zur strategischen Ausrichtung und zum Leistungsportfolio?
- Welche Fähigkeiten und Erfahrungen werden gefordert?
- Sind diese Kompetenzen intern vorhanden – und auf welchem Niveau?
- Stehen ausreichend Ressourcen zur Verfügung?
- Wurden bereits ähnliche Projekte oder Services durchgeführt, die als Referenz dienen?
In der Praxis werden diese Informationen häufig manuell aus unterschiedlichen Dokumenten, CVs und Datenbanken zusammengesucht. Das ist zeitaufwendig, fehleranfällig und kaum skalierbar. Ziel unseres Projekts war es daher, diesen Prozess weitgehend zu automatisieren und gleichzeitig Transparenz sowie Compliance sicherzustellen.
Architekturidee: Semantik als verbindendes Element
Der Kern der Lösung ist eine Architektur, die strukturierte Unternehmensdaten mit unstrukturierten Texten verbindet. Dazu kombinieren wir drei zentrale Konzepte:
- Knowledge Graphen, um Mitarbeiter, Skill und Projektdaten semantisch zu strukturieren
- Vektor Embeddings, um die Bedeutung von Ausschreibungen, Lebensläufen und Kompetenzbeschreibungen vergleichbar zu machen , um die Bedeutung von Ausschreibungen, Lebensläufen und Kompetenzbeschreibungen vergleichbar zu machen
- LLMs, um Inhalte zu interpretieren, zu klassifizieren und kontextualisiert zu verarbeiten. Auswahl des bestmöglichen LLMs, um Stärken und Schwächen der Modelle auszutesten.
Diese Kombination ermöglicht eine hybride Suche nach Fakten und Bedeutungen. Unstrukturierte Texte werden maschinenverständlich, während strukturierte Daten ihren semantischen Kontext behalten. Gleichzeitig entstehen erklärbare Ergebnisse – ein entscheidender Faktor für Vertrauen in KI-gestützte Entscheidungen.
Umsetzung mit SAP-Technologien
Die Anwendung wurde mit dem SAP Cloud Application Programming Model (CAP) umgesetzt. CAP fungiert als Integrationsschicht und bindet die relevanten SAP Services nahtlos ein. Zum Einsatz kamen diese Komponenten von SAP Business AI:
- HANA Cloud als zentrale Datenplattform
- Knowledge Graph Engine (KGE) für semantische Beziehungen
- Vector Engine (VE) für Embeddings und Ähnlichkeitssuchen
- AI Core und das AI Launchpad für die Orchestrierung von LLMs (Generative AI Hub)
Die Anwendung läuft als Service in einer CloudFoundryUmgebung. Alle Services werden über Standard Service Bindings angebunden, sodass Konfigurationen und Zugangsdaten automatisiert bereitgestellt werden. Dieses Setup sorgt für eine klare Trennung von Datenhaltung, semantischer Verarbeitung, KI-Workflows und Anwendungslogik.
Knowledge Graphen: Struktur für erklärbare KI
Knowledge Graphen speichern Informationen nicht in Tabellen, sondern als Entitäten und Beziehungen. Statt impliziter Joins entsteht ein explizites Netz miteinander verknüpfter Fakten – ideal zur Abbildung komplexer Zusammenhänge.
Grundlage ist eine Ontologie, die definiert:
- welche Entitäten existieren (z. B. Personen, Skills, Projekte),
- wie sie miteinander in Beziehung stehen,
- welche Hierarchien, Regeln und Constraints gelten.
Die Daten werden als RDF-Tripel (Subjekt – Prädikat – Objekt) gespeichert und über SPARQL abgefragt. Im Vergleich zu SQL beschreibt SPARQL keine festen Join-Strukturen, sondern semantische Muster. Das macht es besonders geeignet für dynamische, KI-gestützte Abfragen.
Ein wesentlicher Vorteil: Die Knowledge Graph Engine in Kombination mit der Vector Engine stellen LLMs verifizierbare Unternehmensfakten bereit und reduzieren damit Halluzinationen deutlich – ein echter Gamechanger für Compliance kritische Szenarien.