Niologic GmbH
In 30 Tagen zur 96%-Genauigkeit: Open‑Source‑KI für Versicherungssoftware
Niologic benchmarkte 10 Open‑Source‑Modelle auf 250 Testfällen und steigerte die Erkennungsrate von 70% auf 96%. Ergebnis: eine belastbare Vergleichsmatrix und prompt-optimierte Architektur, die den Einsatz bei Versicherungskonzernen ermöglicht.
Messbare Ergebnisse auf einen Blick
Transparente Benchmarks mit klaren Kennzahlen: Genauigkeit spürbar erhöht, Modelle und Testfälle systematisch evaluiert – Grundlage für sichere Produktentscheidungen und Integration in die Rechenzentren der Versicherungen.
Ein führender Anbieter von Spezialsoftware für Versicherungskonzerne wollte KI-Funktionen integrieren – jedoch On‑Prem, da viele Kunden aufgrund von Altverträgen keine Cloud nutzen dürfen und Auftragsdatenverarbeitung komplex ist. Es fehlte eine belastbare Entscheidungsgrundlage, welches Open‑Source‑KI‑Modell sich fachlich eignet und in Rechenzentren der Versicherer betreibbar ist.
Die vorhandenen Optionen waren vielfältig, aber nicht vergleichbar. Ohne standardisierte Testdaten drohten Scheinvergleiche und Fehlinvestitionen. Zudem war unklar, wie stark sich Prompt‑Architektur und Context‑Engineering auf die Erkennungsrate auswirken.
Niologic setzte auf einen AI Design Sprint, um gemeinsam mit dem Kunden einen klaren Use Case zu definieren und standardisierte Testdaten zu erstellen. So entstand eine realistische und reproduzierbare Grundlage für einen fairen Modellvergleich – die Voraussetzung für fundierte Produktentscheidungen und zügige Integration. Durch eine zentrale Test-Plattform konnten die Tests standardisiert ablaufen und eine Vergleichbarkeit geschaffen werden.
Ziel war eine transparente, reproduzierbare Bewertung von Open‑Source‑KI‑Modellen für einen konkreten Use Case aus dem Versicherungsmakler‑Umfeld. Dafür sollten standardisierte Testdaten bereitstehen und 10 Modelle auf jeweils 250 Testfällen verglichen werden. Zusätzlich sollten System‑Prompts und Context‑Engineering so optimiert werden, dass die Genauigkeit messbar steigt.
Erfolg war definiert als: belastbare Vergleichsmatrix inkl. Prompt‑Architekturen, signifikante Steigerung der Erkennungsrate gegenüber dem Ausgangsniveau und eine klare Empfehlung für Modelle, die sich On‑Prem im Rechenzentrum der Versicherer betreiben lassen.
Die Benchmarks auf 10 Open‑Source‑Modellen und je 250 standardisierten Testfällen machten die Leistungsfähigkeit transparent. Durch gezieltes Prompt‑Engineering und die Auswahl des passenden Modells stieg die Erkennungsrate von 70% auf bis zu 96%.
Neben der quantitativen Verbesserung erhielt der Kunde:
- Eine Vergleichsmatrix über Modelle, Prompt‑Architekturen und Context‑Engineering – als belastbare Entscheidungsgrundlage
- Eine reproduzierbare Testumgebung mit standardisierten Daten – jederzeit erweiterbar
- Klarheit, welche Open‑Source‑Modelle sich On‑Prem bei Versicherern betreiben lassen
- Handlungssicherheit für die Roadmap und Freiraum, sich auf die weitere Softwareentwicklung zu konzentrieren
So konnte der Anbieter zügig smarte Services planen, ohne Compliance‑Risiken einzugehen.
Planen Sie den Betrieb von KI im eigenen Rechenzentrum?
Lassen Sie uns Ihren Use Case schärfen, Testdaten aufsetzen und Open‑Source‑Modelle ausrollen. Mit Niologics AI Design Sprint und Benchmarking treffen Sie Investitionsentscheidungen auf Evidenzbasis und integrieren KI schneller in Ihr Produkt.
Weitere Fallstudien von Niologic GmbH
Finde heraus, wie Niologic GmbH weiteren Kunden geholfen hat, ihre Ziele zu erreichen.
Möchtest du mit Niologic GmbH deine Ziele erreichen und erfahren, wie die Zusammenarbeit aussehen kann? Fülle jetzt das Kontaktformular aus, um den nächsten Schritt zu gehen.