Mithilfe von KI: Spezifikationen für Bauteile der Automobilindustrie bewerten und verwalten

Die Automobilbranche steht vor wachsenden Herausforderungen bei der Bewertung von Spezifikationen und Anforderungen für Automobilteile. Traditionelle manuelle Bewertungsmethoden sind zeitaufwendig und arbeitsintensiv. Der Einsatz von Large Language Models (LLMs) bietet nun eine effiziente Lösung, um Spezifikationen automatisch zu analysieren und potenzielle Probleme oder Inkonsistenzen zu finden. Dadurch können Zeit und Ressourcen eingespart werden, während die Qualität und Genauigkeit der Bewertung verbessert werden.

LLMs zur Optimierung eines Prozesses ohne Qualitätsverlust

Automobilzulieferer stehen einem zentralen Problem gegenüber: der enormen Anzahl von zu bewertenden Spezifikationen. Da hoch spezialisierte Ingenieur:innen und Produktmanager:innen tausende Spezifikationen pro Monat überprüfen müssen, entstehen hohe Kosten und Verzögerungen in Produktionsabläufen.

Die Automatisierung dieses Prozesses gestaltet sich äußerst schwierig, da die fachlich geprägte Sprache in den Spezifikationen eine Hürde darstellt. Beispielsweise bleibt für Laien oft unklar, worum es bei Anforderungen wie „Die Bauteilintegration muss eine Mindestspezifikation von 0,001 Mikrometer für die Oberflächenrauheit aufweisen und eine thermische Stabilität von –40 °C bis 120 °C bei einer Rate von 100 °C pro Sekunde gewährleisten“ genau geht.

Herkömmliche automatisierte Ansätze, wie zum Beispiel regelbasierte Systeme, sind nicht in der Lage, die erforderliche Präzision und Kontextualisierung zu liefern. Vor diesen Herausforderungen stehend erscheint der Einsatz von Large Language Models als eine vielversprechende Lösung, weil LLMs in den letzten Jahren drastische Verbesserungen im Verständnis natürlicher Sprache erzielt haben und die korrekte Bewertung aufgrund von vergangenen Daten erlernen können.

Analyseplattform mit individuell trainiertem Sprachmodell

  • Es wurde eine unternehmensweit nutzbare Plattform gemeinsam mit dem Automobilzulieferer entwickelt, auf der die Spezifikationen digitalisierter Lastenhefte bewertet und analysiert werden können. Durch die internationale Ausrichtung des Konzerns profitieren Standorte weltweit von der Lösung.
  • Kern der Plattform ist eine Web-Anwendung, basierend auf einer Microservice-Architektur. Die Anwendung ist per API-Schnittstellen an eine Datenbank angebunden, auf der die Lastenhefte digital verwaltet werden. Die Microservices verwenden ein Sprachmodell, das die Anforderungen in den Lastenheften in Klassen einordnet, Änderungen in den Formulierungen erkennt und mitgeltende Unterlagen verlinkt.
  • Das Sprachmodell basiert auf Googles LLM BERT (Bidirectional Encoder Representations from Transformers) und wurde auf bereits bewertete Spezifikationen nachtrainiert. Auf diese Weise erlernte das Modell fachspezifisches Vokabular und Bewertungskriterien, nach denen es die Anforderungen klassifizieren kann.

Arbeitsaufwand im Produktmanagement konnte um das 20- bis 50-fache reduziert werden

  • Durch den Einsatz des LLM konnte die Bewertung von Lastenheften erheblich optimiert werden. Die manuelle Bewertung durch Anforderungsmanager und Produktteams dauerte 21 bis 30 Tage, während die KI nur einen Tag benötigt.
  • Mit dem Prozess verbundene Kosten konnten ebenfalls um ein Vielfaches reduziert werden. Die monatlichen Kosten für die vollständige manuelle Bewertung mehrerer Lastenhefte betragen rund 50.000 €. Die automatisierte Bewertung durch die KI beträgt etwa 1.000 € pro Monat, inklusive Support und Pflege.
  • Ergebnisse zeigten, dass die KI eine hohe Genauigkeit bei der Klassifikation erreicht, teils übertraf sie sogar die menschlichen Verantwortlichen.

Unsere Leistungen

  • Requirements Engineering
  • agile Softwareentwicklung
  • Erstellung von Proof-of-Concepts
  • Weiterentwicklung und Evaluierung von Sprachmodellen
  • Begleitung des Machine-Learning-Lebenszyklus von der Problembeschreibung bis zur Modellüberwachung
  • Entwicklung von Automatisierungsmodulen
  • Erstellung von Datenvorverarbeitungs- und Trainings-Pipelines

Eingesetzte Technologien

  • Python (Pandas, Huggingface, PyTorch)
  • REST, FastAPI, Swagger
  • Azure DevOps
  • Azure ML
  • Azure Kubernetes Service (AKS)

Modulare Erweiterung der Features

Nach der Entwicklung der Webplattform ließen sich die Services per API-Endpunkte aufrufen. In enger Abstimmung mit den Anforderern, dem Produktmanagement des Automobilzulieferers, wurden die bestehenden Features auf die Bedürfnisse der Produktteams zugeschnitten.

Durch die Umsetzung als Microservices werden auch neue Features hinzugefügt, ohne die Produktivität und Wartbarkeit der Bestehenden zu gefährden. Eine Aufteilung in Microservices ist auch für den Entwicklungsprozess naheliegend, weil die Features in unabhängigen Teams entwickelt werden. Die Plattform erhält dadurch nach und nach mehr ausgereifte Funktionen, mit denen eine Vielzahl von Lastenheften analysiert und bewertet werden.

Und was können wir für Sie tun?