Beim Extruder am Ruder: Big Data für Prozesskontrolle und Predictive Quality

„Panta rhei“: alles fließt! Diese Lehre der griechischen Philosophie gilt heute auch für viele Herstellungsverfahren. Etwa bei der Produktion von Kunststoffgranulat – einem flüssigen und „hermetischen“ Vorgang unter Zufuhr von reichlich Hitze und Druck. Qualitätskontrolle war da bisher nur mit Stichproben möglich. Smart Industry Framework schafft dagegen die Ausschussreduzierung durch Big Data in Real Time. Für Diagnosen und Prognosen im laufenden Produktionsprozess.

In letzter Konsequenz sind es schon immer zwei zentrale Forderungen, die zum Motiv für Veränderungen in einem Unternehmen werden: eine nachhaltige Kostensenkung und die langfristig gesicherte Produktqualität. Beides Vorteile, die heute auch „die Digitalisierung“ liefern muss, um als konkreter Mehrwert im praktischen Einsatz akzeptiert zu werden –
in der Entwicklung, in der Produktion und im künftigen Wettbewerb. Gelingen kann das zum Beispiel durch eine Rationalisierung von Produktionsmitteln in Verbindung mit der laufenden Analyse von Produktionsdaten. Den Schlüssel dazu bieten sogenannte „Operational Algorithms“ zur Datenbeschaffung und -analyse in Echtzeit als Basis für eine kontinuierliche Erkennung von Mustern. Oder kurz: ein Smart Industry Framework nach Maß. In diesem Fall als integrierte Prozesslösung zur konstanten Messung von Materialverbrauch, Qualität und Ausschuss mittels digitaler Regelwerke, die direkt in die Produktion einfließen.

Echtzeit zählt! Von „Push and Pull“ bis „End to End“.

Konstante Qualitätskontrolle als Grundlage einer signifikanten Ausschussreduzierung in der laufenden Fertigung verlangt zunächst eine Datenbeschaffung in Echtzeit. Und dabei geht es um weit mehr als nur um ein Reporting, das Daten persistiert – also über einen längeren Zeitraum speichert. Denn: Reportings formulieren zwar Abfragen, allerdings in großen Zeitabständen. In laufenden Produktionsprozessen dagegen sind kontinuierlich große Datenmengen gefragt. Erhoben und verarbeitet nach dem korrelativen Push and Pull-Prinzip und transportiert in Real Time über die Big Data-Plattform.

Eine wesentliche Voraussetzung für diese notwendige Datenbeschaffung in Echtzeit ist dabei in vielen Unternehmen bereits gegeben. Denn sie erfolgt in der Regel über eine meist schon vorhandene speicherprogrammierbare Steuerung der Produktionsanlage (SPS) mit Anbindung der Maschinen über Sensoren und Antriebselemente (Aktoren). Wobei die ohnehin reichlich anfallenden Sensordaten vom Smart Industry Framework quasi als „Abfallprodukt“ der Prozessdokumentation angezapft werden.

Auf OT- und IT-Ebene: Das passende Framework definiert „Smart Industry“.
Auf OT- und IT-Ebene: Das passende Framework definiert „Smart Industry“.

Anschließend gilt es im Sinne von klar formulierten Kontroll- und Prozessanweisungen eine „Syntax“ für das System zu entwickeln. Was letztlich Kybernetik in Reinkultur bedeutet: nämlich die unmittelbar situative Steuerung und Regelung von Maschinen bzw. ganzen Systemen. Entscheidend ist dafür der Einsatz von Message Brokern, um alle vorhandenen Informationen in die Big Data-Architektur zu übermitteln. Gute Erfahrungen in der praktischen Anwendung habe ich dabei mit diesen zwei Anbietern gemacht: MQTT (Message Queuing Telemetry Transport) als offenes Nachrichtenprotokoll für Machine to Machine-Kommunikation (M2M) zur Übertragung von Telemetriedaten – und OPC UA als industrielles M2M-Kommunikationsprotokoll. Wobei die neuesten OPC Versionen die Maschinendaten nicht nur transportieren, sondern dazu auch gleich maschinenlesbar semantisch beschreiben können. Schließlich mündet alles in einen End to End-Prozess mit zyklischem Performance-Monitoring aller für die Produktqualität relevanten Parameter und Produktionsfaktoren – vom Rohstoffeingang als erster Qualitätskontrolle über die kontinuierliche Überwachung der eigentlichen Fertigung bis hin zu Prognose-Modellen im Sinne der Predictive Quality. Das Ganze verbunden mit einer aussagekräftigen Darstellung auf übersichtlichen Dashboards an jeder gewünschten Position im Unternehmen.

Extruder-Extension für rund 5 % weniger Ausschuss.

Bei diesem konkreten Einsatzszenario ging es um eine nachhaltige Qualitätssicherung in der Fertigung von Kunststoffgranulat. Der Hersteller produziert dabei unterschiedliche Sorten anhand von spezifischen Rezepten. Die Steuerung der Anlage sorgt dabei zwar dafür, dass alle Toleranzen eingehalten werden – trotzdem entstanden immer wieder Chargen niedriger Qualität bis hin zu Ausschuss. Und besonders ärgerlich: Die Ergebnisse der Stichproben aus dem Labor lagen erst vor, als die Ware bereits auf dem Weg zum Abnehmer war. Als erste Zielvorgabe für das Smart Industry Framework wurde daher die schnellere Identifikation von fehlerhaften Produkten festgelegt. Die Lösung: Eine kontinuierliche Erfassung der Produktionsprozessdaten, um die Sensorwerte, die zu minderer Granulat-Qualität führen sowie weitere ausschlaggebende Wechselwirkungen der Sensordaten zu analysieren.

Im Ergebnis steht, arbeitet und wirkt beim Kunden jetzt die Architektur eines Regelwerks, das live in den Produktionsprozess integriert ist. Darüber hinaus lässt sich das gesamte Fertigungsverfahren jederzeit auf Grundlage der gesammelten Erkenntnisse anpassen oder modifizieren. Und auch diese Bilanz überzeugt: Durch den Einsatz eines Machine Learning Tools gelang es schon sehr schnell, den Ausschuss bei der Produktion von Granulat um mehr als 4,8 % zu verringern.      

Laufend besser: Optimierung durch Machine Learning.

Die weitere Verfeinerung der Big Data Analyse bildet dann eine Musterkennung aus den Daten: wo treten abnormale Werte auf, ab wann droht Verschleiß, an welchem Glied der Produktionskette nimmt ein Schaden seinen Anfang etc. Dafür müssen allerdings reichlich Daten gespeichert werden – und das braucht Power im Netzwerk. Je nach „Philosophie“ der Anwender lassen sich diese Kapazitäten aber beispielsweise auch günstig in die Cloud auslagern. Predictive Quality ist nun der nächste Schritt. Und hier geht es darum, die Daten aus den relevanten Datenquellen richtig zu analysieren. Unter andere mit dem Abgleich statistischer Modelle bei der Gegenüberstellung von Labor- und Prozessdaten.

Hier empfiehlt sich auch eine sogenannte Lambda Architektur im Big Data-Umfeld.  Der Aufbau dieser Lambda-Architekturen besteht aus einem zentralen Eintrittspunkt ins Big-Data-System, dem Ingestion-Layer, dem Speed- und dem Batch-Verarbeitungslayer sowie einem Serving Layer. Der Speed Layer managt dabei die Zwischenverarbeitung der Daten solange bis schließlich der Batch Layer die Verarbeitungslogik triggert. Das Ziel ist immer, die Daten im Serving Layer laufend up-to-date zu halten. Im optimalen Zusammenspiel aller Tools, Applikationen und Verfahren ergibt sich dann ein schnelles und gezieltes Erkennen von Mustern oder Gesetzmäßigkeiten – plus der Fähigkeit, automatisch Lösungen zu entwickeln. Also: Maschine Learning @ Work!

Und die Kostenfrage? Da muss ich sagen, dass sich eine Antwort darauf nicht seriös pauschalisieren lässt. Ein Smart Industry Framework bleibt immer Maßarbeit. Aber sowohl im Umfeld des OT-Networks wie auch des IT-Networks können neben den Produkten der etablierten Hersteller auch Open Source Lösungen ein Schlüssel zum Erfolg sein. Entscheidend sind eben auch hier immer die vom jeweiligen Unternehmen definierten Rahmenbedingungen. Sobald der Entschluss aber erst einmal gefallen ist, muss es bis zur fertigen Lösung nicht lange dauern. Realisieren lässt sich so ein Smart Industry Projekt je nach Anforderungskatalog schon in einem Zeitraum von etwa 20 bis 25 Tagen – vom ersten Workshop mit allen Beteiligten im Unternehmen über den Proof of Concept bis zur produktiven Anwendung samt Coaching der Mitarbeiter. Und wenn Sie meinen Beitrag schon bis hierher gelesen haben, könnte Ihr Interesse ja vielleicht jetzt zum ersten Schritt zu mehr Informationen führen. In diesem Sinne: Ich freue mich sehr auf Ihre Fragen, Schilderungen oder Anmerkungen.

Diesen Beitrag kommentieren

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.