Smarter Durchblick mit Selbstlerneffekt

Management

Software - Den Energieverbrauch in komplexen Produktionsprozessen zu minimieren ist nicht einfach, ein IT-Effizienzverfahren zeigt Maßnahmen auf.

16. März 2011

Energiekosten stellen heute einen erheblichen Teil der Produktionskosten dar. Dies gilt besonders für verbrauchsintensive Industrien wie etwa Aluminium, Stahl oder Papier. Hier ist es wichtig, weitere Effizienzpotenziale durch eine intelligente Steuerung der Produktionsprozesse zu realisieren.

Vordergründig scheint die Herausforderung überschaubar zu sein: Man betrachte den Produktionsprozess von Anfang bis Ende, stelle fest, wann wie viel Energie und Ressourcen bei welchen Ergebnissen benötigt werden und erkenne dadurch die bestmögliche Prozessvariante. Doch so funktioniert es in der Realität nicht.

Zum Beispiel in der Stahlproduktion: Bevor hochrobuste Bleche schluchtenüberwindende Brücken festigen oder in Form von Containerschiffen die Weltmeere durchkreuzen, werden die Materialien und Zwischenprodukte immer wieder in unterschiedlichen Öfen erhitzt. So auch bei dem Stahlproduzenten Dillinger Hütte.

Um das interne Energiedispatching besser zu steuern und lukrativere Verträge mit den Energielieferanten abzuschließen, benötigt die Dillinger Hütte eine Prognose, die den zu erwartenden Energiebedarf mit hoher Genauigkeit vorhersagt.

Einen hoch energieintensiven Bereich stellt das Walzwerk mit seinen vorgelagerten Stoßöfen dar, in denen die Stahlzwischenprodukte auf unterschiedliche Temperaturen um die 1.150°C zu erhitzen sind, bevor sie zu Blechen gewalzt werden.

Der Energieverbrauch an den Öfen unterliegt aber sehr hohen Schwankungen, die keinen offensichtlichen Zusammenhang mit Anzahl, Masse, Volumen oder Zieltemperatur der zu erhitzenden Stahlblöcke, den sogenannten Brammen, aufweisen. Die Zusammenhänge liegen – versteckt – in den komplizierten Produktionsabläufen, mit ihren verwobenen Abhängigkeiten und unregelmäßig auftretenden Störfaktoren.

Um nun mit weniger Ressourceneinsatz gleich viele oder mehr Produkte zu erzeugen, muss man verstehen, welche Brammenkonstellation sich mit welchen Faktoren günstig auf den Verbrauch auswirkt.

Vernetzt analysiert

Eine Lösung bieten smarte Daten: Aus dem Dschungel an Information werden punktgenau die Daten herausanalysiert, die für die Steigerung der Ressourceneffizienz von Bedeutung sind. Das ›Smart-Data-Effizienzverfahren‹ geht nun einen Schritt weiter. Es verfeinert den Smarte-Daten-Ansatz mit Selbstlernmechanismen. Das von IS Predict entwickelte Verfahren betrachtet dazu die Daten nicht isoliert, sondern im kontextuellen Beziehungsgeflecht zueinander. Die Saarländer analysieren die Datenmassen einerseits vernetzt und andererseits mit Echtzeitdaten und Selbstlernmechanismen.

Das Verfahren wurde zur CeBIT 2011 erstmals einem breiten Publikum vorgestellt. Es hat sich in einer Machbarkeitsstudie bewiesen, dass bei der Dillinger Hütte durchgeführt wurde. Die IT-Experten haben den komplexen Stahlproduktionsprozess in mathematische Algorithmen zerlegt und analysiert. Dadurch bauten sie ein selbstlernendes Prognosemodell auf. Dieses kann die unregelmäßig schwankenden Energiebedarfe einerseits mit hoher Genauigkeit vorhersagen und andererseits diese Prognose so rechtzeitig durchführen, dass daraus der gewünschte wirtschaftliche Doppelnutzen gezogen wird. Der produktive Einsatz ist für 2011 vorgesehen.

Das Verfahren konzentriert sich im ersten Schritt auf die Aufdeckung von Einfluss- und Störfaktoren, die den Verbrauch in die Höhe treiben. Oft sind komplexe, vernetzte Abhängigkeiten dieser Faktoren ausschlaggebend für die Ressourceneffizienz. Aus den vorhandenen Daten werden über mehrstufige Transformationsverfahren Systeme generiert, die die Ursachen für geringe Effizienz aufzeigen. Durch zusätzliche Analyse der Spitzenlasten werden Einsparpotenziale automatisch ermittelt.

Nachdem analysiert wurde, wann und warum bei gleichbleibenden Produktionsergebnissen die Bedarfe schwanken, werden im zweiten Schritt automatisch Maßnahmen zur Steigerung der Ressourceneffizienz vorgeschlagen. Diese minimieren die Störfaktoren. Möglich wird dies, da das IT-System die herauskristallisierten Störfaktoren im Gesamtkontext vernetzt. Die Aktualisierung durch Echtzeitdaten bewirkt, dass sich das System dank Selbstlernmechanismus den neuen Begebenheiten anpasst und direkt auf gerade erst entstandene Zusammenhänge reagiert.

Das selbstlernende Prognosemodell ermöglicht im dritten Schritt die genaue Vorhersage des Energieverbrauches. Dazu werden historische Daten der Einflussfaktoren auf Muster analysiert und vernetzt. Die Plandaten werden ebenfalls auf zusammengesetzte Muster untersucht.

Lastprognose mit Kostenvorteil

Dieses Syntheseverfahren bringt die zu erwartenden Störfaktoren zum Vorschein, und ermöglicht so gezielte, gegensteuernde Maßnahmen. Es sagt auch den zu erwartenden Ressourcenbedarf vorher. Dies dient nicht nur dazu, das interne Ressourcendispatching zu optimieren, sondern wandelt sich für die externen Energiekosten direkt in bare Münze um.

Die Verträge mit Energielieferanten sind normalerweise auf Lastspitzen ausgelegt, den Vertragsverhandlungen liegt der maximale Energiebedarf zugrunde. Es wird eine monatliche Flat-Rate gezahlt, die deutlich über dem tatsächlichen Verbrauch liegt; dementsprechend hoch sind die Kosten.

Mit einer exakten Lastprognose ist es aber möglich, günstigere Verträge auszuhandeln, da der Lieferant rechtzeitig vorab über die zu liefernde Kapazität informiert wird.

Effizienz-Preis

Bewerbungsphase Energy Efficiency Award

Bis 15. Juli 2011 können sich Unternehmen aus Industrie und produzierendem Gewerbe, die vorbildliche Projekte zur Steigerung von Energieeffizienz im eigenen Betrieb durchgeführt haben, für den dena Energy Efficiency Award bewerben. Den mit insgesamt 30.000€ dotierten Preis schreibt die Deutsche Energie-Agentur (dena) im Rahmen ihrer Initiative EnergieEffizienz in Kooperation mit der DZ Bank, Imtech und Siemens aus.

Erschienen in Ausgabe: 02/2011