News




Because they normally output continuous values between 0 and 1 (or -1 and 1) and not discrete values as known from many other artificial neuronal network (ANN) applications. Whereas a discrete value = 1 (or close to 1) means "pattern found" in continuous output ANNs each value between 0 and 1 belongs to a pattern. This means pattern recognition in engineering is not the same as for images, voices, handwriting, soundtracks etc.

Although this difference is crucial for AI engineering applications it is hardly mentioned in the public. The most import advantage of continuous output ANNs is the capability to interpolate and extrapolate. It is not necessary to learn all patterns but as many as needed to get smooth result trends.


discrete output values
continuous output values
one continuous output value


The picture shows a common neuronal network scheme with discrete output values (left side) and two engineering neuronal networks with discrete output values. The model on the right side is the very first approach to create AI engineering models.

These and other findings we got from our Process data and Re-Engineering tool PI we are proud to present at the next Berliner Abfallwirtschafts- und Energiekonferenz in January 2019.


Martin Horeni



Boiler heat exchanger design is one of the most demanding engineering tasks one can think of. Not only the formulas are quite complicated and their correct application is often confusing. Also much experience is required to take all the design restrictions, safety standards and findings from already done projects into account.

When we speak about modelling (or re-engineering) of already existing boilers, the standard procedure is:

  1. Gather boiler geometry (bundle and tube dimensions, pitches, tube wall thickness and so on)
  2. Develop a design model based on fundamental heat transfer equations
  3. Collect measured data for different load points (if we deal with solid fuels also for different fouling conditions)
  4. Validate and adjust the model to hit the measured values
  5. Use the model to check how new designed equipment fits into the whole system

As simple it looks as complicate is it. Especially step 4 requires lots of efforts caused by the high number of possible adjustments (used heat transfer formulas, fouling assumptions, construction specifics like hoppers and cleaning equipment and so on).

An interesting alternative or supporting method is an AI (artifical intelligence) driven procedure:

  1. Collect measured data for different load points
  2. Develop an AI model based on these measured values
  3. Use the model to check how new designed equipment fits into the whole system

Compared to the first method the AI model does not provide "inner" heat transfer values but is much faster to develop, no validation and adjustment is necessary and – depending on the boundary conditions – it is also more accurate.

In the example the outlet HP steam temperature was calculated a) with a design model with all the heat transfer equations and parameters required and b) with an AI model as an artifical neuronal network (ANN):




The ANN was fed only with flue gas and steam flow, the fluid inlet temperatures and the dry oxygen content (= values that are normally measured). No other geometry or fluid parameters were used. The chart shows that both outlet steam temperatures are equal within a wide range of 60 to 100% load.

Of course ANNs are NOT FOR DESIGN new plants. But for creating models of running systems they are amazing!


Martin Horeni



Verfahrenstechnische Ersatzmodelle beschreiben wie Prozessgrössen voneinander abhängen, ohne dabei naturwissenschaftliche Randbedingungen zu berücksichtigen. Bei Verwendung von neuronalen Netzen wird diese Abhängigkeit aus historischen Daten erlernt. Ein interessantes Beispiel dafür ist die Verstromung von Dampf in einer Dampfturbine. Wieviel Strom dabei produziert werden kann ist von vielen Faktoren abhängig: Frischdampfparameter, Entnahmedampf, Abdampfdruck usw. Ausserdem müssen die lastabhängigen isentropen Wirkungsgrade der einzelnen Turbinenstufen bekannt sein, die in der Praxis aber nur näherungsweise ermittelt werden können.

Viel einfacher ist es, mit den Messwerten und einem neuronalen Netz ein Ersatzmodell zu entwickeln. Wie gut dieses Modell ist lässt sich sehr einfach durch einen Vergleich der gemessenen mit der für den selben Zeitraum berechneten Strommenge bestimmen. Folgendes Beispiel zeigt dies für eine Entnahme-Kondensations-Turbine mit stark schwankenden Dampfmengen und -drücken:




Aus der Abbildung wird deutlich, dass die "AI calculated" Stromproduktion über den gesamten Bereich von 5 bis 15 MW quasi identisch mit der gemessenen Stromproduktion ist. Und da die isentropen Wirkungsgrade für das Ersatzmodell nicht bekannt sein müssen, kann das Modell nicht nur viel schneller erstellt werden sondern ist zudem noch genauer!


Mit PI process intelligence können Ingenieure verfahrenstechnische Ersatzmodelle sehr einfach selbst entwickeln oder von uns entwickeln lassen. Wir freuen uns auf Ihre Projekte!


Martin Horeni



Unter diesem Titel werden wir Ende Oktober am 50. Kraftwerkstechnischen Kolloquium 2018 in Dresden in einem Vortrag unsere Erfahrungen aus den letzten Jahren und Ideen für zukünftige Entwicklungen erläutern. Dabei hilft uns eine Prozesslandschaft für den Anfall und die Weiterverarbeitung von Daten in Kraftwerken:




Praxistaugliche Innovationen sind aus unserer Sicht in den nächsten Jahren vor allem im Bereich der Data tools und der autonomen Steuerungen zu erwarten, weniger in der grundlegenden Abarbeitung der zentralen verfahrenstechnischen Prozesse im DCS. Dies, weil Kraftwerke im Regelbetrieb gut und vor allem sicher laufen und – wegen der hohen Risiken bei unbekanntem Nutzen – das Interesse der Lieferanten "am offenen Herzen zu operieren" eher klein ist. Ein grosses Potenzial besteht aber in der Analyse von Betriebszuständen und darauf aufbauend in der Verbesserung der Regelungen von Teilsystemen. Dafür können neuerdings Zusammenhänge zwischen Messwerten gefunden werden, die bisher mit den klassischen Ingenieurmethoden gar nicht oder nur mit hohem Aufwand entdeckt werden konnten. Beispiele sind Korrelationsanalysen mit verschobenen Zeitstempeln (um Verweilzeiten Rechnung zu tragen) oder Regressionsanalysen mit deutlich mehr als zwei voneinander abhängigen Variablen (mittels neuronalen Netzen bzw. "künstlicher Intelligenz").


Martin Horeni



Unsere Prozessdaten-Plattform PI verfügt jetzt neben den Import-, Export- und Analysefunktionen auch über ein System für die Nutzer- und Rechteverwaltung. Damit ist PI einsatzbereit...




Gegenüber anderen Prozessdaten-Tools hat PI verschiedene Vorteile:

  • Einfacher Datenaustausch zwischen Anlagenbetreibern, Lieferanten, Ingenieurbüros und Hochschulen
  • Intuitives Rechte-/Freigabesystem ("Adminstrator", "Operator", "User", "Viewer")
  • Schneller up- & download grosser Datenmengen
  • 1-click-Visualisierung aller Trends
  • Reine Web-/Mobile-Anwendung (keine lokale Installation)
  • Plug&play-fähig für nutzereigene Datenbanken

Martin Horeni



Der Einsatz von künstlicher Intelligenz macht dann Sinn, wenn für ein Modell viele Parameter gebraucht werden, deren Zusammenhang aber mathematisch nicht exakt beschrieben werden kann. Der Klassiker in Kraftwerken sind Lastprognosen: Wie viel Strom wird in Abhängigkeit von Jahreszeit, produzierter Dampfmenge, Aussentemperatur, Wärmeabgabe an Externe etc. produziert? Um solche Zusammenhänge besser untersuchen zu können habe ich unser Prozessdaten-Tool PI um ein Modul für neuronale Netze erweitert. Die Anwendung ist denkbar einfach und die erzielbaren Ergebnisse beeindruckend. Die ermittelte Stromproduktion berechnet mit zwei unterschiedlichen Modell-Einstellungen im Vergleich zur Messung sieht z.B. so aus:



Mit einer optimierten Datenauswahl für das Training und Anpassung von Lernrate, Anzahl der Trainings-Epochen, Neuronen in der verborgenen Schicht usw. lassen sich die Modelle für den jeweiligen Anwendungsfall verbessern, solange bis die gewünschte Qualität stimmt. Und das Beste: zum Schluss kann das trainierte Modell mit allen ermittelten Gewichten als Excel-Datei exportiert und für weitere Berechnungen verwendet werden!


Martin Horeni



"Das haben wir patentiert." hört man häufig, wenn es um Innovationen und neue Ideen geht. Was aber in welchem Umfang genau patentiert ist zeigt erst der Blick in die einschlägigen Patentregister und -datenbanken. Die für die Einordnung wichtigen Informationen einer Patentschrift stehen auf der ersten Seite:


Patents de


Was mir ausserdem noch wichtig erscheint:

  • Patente sind immer nur in jenen Ländern gültig, in denen sie nationalisiert wurden. Patente mit hoher wirtschaftlicher Relevanz werden in vielen Ländern nationalisiert (z.B. für Pharmaprodukte). Andere Patente sind oft nur in einem oder zwei Ländern gültig.
  • Zum Teil wird auch dort von Patenten gesprochen wo eigentlich Patentanmeldungen gemeint sind. Das ist häufig der Fall bei Firmenübernahmen (Stichwort Due-Diligence-Prüfung), Wettbewerber-Überwachungen oder im Marketing ;o)
  • Eine "Patentfamilie" besteht aus mehreren Patenten, die inhaltlich gleichen Ursprungs sind, aber in verschiedenen Ländern oder Regionen angemeldet wurden. Auch international angemeldete Patente zerfallen in einzelne Patente, die dann auch eine Familie bilden.
  • Patentiert werden kann alles, was der Prüfer einerseits als "neu" und andererseits als "erfinderisch" einstuft. Ein wichtiger Teil des Erteilungsverfahrens ist das Ping-Pong zwischen Prüfer und Anmelder (bzw. dessen Patentanwalt) inwieweit beide Punkte erfüllt sind.
  • Gut Voraussetzungen für eine Erteilung sind deshalb A) ein sorgfältig recherchierter Schutzumfang, der im Patent gleichzeitig als "Stand der Technik" dient und B) darauf aufbauend ein gut geschriebener Anmeldetext. Dazu muss der beanspruchte Schutzumfang klar definiert und einheitlich sein und es muss genügend Rückzugsoptionen als "Verhandlungsmasse" geben.


Martin Horeni



"Big data" ist in aller Munde, aber wie macht man das eigentlich genau? Sagen wir für ein bestimmtes Optimierungsproblem in einem Kraftwerk… Etwas Recherche zeigt, dass "Big data"-Anwendungen heute vor allem dort zum Einsatz kommen, wo

  • wirklich SEHR VIELE Daten anfallen und
  • aus irgendeinem Nutzerverhalten Marketing-Massnahmen abgeleitet werden sollen.

Beides trifft auf Kraftwerke nicht zu – die anfallende Datenmenge ist überschaubar und gut strukturiert, die Anzahl an "Eingangsvariablen" in Auswertungen ist begrenzt. Für die Datenaufzeichnungen werden keine NoSQL-Datenbanken benötigt, es gibt mittlerweile sehr anwenderfreundliche Messdatenerfassungen und wenn etwas gerechnet werden muss kommt in gefühlten 99% der Fälle Excel zum Einsatz.

Excel hat viele Vorteile (vor allem, dass quasi jeder damit umgehen kann!), aber auch verschiedene Nachteile. Insbesondere sind aufwendigere Auswertungen, vielleicht sogar im laufenden Betrieb inkl. einer brauchbaren Visualisierung mit Excel nicht sinnvoll realisierbar.

Vor diesem Hintergrund entwickle ich ein eigenes Tool unter dem Arbeitstitel PI process intelligence, das gleichzeitig maximal sicher und maximal anwenderfreundlich ist. Maximal sicher ist das Tool, weil die Verbindung zwischen Prozess und PI readonly ist. Maximal anwenderfreundlich ist PI, weil alle Prozessdaten automatisch bereinigt und dynamisch visualisiert werden, weil Auswertemodelle einfach integriert werden können und weil Rohdaten für "Nicht-PI"-Auswertungen einfach abgegriffen werden können. PI eröffnet damit völlig neue Wege für die Unterstützung von Lastprognosen, Messstellenvalidierungen, Betriebsoptimierungen, Predictive Maintenance usw.


PI de


Damit das alles möglich ist und trotzdem geringe Kosten zur Folge hat ist PI als "Software as a Service"-Tool konzipiert: alle Prozessdaten werden auf einer zentralen Plattform zwischengespeichert, dort analysiert und visualisiert. Die softwaretechnische Umsetzung erfolgt mit HMTL, PHP, Javascript und MariaDB/MySQL. Für lineare Auswerten kommt Microsoft Excel zum Einsatz, für komplexere Aufgaben innerhalb von PI VB.net und Phyton...


Martin Horeni