Die HullPIC Konferenz brachte im April Entwickler und Anwender von Hull Performance Monitoring Systemen zusammen. Die HANSA fasst die wichtigsten Erkenntnisse zusammen


Diverse Technologien könnten Treibstoff sparen, werden aber kaum eingesetzt, da den versprochenen Einsparungen nicht getraut wird und Verträge zwischen Eignern[ds_preview] und Charterern keine Win-Win-Situationen ermöglichen. Zu diesen Technologien gehören hochwertige Antifouling-Beschichtungen und einige propulsionsverbessernde Maßnahmen. ISO 19030 sollte hier Fortschritt bringen.

Der Standard beschreibt Prinzipien zum Performance Monitoring für Rumpf und Propeller und soll schon bald erhältlich sein. Die 1st Hull Performance & Insight Conference (HullPIC) brachten kürzlich Entwickler und Anwender zu einem ersten Erfahrungsaustausch zusammen, bei dem der Andrang groß war. Mit 80 Teilnehmern, davon ein Drittel Reeder, war der Festsaal des Castello di Pavone in Italien bis auf den letzten Platz gefüllt (die Konferenz-Proceedings sind unter

Der Standard ISO 19030 war dabei in der Position eines Schwiegersohns in spe, der zum ersten Mal vorgestellt wird: kritisch betrachtet, mit vorsichtiger Höflichkeit kommentiert, aber noch lange nicht von ganzem Herzen angenommen – außer von seinen eigenen Eltern. Der Wert von Performance Monitoring bleibt umstritten, formulierte Ryo Kakuta (NYK Lines, MTI). Geir Axel Oftedahl (Jotun und Sekretär der ISO 19030) sah es deutlich positiver: Fortschritte beim Hull Performance Monitoring sollten Anbietern und Anwendern von energiesparenden Maßnahmen erlauben, bessere Entscheidungen in kürzerer Zeit zu treffen. Performance Monitoring sollte auch einen besseren Ausgleich von Interessen in Verträgen zwischen Geschäftspartnern erlauben. Dies sollte zu mehr Energieeffizienz in der Schifffahrt weltweit führen.

Zentrales Thema: Datenerfassung

Der Standard betont die Bedeutung genauer Messdaten. Wenn Sensoren falsche oder gar keine Daten liefern, ist Performance Monitoring zum Scheitern verurteilt (»garbage in – garbage out«). In der Praxis ist gute Datenerfassung vor allem auf älteren Schiffen eine Herausforderung. Davon konnte auch Michael vom Baur (Hoppe Marine) ein Lied singen: »Je länger man auf dem Gebiet arbeitet, desto offensichtlicher wird es, dass die Datenerfassung und -integration an Bord ein Schlüsselthema ist, wenn man aussagekräftiges Performance Monitoring will.« Diverse andere Experten für Messtechnik unterstützten seine Auffassung.

Die Leistung an der Propellerwelle und die Geschwindigkeit durchs Wasser sind die wichtigsten Eingabeparameter. Die meisten Experten sahen die Messung des Propellerdrehmoments und der Drehzahl als unverzichtbar an. Fumi Yakabe (JSTRA) dagegen bekräftigte die Haltung der japanischen ISO-19030-Delegation, dass man durch die Motorleistung (im Wesentlichen ausgedrückt durch den Treibstoffverbrauch) indirekt auf die Propellerleistung schließen kann. Allerdings nur, wenn der Motor in sehr gutem Zustand ist und diverse Zusatzgrößen sauber gemessen werden. Unbestreitbar wird Performance Monitoring einfacher, wenn man hydrodynamische Performance (hinter dem Messpunkt für Drehmoment und an Drehzahl der Propellerwelle) und Motor-Performance (vor diesem Punkt) trennen kann. Ebenso bestand Konsens mit Erik Hagestuen (Kyma), dass die Motor-Performance für ein Gesamtbild mit betrachtet werden sollte, auch wenn sie nicht Bestandteil von ISO 19030 ist.

Während die Aufteilung in hydrodynamische und Motor-Performance noch recht einfach ist, gestaltet sich eine Aufteilung in Propeller-Performance und Rumpf-Performance höchst problematisch, zumindest in der rauen Wirklichkeit. ISO 19030 hat in Anerkennung der existierenden Schwierigkeiten eine derartige Aufteilung zunächst auf unbestimmte Zukunft verschoben. Sergiu Paereli (Jotun) behandelte die Problematik im Detail. Selbst wenn (wie heute sehr selten) der Schub zusätzlich zum Drehmoment gemessen wird, sind die Messungen so ungenau und die Gleichungen so empfindlich, dass es im Endergebnis zu großen Ungenauigkeiten kommt.

Große Erwartungen

Bei Anbietern, die hier große Versprechungen machen, wird in der Regel nach einer Sensitivitätsanalyse große Ernüchterung einkehren. Erik van Ballegooijen (VAF Instruments) zeigte allerdings einen Silberstreif am Horizont: Optische Messverfahren liefern deutlich höherer Genauigkeit als die derzeitigen Dehnungsmessstreifen. Nun müssten nur noch derartige Messverfahren Standard werden. Die eigentliche Achillesferse ist und bleibt die Geschwindigkeit durchs Wasser. Mark Bos (BMT Smart) fasste treffend zusammen: »Ein Log muss kalibriert werden, um einen systematischen Fehler in der Messung zu vermeiden. Im Laufe der Zeit kann sich der Fehler verändern und eine Neu-Kalibrierung nötig werden. Aber es ist nicht offensichtlich, wie man das Log kalibrieren soll, wenn die Geschwindigkeit durchs Wasser unbekannt ist. Ohne spezielle Probefahrten ist dies schwierig und derartige wiederholte Probefahrten sind unüblich für die fahrende Flotte.« Bos regte an, die derzeitige ISO 19030 zu verbessern, indem auf die viel genauere Geschwindigkeit über Grund und Daten zur Strömungsgeschwindigkeit von MetOcean-Anbietern zurückgegriffen wird. In seinem Beispiel gab dies plausiblere Ergebnisse als die direkte Log-Messung.

Als abschließenden Denkanstoß wies Thilo Dückert (DNV GL) darauf hin, dass sowohl Qualität als auch Frequenz der Daten wichtig seien, wobei erstere eine größere Rolle spiele: »Lieber gute Daten einmal täglich als alle 15 Sekunden schlechte Daten«. Dückert argumentierte, dass beim Noon-Report ein Mensch auf die Daten schaue und damit eine Plausibilitätskontrolle stattfinde, während automatische Datenrecorder manchmal monatelang unsinnige Daten aufzeichnen würden, wenn ein Sensor ausgefallen sei.

50 Shades of Grey

Rohdaten müssen für sich immer wieder ändernde Betriebsbedingungen (Geschwindigkeit, Tiefgang, Trimm, etc.) und Umweltbedingungen (Seegang, Wind, etc.) korrigiert werden (»normalisiert« im Expertenjargon), damit Äpfel nicht mit Birnen verglichen werden. Dazu braucht man ein Modell, z.B. um Unterschiede in der Leistung für verschiedene Tiefgänge oder Windbedingungen zu quantifizieren. Je nach Vorgehensweise haben diese Modelle unterschiedliche Genauigkeit. Michael Haranen (Napa) unterscheidet White-Box-, Grey-Box- und Black-Box-Methoden. White-Box-Methoden (= first-principle-Methoden) sind »voll transparent« und basieren komplett auf bekannter Physik. Aber CFD-Simulationen, die alle Effekte und Wechselwirkungen erfassen, sind auf absehbare Zeit mit vertretbarem Aufwand nicht zu realisieren. Black-Box-Modelle benutzen dagegen ausschließlich maschinelles Lernen oder Systemidentifikation. Dabei müssen »nur« alle Variablen, die die Leistung beeinflussen, bekannt sein und erfasst werden. Bei diesem Ansatz sind Messgenauigkeit und hohes Rauschen in den Daten (durch nicht erfasste, häufig auch nicht erfassbare Variablen) die Hauptprobleme. Die »grauen« Modelle liegen dazwischen: Manche Zusammenhänge werden vorgegeben, manche Koeffizienten nach Messergebnissen angepasst.

Alle präsentierten Ansätze waren Grey-Box-Modelle. Da gab es dann aber die »50 Shades of Grey«. Die Dunkelgrauen kritisierten die Hellgrauen, die Hellgrauen die Dunkelgrauen. Bei den Vorträgen konnte man zuweilen an die Bibel denken: Warum siehst du den Splitter im Auge deines Bruders, aber den Balken in deinem Auge bemerkst du nicht?

Black-Box-Methoden können nur innerhalb ihrer Erfahrung vernünftig vorhersagen. Extrapolation über ihre Wissensbasis hinaus führt zu großen Fehler, teilweise komplettem Unsinn. Die Lernzeit für Black-Box-Modelle muss ausreichend lang (um alle relevanten Kombinationen von Geschwindigkeiten und Beladungszuständen abzudecken) und kurz genug (damit sich der Bewuchs in der Zeit nicht signifikant ändert) sein, sagte Antti Solonen (Eniram). Wojciech Gorski (Enamor) fügte hinzu, dass die Schwierigkeiten beim Black-Box-Ansatz mit der Zahl der Einflussvariablen (»dimensions«) und deren Variabilität exponentiell anwächst. Die fast schwarzen Methoden liefern gute Ergebnisse für Schiffstypen, bei denen es wenig Spielraum im Betrieb gibt, z.B. Öltanker (nur voll beladen oder im Ballast unterwegs) oder Kreuzfahrtschiffen (Tiefgang kaum variabel). Für Containerschiffe erscheinen sie ungeeignet.

Mut zur (Wissens-)Lücke

Die vorgestellten Methoden unterscheiden sich sehr in einer Kernkomponente, dem hydrodynamischen Modell, das die Leistung P in Abhängigkeit von Geschwindigkeit (durchs Wasser) V, Tiefgang und Trimm ausdrückt. Diese Abhängigkeit ist leider recht kompliziert. Viele Performance-Monitoring-Systeme versuchen aber, mit dem Mut zur (Wissens)lücke durchzukommen: »Wir setzen die Leistung proportional zur benetzten Oberfläche an« oder »wir benutzen die bekannte Beziehung P = aVb«. Wieder andere greifen auf Entwurfsmethoden zurück, wie Lap-Keller, Guldhammer-Harvald oder Holtrop-Mennen. Auch dies ist bei näherer Betrachtung eine Mogelpackung, denn der typische »Off-Design«-Betrieb folgt nicht den »Design«-Formeln.

Lokal kann man die komplexen Leistungs- und Widerstandskurven mit einfachen Formeln stückweise annähern. Das macht auch die ISO 19030, die die Admiralitätformel (b = 3) einsetzt, wenn die Verdrängung maximal 5% von einer Referenzkurve entfernt liegt. Andreas Krapp (Jotun) und Tsuyoshi Ishiguro (JMUC) kommen unabhängig zum Schluss, dass für Containerschiffe ein CFD-basiertes, detailliertes Modell benötigt wird, dass Leistung abhängig von Geschwindigkeit, Tiefgang und Trimm ausdrückt. Das ist eine bittere Pille, denn einfache Formeln sind schnell und billig, und genaue und verlässliche Modelle haben ihren Preis.

CFD gewinnt an Bedeutung

Ein Teilnehmer formulierte dies so: »Der ISO 19030 Ansatz [mit einer dichten Wissensbasis für Schiffe, die große Variabilität bei Tiefgang, Trimm und Geschwindigkeit haben, ist] für viele [Firmen] schwierig zu implementieren.« Augenscheinlich gibt es hier jedoch kein »sowohl als auch« bei Qualität und Aufwand. So wird CFD in Zukunft wohl bei vielen Performance Monitoring Systemen eine größere Rolle spielen und diverse Anbieter nachrüsten.

Sodann gelangt man zu der Frage, ob der klassische oder der numerische Schlepptank zu nehmen ist. Allein Ryo Kakuta (MTI) glaubt, dass »Schlepptankversuche der beste Weg sind«. Michel Visonneau (Ecole Centrale de Nantes) fasste den Stand der Technik zusammen: »Inzwischen ist es allgemein akzeptiert, dass CFD ausgereift ist für stationäre Widerstands- (und Leistungs-)Prognosen.« Auch zwei Propellerhersteller, Greitsch (MMG) und Fukuda (Nakashima Propellers), sahen CFD als klar bessere Alternative.

Streuung unvermeidlich

Selbst mit der besten Datenerfassung und dem besten hydrodynamischen Modell werden die Ergebnisse unvermeidlich streuen. Dies resultiert vor allem aus Wind und Wellen.

Tsuyoshi Ishiguro (JMUC) zeigte, dass der Zusatzwiderstand durch Wind und Wellen bei Bft 4 und See von vorn den Leistungsbedarf um mehr als 10% erhöhen kann. Er empfahl daher, die Filterkriterien für Zusatzwiderstand anders als in der jetzigen ISO 19030 von der Laufrichtung abhängig zu machen: filtern ab Bft 3 bei See direkt oder schräg von vorn und ab Bft 4 bei anderen Laufrichtungen. Allerdings sollten die jetzigen recht strengen Filterkriterien der ISO 19030 für den Zusatzwiderstand in Wellen beibehalten werden, solange keine bessere Korrekturverfahren vorliegen; dies betrifft sowohl bessere Simulationsmethoden als auch bessere Erfassung des Wellenfelds z.B. mit Hilfe des Bordradars. Dieser Meinung schloss sich der Autor an: »Zur Zeit haben wir keine genaue und finanziell tragbare Lösung, um für die Zusatzleistung in Wellen zu korrigieren; zwar geben einige 3D-Simulationsmethoden gute Resultate für den Zusatzwiderstand im Seegang, aber wir brauchen bessere Wellenmessungen, um wirklich voranzukommen. Bis dahin ist die beste Empfehlung, für Wind und Wellen wie von ISO 19030 empfohlen, zu filtern.«

Mark Bos (BMT Smart) teilte einige sehr interessante Einsichten zu Umwelteinflüssen mit. Strömungsgeschwindigkeiten variieren über die Wassertiefe: Bos nennt hier 0,5kn Unterschied über 12m Wassertiefe (also einem typischen Tiefgang). Da fällt es schwer zu definieren, was die »Geschwindigkeit durchs Wasser« ist. Bos wies auch auf die problematische Messung der Windgeschwindigkeit auf Schiffen hin. Durch die Anordnung der Windmesser teilweise im Windschatten von Aufbauten kommt es zu starken Fehlern. Für einen Suezmax Tanker gab er im Durchschnitt 20% Unterschied zwischen Bordmessung und externe Wetterdaten bei der Windgeschwindigkeit. Zu Abschluss brachte er den Einfluss der Wassertemperatur zurück in die Diskussion. Nach ISO 19030 muss man die Wassertemperatur aufzeichnen, aber das Standardverfahren sieht keine Korrektur für sie vor. Bos gibt hier für das Mittelmeer ~2% Schwankungen bei der Leistung. Eine entsprechende Korrektur, die über das Standardverfahren hinausgeht, ist also durchaus zu empfehlen.

Ein guter erster Schritt

Alles in allem scheint ISO 19030 den richtigen Ansatz zu verfolgen, wenn es auch hier und da noch Verbesserungspotenzial gibt. Eine Konsolidierung der vielen jetzigen Ansätze in den nächsten drei Jahren (bis zur turnusmäßigen Revision von ISO 19030) ist wahrscheinlich, nicht aber auf eine einzige Methode. Die Flexibilität der ISO 19030, ursprünglich aus der Not geboren, genügend viele Meinungen unter einen Hut zu bringen, mag jetzt als Segen empfunden werden. Sie gibt Zeit, kollektiv mehr Erfahrung zusammenzuführen. Dies ist nötig, bevor guten Gewissens striktere Richtlinien eingeführt werden können.

Trotz aller kontroversen Diskussion in der Sache fand die Konferenz an sich einhellige Zustimmung. Die 2nd HullPIC wird vom 27. bis 29. März 2017 in Ulrichshusen in Deutschland stattfinden.


Volker Bertram