Den Teufelskreis durchbrechen

Virtualisierung eröffnet neue Wege für die Automatisierungstechnik

Pharma
Food
Kosmetik
Chemie
Planer
Betreiber
Einkäufer
Manager

20.11.2013 „Never change a running system!“ Wer wüsste nicht aus leidvoller Erfahrung, dass hinter diesem Spruch mehr als nur ein Körnchen Wahrheit steckt. Automatisierungslösungen ohne PC-Technologie sind mittlerweile kaum noch vorstellbar, da diese Technologie seit vielen Jahren zu einem festen Bestandteil geworden ist.

Anzeige

Entscheider-Facts Für Betreiber

  • Eine geringe Lebenserwartung der Rechnerhardware und schnellere Innovationszyklen der Betriebssysteme zwingen die Betreiber von Anlagen zu regelmäßigen Investitionen in die Aktualisierung der Hard- und Software.
  • Die in der IT-Technik schon seit längerer Zeit eingesetzte Virtualisierungs-Technologie kann helfen, den Teufelskreis der Abhängigkeit zwischen Hard- und Software zu durchbrechen.
  • Eine Virtualisierung kann eine Entkopplung der verwendeten Rechnerhardware und der darauf laufenden Betriebssysteme und Automatisierungssoftware bieten.

In den Produktionsanlagen findet man heute überwiegend Windows-Rechner als HMI-Visualisierung, zur Archivierung von Prozessdaten oder als Engineeringsystem. Aber der Einzug der Rechnertechnik hat auch seine Tücken. Eine geringe Lebenserwartung der Rechnerhardware und die immer schnelleren Innovationszyklen der Betriebssysteme zwingen die Betreiber von Anlagen zu regelmäßigen Investitionen in die Aktualisierung der Hard- und Software. Die in der IT-Technik schon seit längerer Zeit eingesetzte Virtualisierungs-Technologie kann hier helfen, den Teufelskreis der Abhängigkeit zwischen Hard- und Software zu durchbrechen.

Unterschiedliche Lebenserwartung
Während in einer Produktionsanlage die Sensor-/Aktor-Ebene eine zu erwartende Einsatzdauer von über 20 Jahren hat und die daran angeschlossene Steuerungsebene etwa 12 bis 16 Jahre einwandfrei funktioniert, haben alle rechnerbasierten Systeme nur eine vergleichbar geringe Lebenserwartung von etwa fünf Jahren.

Die vor allem beim Betriebssystem sehr kurzen Innovationszyklen haben zur Folge, dass nach der Markteinführung eines neuen Betriebssystems schon nach kurzer Zeit keine PC-Ersatzteile mehr verfügbar sind, die mit dem alten Betriebssystem kompatibel sind. Das bedeutet für den Betreiber einer Produktionsanlage, dass schon nach wenigen Jahren umfangreiche Investitionen in Updates der vorhandenen Automatisierungssoftware für den Erhalt der Betriebsfähigkeit notwendig sind.

Bisher gibt es zwei mögliche Ansätze für den Betrieb einer Anlage über einen längeren Zeitraum. Zum einen kann etwa alle fünf Jahre die gesamte Rechnerebene hochgerüstet werden, um immer aktuell zu bleiben. Dies ist jedoch mit erheblichen Kosten zur Anlagenerhaltung verbunden.

Die andere Möglichkeit ist, einen Weg zu finden, die Rechnerhardware und die darauf laufende Automatisierungssoftware in diesem Zustand möglichst lange zu betreiben. Eine Virtualisierung kann hier eine Entkopplung der verwendeten Rechnerhardware und der darauf laufenden Betriebssysteme und Automatisierungssoftware bieten. Denn so kann die PC-Hardware jederzeit durch neue Modelle ausgetauscht werden, ohne die Betriebssysteme und die Applikationssoftware zu verändern. Für Anlagen, die einer erhöhten Änderungskontrolle unterliegen, wie zum Beispiel validierungspflichtige Produktionsanlagen in der Pharmaindustrie, ist dieses Konzept der einfachste und kostengünstigste Weg, eine Anlage über einen langen Zeitraum unverändert unter immer gleichen Bedingungen zu betreiben.

Da auch bei neuen Anlagen vorauszusehen ist, dass eine Modernisierung in etwa fünf Jahren anstehen wird, sollte schon bei der Planung die Möglichkeit der Virtualisierung in Betracht gezogen werden. So kann möglichen hohen Kosten und Modernisierungsaufwand vorgebeugt werden.

Siegeszug der Virtualisierung
Bereits seit Jahren ist die Technologie der Virtualisierung in der IT-Branche gängige Praxis. Alle größeren Unternehmen haben mittlerweile ihre Server virtualisiert, ohne dass die Anwender in den Unternehmen etwas davon mitbekommen haben. Aber die meisten Mitarbeiter in Produktionsanlagen kennen virtuelle Umgebungen höchstens beispielsweise von der Verwendung eines VMware Players, der auch für den privaten Bereich als Freeware kostenlos verfügbar ist. Hier läuft eine virtualisierte Windows-Maschine innerhalb einer echten Windows-Umgebung, quasi ein „Windows im Windows“. Diese Variante ist jedoch für Produktionsanlagen uninteressant, da sie sehr langsam ist, doppelte Windows-Lizenzen erfordert und das Betriebs-System des Host-Rechners weiterhin an die PC-Hardware gekoppelt ist. Genau das soll aber vermieden werden.

Die professionelle Virtualisierung besteht im Gegensatz zu den Freeware-Versionen aus einer Host-Software, die direkt auf der Rechnerhardware betrieben wird und mit der es möglich ist, mehrere virtuelle Windows-Maschinen auf einer gemeinsamen Rechnerhardware zu betreiben. Die Ressourcen des Rechners können dabei auf mehrere virtuelle Rechner aufgeteilt oder gemeinsam genutzt werden. Damit kann auch die Anzahl der verwendeten PCs reduziert werden. Dort wo bisher zum Beispiel zehn PCs zur Visualisierung in einer Anlage verteilt wurden, laufen heute zehn virtuelle Maschinen auf einem einzigen Host-Rechner. Die zehn Bedienplätze in der Anlage mit ihren Monitoren, Tastaturen und Mäusen werden dann nur noch über sogenannte Thin-Clients oder Zero-Clients über ein normales Ethernet-Netzwerk mit dem zentralen Host-Rechner verbunden und können die einzelnen virtuellen Maschinen genauso bedienen, wie einen „echten“ PC. Der Bediener der Anlage merkt keinen Unterschied, ob er an einem echten oder einem virtualisierten Rechnersystem arbeitet. Als Nebeneffekt werden dabei auch die häufig verwendeten KVM-Systeme überflüssig, die eine örtliche Trennung von Rechnereinheit und den Bedienkonsolen erlauben.

Wenn es nun möglich ist, alle Anwendungen auf einem zentralen Host-Rechner zu betreiben, stellt sich für Anlagenbetreiber natürlich sofort die Frage der Verfügbarkeit. Fällt der Host-Rechner aus, sind gleich alle virtuellen Systeme mit ausgefallen, die auf diesem Host-Rechner betrieben werden. Dies ist im Office-Bereich eventuell noch vertretbar, aber in produzierenden Anlagen wäre dies der Super-GAU.

Redundanz bringt Sicherheit
Hier setzt die klassische IT-Technik auf Redundanzkonzepte, bei denen zwei identische redundante Host-Rechner über ein Netzwerk-Festplattensystem (SAN) auf die gleichen Daten zugreifen können, so dass bei Ausfall eines Host-Rechners dessen virtuelle Maschinen einfach auf den redundanten Partner verschoben und dort weiter betrieben werden können. Dies hat wiederum den Nachteil, dass die eingesetzte Rechnerhardware und das Netzwerk-Festplattensystem extrem teuer werden und nur noch von IT-Experten betreut werden können. Darüber hinaus muss berücksichtigt werden, dass einige Hersteller von Automatisierungssoftware nicht alle Funktionen der Virtualisierung wie beispielsweise das Verschieben von virtuellen Maschinen zwischen zwei Rechnern im laufenden Betrieb freigegeben haben und somit diese Funktion für die Erhöhung der Verfügbarkeit nicht zur Verfügung steht.

Um die Kosten der eingesetzten Rechnerhardware und den administrativen Aufwand dennoch möglichst gering zu halten, hat es sich bewährt, die applikativen Redundanzkonzepte der Softwarelieferanten mit der Virtualisierung zu kombinieren.

Dabei werden die wichtigen Rechner der Anlage wie etwa die Server als zwei getrennte virtuelle Maschinen auch auf zwei getrennte Host-Rechner verteilt. Die für den Anlagenbetrieb weniger wichtigen Clients und Engineeringstationen werden ebenso auf zwei oder mehr Host-Rechnern verteilt, so dass bei Ausfall eines Rechners immer nur ein Teil aller Arbeitsplätze ausfällt, aber die Anlage auch mit den restlichen, noch laufenden virtuellen Maschinen weiter betrieben werden kann. Dieses Konzept hat sich auch bei klassischen „echten“ Rechnerlösungen ohne Virtualisierung in der Vergangenheit bereits bewährt.

Als Nebeneffekt kann bei dieser Variante auch preisgünstige Rechnerhardware verwendet werden, da jeder Host nur so viele Ressourcen zur Verfügung stellen muss, wie die lokalen virtuellen Maschinen benötigen und nicht so viele Ressourcen, um alle virtuellen Maschinen der gesamten Anlage zu bedienen.

Wer soll das Projekt umsetzen?
Für die Umsetzung eines solchen Projektes stellt sich abschließend noch die Frage: Wer soll es machen? Die klassischen Automatisierer, die sich mit der Konfiguration von Host-Rechnern und der virtuellen Umgebung schwer tun, oder die IT-Mannschaft, die aber die Eigenheiten der Automatisierungssoftware nicht kennt? Um hier zu einer gelungenen Lösung zu kommen, ist es wichtig, einen Partner zu wählen, der sich sowohl in der Automatisierung als auch in der IT-Technologie gut auskennt und bei der Realisierung des Projektes beide Welten miteinander „verheiraten“ kann.

 

Mehr zum Thema Virtualisierung erfahren Sie hier

 

Heftausgabe: November 2013
Anzeige
Jürgen Flütter, Vertriebsingenieur On/off Engineering

Über den Autor

Jürgen Flütter, Vertriebsingenieur On/off Engineering
Loader-Icon