Datenhighways für intelligente Maschinen
Big data
Mit der Industrie 4.0 wachsen die Datenmengen mit schwindelerregender Geschwindigkeit. Entscheidend für den Erfolg der Vision ist daher eine schnelle, leistungsstarke und belastungsfähige Infrastruktur.
Nur ein flächendeckender Ausbau breitbandiger Glasfasernetze kann den Anforderungen des IoT gerecht werden. Im neuen Mobilfunkstandard 5G sehen viele einen entscheidenden Impuls hin zu einer stark vernetzten Zukunft.
Hohe Bandbreiten
werden für Netzwerk-Systeme benötigt
Die vierte industrielle Revolution bedeutet vor allem eines: Daten, Daten und noch mehr Daten. In einer Studie aus dem November 2018 geht das Analyseinstitut IDC davon aus, dass im Jahr 2025 rund 175 Zettabyte an neuen Daten erzeugt werden – im Vergleich zu 33 Zettabyte im Jahr 2018.
Zur Erinnerung: Ein Zettabyte entspricht einer Trilliarde Byte oder einer Billion Gigabyte.
Lange Zeit waren private Verbraucher die größten Datenproduzenten, doch ihr Anteil an der „Global Datasphere“ sinkt kontinuierlich. Die Analysten gehen davon aus, dass in sechs Jahren rund 65% der Neudaten aus Unternehmen stammen. Ein Grund dafür ist die ständig wachsende Menge an Sensoren und „intelligenten“, kommunizierenden Maschinen. Allein 90 Zettabyte werden dann voraussichtlich im IoT generiert – ein nicht unerheblicher Anteil davon in der Industrie.
Trifft die Prognose von IDC zu, werden rund 30% des Datenvolumens im Jahr 2025 Echtzeitdaten sein, die innerhalb von Millisekunden verarbeitet werden. Für viele aktuelle Zukunftsprojekte ist das eine entscheidende Voraussetzung; die gesamte Vision der Industrie 4.0 hängt davon ab. Die beiden größten Herausforderungen lauten dabei:
- Rechenleistung.
Computer müssen in kürzester Zeit große Datenmengen verarbeiten. - Bandbreite.
Die generierten Daten müssen ohne Verzögerung übertragen werden.
In beiden Bereichen gibt es bereits Lösungsansätze, doch bis zur flächendeckenden Umsetzung muss noch viel geschehen.
Edge Computing
Wenn wichtige Datenverarbeitungsvorgänge dort durchgeführt werden, wo die Daten erzeugt werden.
Rechenleistung verschiebt sich an den Rand. In klassischen IT-Infrastrukturen erledigen zentrale Rechenzentren den weitaus größten Teil der Arbeit. Hier werden die Daten verarbeitet, verwaltet, gesichert und bei Bedarf wieder abgerufen. Dabei sind diese Knotenpunkte teilweise weit von den Endgeräten entfernt, an denen die Daten erzeugt und benötigt werden. In der Cloud arbeiten oft mehrere Rechenzentren zusammen, die örtlich weit auseinanderliegen. Diese Strukturen funktionieren in der klassischen Datenverarbeitung hervorragend. Mit der Industrie 4.0 und dem IoT geraten sie allerdings an ihre Grenzen:
Die Challenge. Die „intelligenten“ Maschinen der Smart Factorys produzieren ununterbrochen Unmengen von Sensordaten. Viele davon sind entscheidend für den laufenden Betrieb und müssen sofort ausgewertet und verarbeitet werden. Danach werden sie nicht mehr benötigt und wandern unverzüglich „auf den Müll“. Andere Informationen werden umfangreicher analysiert und archiviert, um sie mittel- oder langfristig zu nutzen. Gerade im ersten Fall, müssen Latenzzeiten vermieden werden, die zwangsläufig bei der Übermittlung zum und vom Rechenzentrum anfallen.
Die Lösung ist das Edge Computing. Dabei werden wichtige Rechenoperationen schon dort durchgeführt, wo die Daten erzeugt werden – also in der Maschine oder sogar im Sensor selbst. „Mini-Computer“, sogenannte PACs (Programmable Automation Controllers), entscheiden vor Ort, welche Daten ans Rechenzentrum weitergeleitet werden und welche sofort benötigt werden.
Zum Beispiel werden aktuelle Sensordaten mit Referenzwerten verglichen. Ist alles im grünen Bereich, werden sie sofort gelöscht. Nur die Information „Alles in Ordnung“ wird an den Server oder in die Cloud weitergeleitet.
Fog-Architekturen. In sogenannten Fog-Architekturen verwaltet eine weitere Ebene zwischen Endgeräten und Cloud Rechen- und Übertragungskapazitäten, sodass die Ressourcen optimal eingesetzt werden. Auf diese Weise reduziert das Edge Computing die Datenmenge, die über die Netze übertragen wird. Das hält die Latenzzeiten niedrig, entlastet die Rechenzentren und sorgt für einen störungsfreien Ablauf in der Smart Factory.
Lichtwellenleiterkabel
Datentransfer mit Lichtgeschwindigkeit
Auch wenn die Datenflut durch das Edge Computing gefiltert und reduziert wurde, sind in der Cloud weiterhin enorme Rechenleistungen nötig. Die Grundlage dafür ist immer eine leistungsfähige Infrastruktur. Unabhängig davon, wie die einzelnen Maschinen einer Smart Factory ihre Daten übertragen – die Bandbreite für eine reibungslos funktionierende Industrie 4.0 Umgebung können nur Lichtwellenleiter bereitstellen.
Um in weitläufigen Industrieanlagen ein funktionierendes Netzwerk aufzubauen, werden schnell mehrere Kilometer Kabelstrecke nötig. Dabei reichen die klassischen Kupferkabel aus der Industrie 3.0 nicht mehr aus, denn die können ein Datensignal unverstärkt nur rund 100 Meter übertragen.
Bei der Glasfaser können abhängig von Kabeltyp und Wellenlänge auch über 40 km noch Bandbreiten von 10 Gbit/s erreicht werden. Um bestehende Anlagen auf Industrie 4.0 umzurüsten, müssen Unternehmen also vor allem an ein Upgrade ihres Kabelnetzes denken. Dabei reicht es nicht, die Kupferkabel einfach durch Glasfasern zu ersetzen.
Erforderlich ist eine umfassende Netzarchitektur mit entsprechenden Redundanzen und Überbrückungsmechanismen, die sicherstellt, dass lokale Störungen und Ausfälle die Gesamtfunktionalität der Produktionsanlagen nicht beeinträchtigen.
Neuer Mobilfunkstandard
als Startschuss für Industrie 4.0
Die Experten sind sich einig, dass es nicht ausreicht, einige Firmenstandorte oder Produktionseinrichtungen aufzurüsten. Schon jetzt hat zum Beispiel ein großer Elektronikkonzern Standorte weltweit vernetzt, sodass Testergebnisse aus Asien direkt in den Produktionsprozessen eines Werks in Deutschland umgesetzt werden können.
Solche standortübergreifenden Netzwerke können selbst mächtige Großkonzerne nicht allein umsetzen. Sie funktionieren nur, wenn die öffentlichen Netze flächendeckend die nötigen Bandbreiten bereitstellen. Selbst wer die Medienberichterstattung nur unregelmäßig verfolgt, weiß, dass in den ländlichen Regionen Deutschlands noch viel geschehen muss, damit auch dort ansässige Unternehmen von der Industrie 4.0 profitieren können.
Neue Impulse werden vom neuen Mobilfunkstandard 5G erwartet, dessen Roll-out in naher Zukunft beginnen wird. Er wurde im Hinblick auf das IoT entwickelt und bietet im Vergleich zu LTE eine rund 100-mal höhere Bandbreite, hohe Verfügbarkeit und niedrige Reaktionszeiten. Im Labor wurden bereits Latenzzeiten unter einer Millisekunde realisiert. Allerdings geht die Geschwindigkeit auf Kosten der Reichweite, sodass in Zukunft erheblich mehr Sendemasten benötigt werden.
Um diese mit dem Backbone-Netz zu verbinden, muss auch die Glasfaserinfrastruktur weiter ausgebaut werden. Um einen schnellen und flächendeckenden Roll-out voranzutreiben, hat der Gesetzgeber sehr ambitionierte Auflagen erlassen, die aber von den großen Netzbetreibern bereits angefochten werden.
Soll Industrie 4.0 bald überall in Deutschland Realität werden, führt jedoch an 5G kein Weg vorbei.
Optische Netzüberwachungssysteme
Netzsicherheit durch Echtzeit-Monitoring
Je stärker Prozesse und Infrastrukturen vernetzt sind, umso anfälliger werden sie gegen jede Art von Störung – das können Schäden an der Faser selbst sein, Fehler in Hard- und Software von Netzkomponenten, aber auch Cyber-Attacken durch Hacker und Spione. Die Glasfaser bietet aber auch intelligente Lösungen, solche Störungen frühzeitig zu erkennen und so die Ausfallzeiten so gering wie möglich zu halten.
Auf der IT-Ebene müssen Performance-Probleme oder Eingriffe von außen schnellstmöglich behoben werden. NPMD-Systeme (Network-Performance- Monitoring and Diagnostics) zeichnen kontinuierlich den kompletten Datenverkehr auf und analysieren ihn. Damit können Störungen schnell festgestellt und auch nachträglich nachgewiesen und analysiert werden. Hochentwickelte NPMD-Lösungen wie die Observer-Produkte von Viavi Solutions erlauben sogar eine Analyse des Datenverkehrs auf Paketebene. Ergänzende Software stellt Überwachungsergebnisse grafisch übersichtlich dar und konzentriert sich dabei auf wenige KPIs (Key-Performance-Indikatoren). So können nicht nur IT-Experten schnell und effizient auf Störungen reagieren. Das neue Observer GigaFlow bietet sogar eine Ende-zu-Ende-Auswertung der einzelnen Datenströme in einem Netz.
OTDR (Optical Time Domain Reflectometry) ist eine bewährte Technologie zur Überwachung der physischen Netzstrukturen. Für das Monitoring reicht eine einzelne Faser im Kabel aus. Dabei wird die Rayleigh-Streuung von Lichtpulsen ausgewertet, um Fehler und Störstellen in Glasfasern zu erfassen und zu lokalisieren. Auf diese Weise lassen sich auch ausgedehnte Netze rund um die Uhr überwachen. Im Falle einer Störung kann diese in der kürzestmöglichen Zeit behoben werden. Hersteller wie Viavi Solutions bieten dafür skalierbare Lösungen an, die sich auf Unternehmensebene genauso einsetzen lassen wie in großflächigen Telekommunikationsnetzen – von der einzelnen OTU-Einheit bis hin zum umfassenden Optical Network Monitoring System (ONMSI).
Klicken Sie hier
LASER COMPONENTS Germany – Ihr kompetenter Partner für Fasertechnologien, optische und optoelektronische Komponenten in Deutschland
Willkommen bei der LASER COMPONENTS Germany GmbH, Ihrem Experten für Komponenten in der Photonik. Unser
breites Produktsortiment an Fasertechnologien, Detektoren, Laserdioden, Lasermodulen, Optik und mehr ist jeden
Euro (€/EUR) wert. Unsere Lösungen decken alle denkbaren Anwendungsbereiche ab: von der Sensortechnik bis zur
Medizintechnik.
Sie erreichen uns hier:
Werner-von-Siemens-Str. 15
82140 Olching
Deutschland
Tel.: +49 8142 2864-0
E-Mail: info(at)