Edge- und Fog-Computing im Industrial IoT haben sich in den vergangenen Monaten geradezu zu einem Hype Thema entwickelt. Doch was ist dran an dem Hype? Und löst Edge- und Fog-Computing wirklich die großen Herausforderungen der Zukunft?

Laut einer Studie von IDC wird sich das Datenvolumen weltweit bis zum Jahr 2025 auf 163 Zettabyte erhöhen. Das Volumen wächst gigantisch. Dabei entsprechen 163 Zettabytes in etwa der Speicherkapazität von 40 Trillionen DVDs, die übereinandergestapelt über 100 Millionen Mal bis zum Mond und wieder zurück reichen würden. Der Grund hierfür ist in erster Linie die rasant steigende Zahl von vernetzten Geräten. Dabei handelt es sich zum einen um Consumer Geräte wie Fitness-Tracker, Smartwatches und Haushaltsgeräte. Zum anderen findet aber auch in der Wirtschaft aufgrund der digitalen Transformation eine großflächige Vernetzung in fast allen Branchen statt. In der Wirtschaft spricht man hier vom Industrial IoT (IIoT).Neben dem reinen Wachstum des Datenvolumens, nimmt die Kritikalität der Daten deutlich zu. Waren es früher überwiegend Geschäftsdaten, so werden es in den kommenden Jahren zunehmend Daten sein, deren Missbrauch lebensgefährlich sein kann. Das ist anhand vernetzter, autonomer Autos und kommunizierender Medizingeräte mehr als offensichtlich. Was weniger klar ist, ist die Tatsache, dass die Verarbeitung der Daten zukünftig in Realtime erfolgen muss. Hier kommt Edge-Computing ins Spiel. Edge Computing ist eine Methode zur Optimierung von Cloud-Computing-Systemen, mit der die Kontrolle über Computeranwendungen, Daten und Dienste von einigen zentralen Knotenpunkten auf das andere logische Extrem (das „Edge“) des Internets verlagert wird. Edge-Computing ist quasi die Umkehrung der Cloud. Statt alles zu zentralisieren, verfolgt das Edge-Computing eine maximale Dezentralisierung.

Fog-Computing wiederum stellt hier eine Ergänzung zum Edge-Computing dar. Als Zwischenschicht zwischen Edge und Cloud, erlaubt Fog-Computing es, komplexere Berechnungen, die normalerweise in der Cloud stattfinden, so nah wie möglich am Edge durchzuführen. Das bedeutet, dass auf dem Fog Layer verschiedene Geräte im lokalen Netz sich ihre Rechenkapazität horizontal teilen können. Edge- und Fog-Computing sind hierbei ergänzende Konzepte zur Cloud, die im Zusammenspiel unterschiedliche Aufgaben wahrnehmen und im Grunde auch nur in Kombination sinnvoll sind. IoT Architekturen bestehen also zukünftig aus drei unterschiedlichen Layern. Dem Cloud Layer, dem Fog Layer und natürlich dem Edge Layer. Welche Aufgabe auf welchem Layer ausgeführt wird, ist in erster Linie eine Frage der Rechenleistung, die am jeweiligen Layer zur Verfügung steht. Moderne Edge Devices werden immer leistungsfähiger und können immer komplexere Aufgaben übernehmen. Aufgaben, die die Rechenleistung der Hardware überfordern, werden auf dem Fog Layer ausgeführt, sind damit aber immer noch in einer lokalen Verarbeitung. Mit zunehmender Rechenleistung der Edge Geräte werden auch Aufgaben, die zuvor im Fog realisiert wurden in die Edge verschoben.

Da auch der Fog Layer leistungsfähiger wird, werden auch Aufgaben aus der Cloud in den Fog wandern. So ist absehbar, dass es mehrere Wellen geben wird mit denen sich Aufgaben von einem Layer in den darunter liegenden verschieben werden. Dennoch wird es auch weiterhin Funktionen in der Cloud geben, die niemals auf dem Fog- oder Edge-Layer ausgeführt werden. Dies betrifft alle Arten von Auswertungen und Analysen, die auf zentral zusammengeführten Daten stattfinden. Die Entwicklung hin zum Edge-Computing ist eine notwendige Evolution, die primär auf dem globalen Daten-wachstum basiert. Aber auch die sich ändernde Kritikalität der Daten spielt eine entscheidende Rolle. Edge Computing bietet aber weit mehr Möglichkeiten als nur eine Verlagerung der Bandbreiten-probleme. Es ist jetzt möglich kritische Daten direkt vor Ort zu verarbeiten. Mit Sicht auf Anforderungen des Datenschutzes ein nicht zu unterschätzender Vorteil. Man hat damit die Sicherheit, dass Daten nicht mehr unkontrolliert auf Servern in Drittstaaten gespeichert werden. Es werden nur noch anonymisierte Daten zur Verarbeitung und Auswertung an die Cloud weitergegeben. Der Personenbezug verbleibt quasi auf der Edge. Das setzt voraus, dass die Sicherheit der Daten durch das Edge Device gewährleistet wird. Was im Vergleich zur Cloud noch wesentlich schwieriger ist, da die Daten in der Cloud in der Regel in sicheren Rechenzentren zumindest vor einem physikalischen Zugriff gut geschützt sind. Mit der Speicherung und Verarbeitung in der Edge ist das nicht mehr der Fall. Die Dezentralisierung führt dazu, dass die Geräte in physikalisch unsicheren und oftmals unkontrollierten Umgebungen betrieben werden. Der Schutz vor physikalischer Manipulation ist daher zwingende Notwendigkeit will man die Daten in der Edge verarbeiten und speichern. Mit Aufteilung in Cloud, Fog und Edge Layer ergeben sich auf allen Ebenen neue Bedrohungen für die Daten denen man adäquat begegnen muss. Das fängt an mit dem physikalischen Schutz der Daten. Auch das Betriebssystem muss vor Manipulationen geschützt sein, was sich unter anderem durch Maßnahmen wie Secure Boot und verschlüsselte Root-Dateisysteme realisieren lässt.Was den Fog-Layer betrifft, ist in erster Linie die sichere Authentifizierung der Geräte untereinander zu nennen. Stellt ein Gerät seine Rechenleistung einem anderen Gerät zur Verfügung, muss gewährleistet sein, dass dieses auch dazu berechtigt ist.

Wie aber sichert man Edge-/ Fog-Computing Umgebungen nun sinnvoll ab? Verschlüsselung ist hier die Lösung. Aber die Schlüssel sollten aufgrund der physikalischen Zugriffsmöglichkeiten durch Hardware geschützt und nicht in Software gespeichert werden. Sinnvoll sind dabei Secure Elements, die es auch Applikationen, die auf der Edge laufen ermöglichen, Schlüsselmaterial in einem Secure Element abzulegen und zu nutzen. Sämtliche Verbindungen, die dabei mit dem System aufgebaut werden, sollten durch eine beidseitige, zertifikatsbasierte Authentifizierung etabliert werden. So ist ausgeschlossen, dass nicht autorisierte Systeme eine Verbindung zum Device herstellen. Es entsteht ein Trusted EcoSystem, in dem nur Geräte und Applikationen miteinander kommunizieren können, die sich gegenseitig vertrauen. Dieses Vertrauen wird über eine Public Key Infrastruktur (PKI) gemanaged. Das Thema Sicherheit ist hierbei kein Zustand, den man sich einmalig einkauft. Sicherheit muss vielmehr regelmäßig geprüft und erneuert werden. Sowohl für das Betriebssystem, als auch für die Sicherheitszertifikate sind regelmäßige Updates zwingende Voraussetzung, um einen dauerhaft sicheren Betrieb der Umgebung zu gewährleisten.

Fazit

Edge Computing ist kein Trend, sondern eine Notwendigkeit, die sich aus der Entwicklung und Veränderung von Datenvolumen und -kritikalität ergibt. Nur indem die Verarbeitung der Daten sich näher an den Ort der Datenerzeugung selbst bewegt, können die zukünftigen Anforderungen an Bandbreite und Latenz erfüllt werden. Ganz nebenbei können dadurch Sicherheitsprobleme gelöst werden, da die Daten nicht vom Ort der Entstehung entfernt und in fremden Rechenzentren verarbeitet werden. Gleichzeitig gilt es aber neuen Sicherheitsbedrohungen zu begegnen, die sich nicht nur aus dem Wegfall des Perimeters ergeben. Nicht nur der physikalische Schutz der verteilten Systeme muss gewährleistet werden, sondern vielmehr ist eine Multilayer-Sicherheitsarchitektur notwendig, die sich von der Hardware bis zur Cloud erstreckt.