Von Christian Schweinfurth
Früher standen in den meisten Wohnungen Personal Computer. Dank ihrer Prozessoren, Grafikkarten und ihres internen Speichers waren sie ziemlich schlau, bekamen aber trotzdem nie das Prädikat smart verliehen. Heute stehen in vielen Wohnungen Smart Speaker, die von sich aus eigentlich nicht allzu schlau sind, weil sie nur über schwache Hardware verfügen. Ihr Gehirn liegt meist in der Cloud, besser gesagt: auf Servern großer Unternehmen. Daran angeschlossen sind sie über das Internet. Und damit wären wir auch schon beim „Internet der Dinge“.
Das gilt als der nächste große Schritt in der Weiterentwicklung des Internets, das damit immer mehr Bereiche unseres Lebens und unserer Wirtschaft durchdringen soll. So gut wie alle Geräte sollen ans Netz angeschlossen werden, weil dadurch eine Vielzahl neuer Services und Anwendungen denkbar sind. Hauptsache smart, versteht sich.
Laut einer Analyse von IoT Analytics umfasst das Internet der Dinge derzeit etwa 9,5 Milliarden aktive IoT-Geräte weltweit – von Fahrstühlen über Container bis zu smarten Stromzählern, die oft über spezialisierte IoT-Plattformen miteinander integriert sind. Doch das ist erst der Anfang. Bis zum Jahr 2025 sollen es sogar 28 Milliarden Geräte werden. Und da sind Laptops, Tablets oder Smartphones noch nicht einmal eingerechnet.
Der Hunger nach Echtzeit wächst
Nicht jedes dieser 28 Milliarden Devices wird riesige Datenmengen produzieren, aber viele davon. Es werden also definitiv mehr Daten, die verarbeitet werden müssen. Das schon angesprochene Problem: In der Regel müssen die Daten dazu bisher an einen zentralen (Cloud-)Server übertragen werden, weil nicht jedes Gerät selbst die nötige Rechenpower hat. Oder weil die Anbieter von bestimmten Diensten die Daten gerne zentral speichern – man weiß ja nie, wozu man sie noch brauchen könnte.
Wird der Vorgang allerdings über ein eher schwaches Netz – sei es das Mobilfunknetz, ein lokales WLAN oder Bluetooth – abgewickelt, kann das Latenzen, also Verzögerungszeiten, zur Folge haben. Gerade für Echtzeit-Anwendungen ist das keine Option. Stellen wir uns vor, ein Elektroauto könnte beim kurzen Warten an der Ampel über ein Induktionsfeld im Straßenbelag geladen werden, muss für den Strom aber an Ort und Stelle bezahlen. Da kann es auf wenige Millisekunden ankommen. Auch in der Medizin oder in der Überwachung von industrieller Produktion kann es um Bruchteile von Sekunden gehen, die darüber entscheiden, ob ein System wirklich brauchbar und funktional ist. Es geht also um eine möglichst intelligente Datenverarbeitung – und die ließe sich nach dem heutigen Stand der Technik in vielen Fällen auf den Geräten selbst abwickeln.
Genau hier setzt das Edge Computing an, das Rechnen am Netzwerkrand. Das Ziel ist die Optimierung des Datenflusses – also die sinnvolle Festlegung, welche Daten direkt im Gerät des lokalen Netzwerks verarbeitet werden, welche sofort wieder gelöscht werden und welche Daten doch in die Cloud wandern müssen, um dort verarbeitet und gegebenenfalls gespeichert zu werden. Das Edge Computing verbindet also die Vorteile aus der Welt der schlauen, aber nicht vernetzten Personal Computer und aus der Welt der Cloud-unterstützten Smart Speaker. Das soll ein möglichst reibungsloses Nutzer-Erlebnis für IoT-Anwendungen ermöglichen, das auch noch nachhaltiger wäre, weil der Energieverbrauch für den Übertragungsweg auf einen zentralen Server wegfällt.
Das Internet der Dinge hat viele verschiedene Ränder
Prinzipiell kann sich jeder sein eigenes IoT-Ökosystem zusammenbasteln. Mithilfe eines einfachen Sensors auf Basis eines populären Mikrocontroller-Boards wie Arduino oder Raspberry Pi ließen sich ein Topf Begonien und die mühsam gezüchtete japanische Zieraprikose ans Internet anbinden, damit sie auch in Abwesenheit unterstützt von Machine-Learning-Algorithmen ideal bewässert werden können. In diesem Beispiel wären die smarten Pflanzentöpfe der Rand. Es würde aber keinen großen Unterschied machen, ob die Rechenarbeit dort oder in der Cloud stattfindet.
In komplexeren Ökosystemen sieht das anders aus. Hier kommen IoT-Plattformen ins Spiel, die den Datenverkehr koordinieren und die Spielregeln für den Datenaustausch festlegen, aber auch intelligente Analysefunktionen bereitstellen, die in der Regel auf einen zentralen Server ausgelagert sind. Jedes dieser Ökosysteme besitzt eigene „Ränder“, wo Geräte selbstständig agieren könnten – und wo sich Edge Computing möglicherweise lohnt.
Ein Beispiel wäre die Auswertung der Daten in einer industriellen Produktionslage, die mit leistungsfähigen Sensoren und Mikrochips ausgestattet ist. Hier bietet sich eine Vorauswertung „am Rand“, also in der Fabrikhalle, nicht unbedingt nur aus Performance-Gründen an, sondern auch weil sich aus dem Datenstrom an einen zentralen Firmenserver oder in die Cloud Geschäftsgeheimnisse möglicherweise leichter auslesen ließen. „Edge Computing“ kann also zu einem effektiven Datenschutz beitragen.
Das gilt auch für Anwendungen, die sich an private Nutzer richten. Wenn, zum Beispiel, Patienten Gesundheits-Apps oder Gesundheits-Wearables nutzen, könnte es vorteilhaft sein, die Analyse der Daten, etwa mithilfe von Künstlicher Intelligenz, direkt auf den Geräten durchzuführen. Dann können die User selbst entscheiden, welche sensiblen Gesundheitsdaten sie an Unternehmen oder für Forschungszwecke weiterleiten. Auf einen zentralen Server übertragen würden dann nur die Informationen, die für die Verbesserung eines Prognosemodells wirklich erforderlich sind.
Ein weiteres Beispiel: das autonome Fahren, das Unmengen an Daten produziert. Laut ADAC fallen dabei derzeit pro Minute fünf Gigabyte an. Hier soll in Zukunft auch nicht nur „im“ Fahrzeug gerechnet werden, sondern auch „zwischen“ den Fahrzeugen, sprich: Car2Car, und zwischen Fahrzeugen und der Infrastruktur, sprich: Car2Infrastructure. Es ist also relativ einleuchtend, dass der Umweg über eine zentrale Cloud eher umständlich und teuer ist. Stattdessen kommen lokale Ad-hoc-Netzwerke zum Einsatz. Auch hier muss abgewogen werden, welche Daten wo und wie erhoben und ausgewertet werden – und welche Daten sofort wieder gelöscht werden können. Entsprechende Standards werden etwa vom Ca-2-Car Communication Consortium erarbeitet.
Neue Super-Chips für neues Computing
Damit Edge Computing erfolgreich sein kann, braucht es entsprechend leistungsfähige Hardware, die in den Geräten selbst steckt. Das gilt insbesondere für KI-Anwendungen. Deswegen werden Computerchips eigens für dieses spezielle Leistungsprofil entwickelt. Neue „KI-Chips“ basieren auf sogenannten „neuromorphen Prozessoren“. Solche Chips werden in Smartphones schon jetzt eingesetzt, etwa für die intelligente Analyse von Fotos. Denn sie sind für eine schnelle Mustererkennung ausgelegt, ob für die Erkennung von Personen und Orten auf Fotos oder die Stimmanalyse beim Umgang mit Sprachassistenten.
Übrigens gibt es sogar schon Edge-Computing-Lösungen, die Smart Speaker wirklich smart machen sollen – auch ohne permanenten Kontakt zur Cloud. Vielleicht wäre es also an der Zeit, sie in Personal Speaker umzubenennen? Nur so ein Gedanke.
Titelbild: MR.Cole_Photographer / Getty Images