18. Januar 2019

Zur Bewertung der Gesamtbetriebskosten von Edge- und Cloud-Bereitstellungen: Eine Wireless-Denial-of-Service-Fallstudie

Vollständigen Artikel lesen

Abstrakt

Wir erleben ein explosionsartiges Wachstum der Zahl der mit dem Internet verbundenen Geräte und das Entstehen mehrerer neuer Klassen von Internet-of-Things-Anwendungen (IoT), die eine schnelle Verarbeitung einer Fülle von Daten erfordern. Um den daraus resultierenden Bedarf an größerer Netzbandbreite und niedriger Netzlatenz zu decken, hat sich ein neues Paradigma herausgebildet, das das Angebot von Cloud-Diensten am Edge, also näher am Nutzer, fördert. Der Edge ist jedoch eine stark eingeschränkte Umgebung mit einem begrenzten Energiebudget für Server pro Edge-Installation, was wiederum die Anzahl der mit dem Internet verbundenen Geräte, wie z. B. Sensoren, begrenzt, die eine Installation bedienen kann. Folglich führt die begrenzte Anzahl von Sensoren zu einer Verringerung der von ihnen abgedeckten Fläche und stellt die Effektivität der Bereitstellung von IoT-Anwendungen am Edge in Frage. In diesem Beitrag untersuchen wir die Vorteile des Betriebs einer aufkommenden sicherheitsorientierten IoT-Anwendung (Störungserkennung) am Edge im Vergleich zur Cloud, indem wir ein Gesamtbetriebskostenmodell (TCO) entwickeln, das sowohl die Anforderungen der Anwendung als auch die Beschränkungen des Edge berücksichtigt. Zum ersten Mal erstellen wir ein solches Modell auf der Grundlage realistischer Leistungs- und Energieeffizienzmessungen, die von handelsüblichen 64-Bit-ARM-basierten Mikroservern gewonnen wurden, die hervorragende Kandidaten für die Unterstützung von Cloud-Diensten am Edge sind. Solche Server stellen die Art von Geräten dar, die das richtige Gleichgewicht zwischen Energie und Leistung bieten können, ohne eine komplizierte Kühlungs- und Stromversorgungsinfrastruktur zu benötigen, die bei dezentralen Implementierungen nicht zur Verfügung steht. Mit dem Ziel, die Energieeffizienz zu verbessern, nutzen wir die pessimistischen Designmargen, die üblicherweise in solchen Geräten verwendet werden, und untersuchen ihren Betrieb bei niedrigerer als der nominalen Versorgungsspannung und Speicherauffrischungsrate. Unsere Ergebnisse zeigen, dass die Störungserkennungsanwendung, die in einer Edge-Umgebung eingesetzt wird, einer Cloud-basierten Lösung in Bezug auf die Gesamtbetriebskosten um das bis zu 2,13-fache überlegen ist. Wenn die Server außerdem mit...

Vollständigen Artikel lesen

Autoren

Andrea Bartoli

Newsletter

Informieren Sie sich regelmäßig über die neuesten Branchentrends, technische Innovationen und Erfolgsgeschichten von Kunden