Cloud oder Edge – wo liegt die Zukunft der KI?
Alexa im Wohnzimmer, Roboter, die autonom durch Logistikzentren schwirren, erste selbstfahrende Autos – Künstliche Intelligenz (KI) erhält Einzug in den Mainstream. Aber um die großen Erwartungen wirklich zu erfüllen - auch in Bezug auf die vierten industriellen Revolution - muss KI intelligenter arbeiten und schneller lernen. Die Antwort auf diese Herausforderung, so eine weitläufige Aussage, ist, die KI an den sogenannten Edge zu bringen. Dieser Edge bezeichnet die dezentrale Datenverarbeitung am Netzwerkrand.
Anlässlich der Veröffentlichung unseres aktuellen M&A-Marktreports zu Artificial Intelligence fragen wir, ob die KI kurz vor dem Post-Cloud-Zeitalter steht oder ob der Edge eher ein Vermittler ist.
Künstliche Intelligenz: Cloud versus Edge
In den letzten Jahren ist Cloud Computing Standard geworden. Aber es gibt Einschränkungen für das Senden und Verarbeiten umfassender Datensätze an weitentfernte Rechenzentren. Die Lösung könnte Edge Computing sein, das Verarbeitungsaufgaben aus der Cloud oder von entfernten Rechenzentren zu Algorithmen auf Geräten am Rande des lokalen Netzwerks verlagert.
Ein offensichtlicher Vorteil dieses Ansatzes ist die Reduzierung der Latenzzeit. Cloud-basierte Anwendungen können im Handumdrehen Daten empfangen, verarbeiten und zurücksenden, sind aber immer noch nicht schnell genug für KI-Funktionen, bei denen Millisekunden zählen. Der Nutzen und die Sicherheit von Maschinen - beispielsweise bei fahrerlosen Autos und Roboterchirurgen - hängt davon ab, dass sie Informationen in Echtzeit sammeln, analysieren und darauf reagieren können. Latenzzeiten haben hier keinen Platz.
Die Datenintensität kann ein weiteres Thema sein, insbesondere wenn es um datenreiche Funktionen wie medizintechnische Algorithmen geht, die Millionen von genetischen Markern verarbeiten. Die Übertragung all dieser Informationen an ein entferntes Rechenzentrum ist teuer. Und noch ein weiteres Handicap der Cloud ist der Bedarf an qualitativ hochwertiger und zuverlässiger Konnektivität, die die Nutzung von KI-Anwendungen in abgelegenen Gebieten oder sogar landwirtschaftlichen Betrieben ausschließt.
Edge-Geräte sind so konzipiert, dass sie ihre Verarbeitungsaufgaben lokal ausführen und nur bei Bedarf mit dem breiteren Netzwerk kommunizieren. Dies hat auch den Vorteil von längeren Akkulaufzeiten. Und natürlich gibt es auch das Argument der Datensicherheit. Je mehr Informationen in der Cloud vorgehalten werden, desto höher ist das Risiko eines Datenverstoßes.
Zusammenarbeit als Lösung
Autonome Fahrzeuge, Internet of Things (IoT), Healthtech, Handel, Versicherungen und Smart Cities benötigen genaue Echtzeitdaten, um ihr Wachstum und ihre Wettbewerbsfähigkeit zu sichern. Experten glauben, dass der Schlüssel zum Erfolg in der Fähigkeit des Edge liegt, Millionen von Spezialaufgaben zu bewältigen – im Gegensatz zum One-size-Fits-all-Ansatz der Cloud. Doch das heißt nicht unbedingt, dass die KI sich in einer Post-Cloud-Phase befindet - vielmehr können diese beiden Methoden der Datenverarbeitung zusammenarbeiten.
Individuelle Geräte können von ihrer eigenen Umgebung lernen und sich an diese anpassen, wodurch jeder Algorithmus zu einem Experten auf seinem eigenen Gebiet wird und diese Informationen bei Bedarf weitergeben kann. Modelle des maschinellen Lernens können in Rechenzentren trainiert werden, bevor sie weitgehend autonom werden - die Verarbeitung und das lokale Lernen erfolgen auf Edge-Geräten, die die Cloud oder entfernte Rechenzentren benachrichtigen, wenn es ein Problem gibt. Dies löst alle Einschränkungen der Cloud in der KI, reduziert Latenzzeiten sowie den Strom- und Bandbreitenverbrauchs bei gleichzeitiger Verbesserung des Datenschutzes und behält dennoch alle Vorteile der zentralen Datenspeicherung.
So sehen es die Märkte
Doch es ist ein Modell hinter dem die Märkte scheinbar zurückbleiben. Es wird erwartet, dass der Markt für Edge-KI-Software von 356 Millionen Dollar im vergangenen Jahr auf 1,15 Milliarden Dollar bis 2023 wächst. Wie in unserem Marktbericht hervorgehoben, bildet Edge Computing ein eigenes Ökosystem erfolgreicher Start-ups.
Im Juli 2018 beispielsweise sammelte Swim.ai 10 Millionen Dollar in einer Serie-B-Runde, zu der auch das strategische Investor- und Chip-Designunternehmen arm gehört. Damit erhöhte sich die Gesamtfinanzierung des Unternehmens auf rund 18 Millionen Dollar. Das Produkt von Swim.ai ermöglicht es vernetzten Edge-Geräten, durch lokale Datenverarbeitung und -analyse Informationen auszutauschen und sich gegenseitig zu trainieren. Die Nachfrage nach der Software wird durch ihre einzigartige Peer-to-Peer-Fähigkeit angetrieben, die es Edge-Geräten möglich macht, lokal auf bestehenden Geräten miteinander zu kommunizieren.
Laut Rusty Coumpton, Mitbegründer und CEO von Swim.ai, "sind die effiziente Verarbeitung von Edge-Daten und die einfache Erstellung und Bereitstellung von Insights mit geringster Latenzzeit entscheidende Anforderungen für jedes Unternehmen."
Verbindung schaffen
Dennoch, bei aller Begeisterung für den Edge geht es nicht darum, die Cloud einzukassieren, sondern um eine Verbindung zwischen Anwendungen und Rechenzentren. Diese Partnerschaft wird es der Künstlichen Intelligenz ermöglichen, schneller, effizienter und kompetenter in allen Themenbereichen zu werden. So können Algorithmen aus ihrer eigenen Umgebung lernen und darauf reagieren, lokale Entscheidungen auf der Grundlage lokaler Daten treffen und bei Bedarf in die Cloud zurückkehren.
Die lokale Datenverarbeitung wird Methoden entwickeln und bereitstellen, um intelligentere und effizientere Arbeitsweisen zu schaffen, die auf jeden Sektor zugeschnitten und remote gesichert sind. Mit anderen Worten, während die Cloud das übergreifende Gehirn ist, das alle Anforderungen der Datenindustrie 4.0 erfüllt, ist der Edge die Schwarmintelligenz, die es versorgt.
“The first half of 2019 has proven a record period in M&A transaction volume for machine data analysis. Edge AI is set to become a driving force in this peak period; and, given its universal applicability, will undoubtedly bolster activity in other AI sub-sectors.”