Neuer Service ermöglicht Unternehmen eine Verbesserung des Durchsatzes um das Dreifache, 60 Prozent weniger Latenz und 86 Prozent niedrigere Kosten im Vergleich zu traditionellen Hyperscalern.
Cambridge, Massachusetts (USA) / München – 27. März 2025 | Akamai (NASDAQ: AKAM), führender Anbieter für Cybersicherheit und Cloud Computing, präsentierte heute Akamai Cloud Inference. Diese Lösung fördert eine schnellere und effizientere Innovationswelle für Organisationen, die Predictive und Large Language Models (LLMs) in praktische Anwendungen umsetzen wollen. Akamai Cloud Inference läuft auf der Akamai Cloud, der weltweit am weitesten verteilten Plattform, um die zunehmenden Einschränkungen zentralisierter Cloud-Modelle zu adressieren.
“KI-Daten näher an Benutzer und Geräte zu bringen, ist eine Herausforderung, an der herkömmliche Cloud-Systeme oft scheitern”, erläutert Adam Karon, Chief Operating Officer und General Manager der Cloud Technology Group bei Akamai. “Während das aufwendige Training von LLMs weiterhin in großen Hyperscaler-Rechenzentren stattfindet, verlagert sich die praktische Arbeit des Inferencing an die Edge. Hier kommt das Netzwerk zum Tragen, das Akamai in den letzten zweieinhalb Jahrzehnten aufgebaut hat. Es wird für die Zukunft der KI entscheidend sein und unterscheidet uns von jedem anderen Cloud-Anbieter im Markt.”
KI-Inferenz auf der Akamai Cloud
Akamais neue Lösung bietet Platform Engineers und Entwicklern Werkzeuge zum Aufbau und Betrieb von KI-Anwendungen und datenintensiven Workloads nahe am Endnutzer. Dies ermöglicht einen dreifach höheren Durchsatz bei gleichzeitiger Reduzierung der Latenz um das bis zu zweieinhalbfache. Mit Akamais Lösung können Unternehmen bei KI-Inferenz und agentenbasierten KI-Workloads im Vergleich zu traditioneller Hyperscaler-Infrastruktur bis zu 86 Prozent der Kosten einsparen. Akamai Cloud Inference umfasst:
Rechenleistung: Die Akamai Cloud bietet ein vielseitiges Compute Portfolio, von klassischen CPUs für fein abgestimmte Inferenz bis hin zu leistungsstarken beschleunigten Rechenoptionen in GPUs und maßgeschneiderten ASIC VPUs. Dies gewährleistet die optimale Leistung für verschiedenste KI-Inferenz-Anforderungen. Akamai integriert sich in Nvidias AI Enterprise-Ökosystem und nutzt Triton, TAO Toolkit, TensorRT und NVFlare zur Leistungsoptimierung der KI-Inferenz auf Nvidia GPUs.
Datenmanagement: Akamai ermöglicht Kunden, das volle Potenzial der KI-Inferenz mit einer hochmodernen Datenstruktur zu erschließen, die speziell für moderne KI-Workloads entwickelt wurde. In Zusammenarbeit mit VAST Data bietet Akamai optimierten Zugang zu Echtzeitdaten, um inferenzbezogene Aufgaben zu beschleunigen. Auf dieser Basis liefert Akamai relevante Ergebnisse sowie ein responsives Erlebnis. Dies wird durch hochskalierbaren Objektspeicher ergänzt, um das Volumen und die Vielfalt von Datensätzen zu verwalten, die für KI-Anwendungen kritisch sind. Die Integration führender Vektordatenbank-Anbieter wie Aiven und Milvus ermöglicht Retrieval Augmented Generation (RAG). Mit diesem Datenmanagement-Stack speichert Akamai fein abgestimmte Modelldaten und Trainingsartefakte sicher für eine KI-Inferenz mit niedriger Latenz im globalen Maßstab.
Containerisierung: Die Containerisierung von KI-Workloads ermöglicht bedarfsbasierte automatische Skalierung, verbesserte Anwendungsresilienz und Hybrid-/Multicloud-Portabilität bei gleichzeitiger Optimierung von Leistung und Kosten. Mit Kubernetes liefert Akamai schnellere, günstigere und sicherere KI-Inferenz im Petabyte Bereich. Unterstützt wird dies durch die Linode Kubernetes Engine (LKE)-Enterprise, eine neue Enterprise-Edition der Akamai Cloud Kubernetes-Orchestrierungsplattform, die speziell für große Unternehmens-Workloads entwickelt wurde, sowie die kürzlich angekündigte Akamai App Platform. Akamai Cloud Inference ist damit in der Lage, über eine KI-fähige Plattform aus nahtlos integrierten Open-Source-Kubernetes-Projekten, einschließlich KServe, Kubeflow und SpinKube schnell und effizient KI-Modelle für Inferenz bereitzustellen.
Edge-Computing: Zur Vereinfachung der Entwicklung KI-gestützter Anwendungen umfasst Akamai AI Inference WebAssembly (WASM)-Funktionen. In Zusammenarbeit mit WASM-Anbietern wie Fermyon ermöglicht Akamai Entwicklern, Inferencing für LLMs direkt über Serverless-Funktionen auszuführen. Dies ermöglicht es Kunden, kompakten Code an der Edge für echtzeitkritische Anwendungen zu nutzen.
Diese Tools bilden zusammen eine leistungsstarke Plattform für latenzarme, KI-gestützte Anwendungen. Sie ermöglicht Unternehmen die von ihren Nutzern geforderten Anforderungen zu erfüllen. Akamai Cloud Inference läuft auf der massiv verteilten Plattform des Unternehmens, das konsistent mehr als ein Petabyte pro Sekunde Durchsatz für datenintensive Workloads liefern kann. Mit mehr als 4.200 Standorten in über 1.200 Netzwerken in mehr als 130 Ländern weltweit macht die Akamai Cloud Rechenressourcen von der Cloud bis zur Edge verfügbar, beschleunigt gleichzeitig die Anwendungsleistung und erhöht die Skalierbarkeit.
Die Verlagerung von KI-Training zu KI-Inferenz
Mit der zunehmenden Etablierung von KI erkennen Unternehmen, dass der Hype um LLMs den Fokus von praktischen KI-Lösungen abgelenkt hat, die besser geeignet sind, spezifische Geschäftsprobleme zu lösen. LLMs eignen sich hervorragend für allgemeine Aufgaben wie Zusammenfassung, Übersetzung und Kundenservice. Diese sehr großen Modelle sind jedoch teuer und zeitaufwändig zu trainieren.
Viele Unternehmen sehen sich durch architektonische und kostenbezogene Anforderungen eingeschränkt, einschließlich Rechenzentren und Rechenleistung, gut strukturierte, sichere und skalierbare Datensysteme sowie die Herausforderungen, die Standort- und Sicherheitsanforderungen an die Entscheidungslatenz stellen. Leichtgewichtige KI-Modelle, die entwickelt wurden, um spezifische Geschäftsprobleme zu lösen, können für einzelne Branchen optimiert werden. Sie nutzen proprietäre Daten, um messbare Ergebnisse zu erzielen und liefern heute eine höhere Profitabilität für Unternehmen.
KI-Inferenz benötigt eine stärker verteilte Cloud
Daten werden zunehmend außerhalb zentralisierter Rechenzentren oder Cloud-Standorten generiert. Diese Verschiebung treibt die Nachfrage nach KI-Lösungen an, die die Datengenerierung näher am Ursprungsort nutzen. Das verändert grundlegend die Infrastrukturbedürfnisse, da Unternehmen über den Aufbau und das Training von LLMs hinausgehen, um Daten für schnellere und intelligentere Entscheidungen zu nutzen und in personalisiertere Erfahrungen zu investieren.
Unternehmen erkennen, dass sie mehr Wert generieren können, indem sie ihre Geschäftsabläufe und -prozesse mit KI verwalten und verbessern. Verteilte Cloud- und Edge-Architekturen erweisen sich als bevorzugt für Anwendungsfälle der Echtzeitanalyse von Betriebsdaten. Sie liefern Einblicke über verteilte Assets hinweg in Echtzeit, selbst in entfernten, schlecht angebundenen Umgebungen.
Erste Anwendungsfälle von Unternehmen auf der Akamai Cloud umfassen Sprachassistenz im Fahrzeug, KI-gestützte Pflanzenbewirtschaftung, Bildoptimierung für Marktplätze für Konsumgüter, virtuelle Bekleidungsvisualisierung im Einkaufserlebnis, automatisierte Generierung von Produktbeschreibungen und Stimmungsanalysen für Kundenfeedback.
“Das Training eines LLM ist wie das Erstellen einer Karte – es erfordert das Sammeln von Daten, die Analyse des Terrains und das Planen von Routen. Dieser Prozess ist langsam und ressourcenintensiv, aber einmal erstellt, ist es sehr nützlich. KI-Inferenz, ist wie die Verwendung eines GPS, das dieses Wissen sofort anwendet, in Echtzeit neu berechnet und sich an Änderungen anpasst, um dahinzugelangen wo man hinmöchte.”, erklärt Karon. “Inferenz ist das nächste Pionierland für KI.”
Verantwortlicher für diese Pressemitteilung:
Akamai Technologies
Frau Helen Farrier
— —
— —
Deutschland
fon ..: 0211-54-087-725
fax ..: —
web ..: https://www.akamai.com/de
email : akamai-pr@fleishman.com
Über Akamai
Akamai ist ein führender Anbieter für Cybersicherheit und Cloud Computing. Mit ausgefeilten Sicherheitslösungen, Threat Intelligence und einem globalen Betriebsteam stellt Akamai umfassende Abwehrmaßnahmen bereit, um kritische Daten und Anwendungen an jedem Touchpoint zu schützen. Die Cloud-Computing-Lösungen bieten als Full-Stack-Gesamtpaket zuverlässige Performance auf der weltweit am stärksten verteilten Plattform. Globale Unternehmen vertrauen auf Akamai für die branchenführende Zuverlässigkeit, Skalierbarkeit und Expertise, die sie benötigen, um ihr Geschäft auszubauen. Weitere Informationen gibt es unter akamai.com und akamai.com/blog sowie auf X und LinkedIn.
Pressekontakt:
FleishmanHillard Germany GmbH
Frau Ann-Charlott Stegbauer
Blumenstraße 28
80331 München
fon ..: 089 23031628
web ..: http://www.fleishman.de
email : akamai-pr@fleishman.com