Eine leistungsstarke, kostengünstige Infrastruktur für maschinelles Lernen beschleunigt Innovationen in der Cloud

Zur Verfügung gestellt von Amazon Web-Services



Künstliche Intelligenz und maschinelles Lernen (KI und ML) sind Schlüsseltechnologien, die Unternehmen dabei unterstützen, neue Wege zu finden, um den Umsatz zu steigern, Kosten zu senken, Geschäftsprozesse zu rationalisieren und ihre Kunden besser zu verstehen. AWS hilft Kunden, ihre KI/ML-Einführung zu beschleunigen, indem es leistungsstarke Computing-, Hochgeschwindigkeits-Netzwerk- und skalierbare Hochleistungsspeicheroptionen nach Bedarf für jedes Machine-Learning-Projekt bereitstellt. Dies senkt die Eintrittsbarriere für Unternehmen, die die Cloud zur Skalierung ihrer ML-Anwendungen einführen möchten.





Entwickler und Datenwissenschaftler erweitern die Grenzen der Technologie und setzen zunehmend auf Deep Learning, eine Art maschinelles Lernen, das auf neuronalen Netzwerkalgorithmen basiert. Diese Deep-Learning-Modelle sind größer und ausgefeilter, was zu steigenden Kosten für den Betrieb der zugrunde liegenden Infrastruktur zum Trainieren und Bereitstellen dieser Modelle führt.

Damit Kunden ihre KI/ML-Transformation beschleunigen können, baut AWS leistungsstarke und kostengünstige Chips für maschinelles Lernen. AWS Inferentia ist der erste maschinelle Lernchip, der von Grund auf von AWS für die kostengünstigste maschinelle Lerninferenz in der Cloud entwickelt wurde. Tatsächlich bieten Amazon EC2 Inf1-Instances, die von Inferentia betrieben werden, eine 2,3-mal höhere Leistung und bis zu 70 % niedrigere Kosten für Machine-Learning-Inferenz als GPU-basierte EC2-Instances der aktuellen Generation. AWS Trainium ist der zweite maschinelle Lernchip von AWS, der speziell für das Training von Deep-Learning-Modellen entwickelt wurde und Ende 2021 verfügbar sein wird.

Kunden aus allen Branchen haben ihre ML-Anwendungen in der Produktion auf Inferentia bereitgestellt und erhebliche Leistungsverbesserungen und Kosteneinsparungen festgestellt. Beispielsweise ermöglicht die Kundensupportplattform von AirBnB seiner Community aus Millionen von Gastgebern und Gästen auf der ganzen Welt intelligente, skalierbare und außergewöhnliche Serviceerlebnisse. Es verwendete Inferentia-basierte EC2 Inf1-Instanzen, um NLP-Modelle (Natural Language Processing) bereitzustellen, die seine Chatbots unterstützten. Dies führte zu einer 2-fachen Leistungssteigerung gegenüber GPU-basierten Instanzen.



ist jupiter ein gasriese

Mit diesen Siliziuminnovationen ermöglicht AWS Kunden, ihre Deep-Learning-Modelle in der Produktion einfach mit hoher Leistung und Durchsatz zu deutlich geringeren Kosten zu trainieren und auszuführen.

Maschinelles Lernen stellt Herausforderungen dar, die den Wechsel zu einer Cloud-basierten Infrastruktur beschleunigen

Maschinelles Lernen ist ein iterativer Prozess, bei dem Teams Anwendungen schnell erstellen, trainieren und bereitstellen sowie häufig trainieren, neu trainieren und experimentieren müssen, um die Vorhersagegenauigkeit der Modelle zu erhöhen. Bei der Bereitstellung trainierter Modelle in ihren Geschäftsanwendungen müssen Unternehmen ihre Anwendungen auch skalieren, um neue Benutzer auf der ganzen Welt bedienen zu können. Sie müssen in der Lage sein, mehrere gleichzeitig eingehende Anfragen mit Latenz nahezu in Echtzeit zu bedienen, um eine hervorragende Benutzererfahrung zu gewährleisten.

Neue Anwendungsfälle wie Objekterkennung, Verarbeitung natürlicher Sprache (NLP), Bildklassifizierung, Konversations-KI und Zeitreihendaten stützen sich auf Deep-Learning-Technologie. Deep-Learning-Modelle nehmen in Größe und Komplexität exponentiell zu und werden innerhalb weniger Jahre von Millionen von Parametern zu Milliarden.

Das Trainieren und Bereitstellen dieser komplexen und ausgefeilten Modelle führt zu erheblichen Infrastrukturkosten. Die Kosten können schnell unerschwinglich werden, wenn Unternehmen ihre Anwendungen skalieren, um ihren Benutzern und Kunden nahezu in Echtzeit Erlebnisse zu bieten.



Hier können Cloud-basierte Infrastrukturdienste für maschinelles Lernen helfen. Die Cloud bietet On-Demand-Zugriff auf Rechenleistung, Hochleistungsnetzwerke und große Datenspeicher, nahtlos kombiniert mit ML-Vorgängen und übergeordneten KI-Diensten, damit Unternehmen sofort loslegen und ihre KI/ML-Initiativen skalieren können.

Wie AWS Kunden hilft, ihre KI/ML-Transformation zu beschleunigen

AWS Inferentia und AWS Trainium zielen darauf ab, maschinelles Lernen zu demokratisieren und es Entwicklern unabhängig von Erfahrung und Unternehmensgröße zugänglich zu machen. Das Design von Inferentia ist für hohe Leistung, Durchsatz und niedrige Latenz optimiert, was es ideal für die Bereitstellung von ML-Inferenz in großem Maßstab macht.

Jeder AWS Inferentia-Chip enthält vier NeuronCores, die eine leistungsstarke systolische Array-Matrix-Multiplikations-Engine implementieren, die typische Deep-Learning-Operationen wie Faltung und Transformationen massiv beschleunigt. NeuronCores sind außerdem mit einem großen On-Chip-Cache ausgestattet, der dazu beiträgt, externe Speicherzugriffe zu reduzieren, die Latenz zu reduzieren und den Durchsatz zu erhöhen.

AWS Neuron, das Softwareentwicklungskit für Inferentia, unterstützt nativ führende ML-Frameworks wie TensorFlow und PyTorch. Entwickler können weiterhin die gleichen Frameworks und Lifecycle-Entwicklungstools verwenden, die sie kennen und lieben. Viele ihrer trainierten Modelle können sie kompilieren und auf Inferentia bereitstellen, indem sie nur eine einzige Codezeile ändern, ohne dass zusätzliche Änderungen am Anwendungscode erforderlich sind.

Das Ergebnis ist eine leistungsstarke Inferenzbereitstellung, die sich leicht skalieren lässt und gleichzeitig die Kosten unter Kontrolle hält.

Jungbrunnen echt

Sprinklr, ein Software-as-a-Service-Unternehmen, verfügt über eine KI-gesteuerte, einheitliche Customer Experience Management-Plattform, die es Unternehmen ermöglicht, Kundenfeedback in Echtzeit über mehrere Kanäle zu sammeln und in umsetzbare Erkenntnisse umzuwandeln. Dies führt zu proaktiver Problemlösung, verbesserter Produktentwicklung, verbessertem Content-Marketing und besserem Kundenservice. Sprinklr nutzte Inferentia, um sein NLP und einige seiner Computer-Vision-Modelle bereitzustellen, und konnte erhebliche Leistungsverbesserungen feststellen.

Mehrere Amazon-Dienste setzen ihre Modelle für maschinelles Lernen auch auf Inferentia ein.

Amazon Prime Video verwendet Computer Vision ML-Modelle, um die Videoqualität von Live-Events zu analysieren, um ein optimales Zuschauererlebnis für Prime Video-Mitglieder zu gewährleisten. Es setzte seine ML-Modelle zur Bildklassifizierung auf EC2 Inf1-Instances ein und verzeichnete eine 4-fache Leistungssteigerung und bis zu 40 % Kosteneinsparungen im Vergleich zu GPU-basierten Instances.

Ein weiteres Beispiel ist die KI- und ML-basierte Intelligenz von Amazon Alexa, powered by Amazon Web Services, die heute auf mehr als 100 Millionen Geräten verfügbar ist. Alexas Versprechen an die Kunden ist, dass es immer intelligenter, gesprächiger, proaktiver und noch angenehmer wird. Um dieses Versprechen einlösen zu können, sind kontinuierliche Verbesserungen der Reaktionszeiten und der Infrastrukturkosten für maschinelles Lernen erforderlich. Durch die Bereitstellung der Text-to-Speech-ML-Modelle von Alexa auf Inf1-Instances konnte das Unternehmen die Inferenzlatenz um 25 % und die Kosten pro Inferenz um 30 % senken, um das Serviceerlebnis für Millionen von Kunden zu verbessern, die jeden Monat Alexa verwenden.

Entfesseln neuer maschineller Lernfunktionen in der Cloud

Während Unternehmen darum kämpfen, ihr Geschäft zukunftssicher zu machen, indem sie die besten digitalen Produkte und Dienstleistungen ermöglichen, kann kein Unternehmen beim Einsatz ausgeklügelter Modelle für maschinelles Lernen zur Innovation ihrer Kundenerlebnisse ins Hintertreffen geraten. In den letzten Jahren hat die Anwendbarkeit des maschinellen Lernens für eine Vielzahl von Anwendungsfällen enorm zugenommen, von der Personalisierung und Abwanderungsvorhersage bis hin zur Betrugserkennung und Lieferkettenprognose.

Glücklicherweise setzt die maschinelle Lerninfrastruktur in der Cloud neue Möglichkeiten frei, die zuvor nicht möglich waren, und macht sie für Laien weitaus zugänglicher. Aus diesem Grund verwenden AWS-Kunden bereits Inferentia-betriebene Amazon EC2 Inf1-Instances, um die Intelligenz hinter ihren Empfehlungsmaschinen und Chatbots bereitzustellen und umsetzbare Erkenntnisse aus Kundenfeedback zu erhalten.

Mit den Cloud-basierten AWS-Infrastrukturoptionen für maschinelles Lernen, die für verschiedene Qualifikationsniveaus geeignet sind, ist es klar, dass jede Organisation Innovationen beschleunigen und den gesamten Lebenszyklus des maschinellen Lernens in großem Umfang umfassen kann. Da maschinelles Lernen immer allgegenwärtiger wird, sind Unternehmen jetzt in der Lage, das Kundenerlebnis – und die Art und Weise, wie sie Geschäfte machen – mit einer kostengünstigen, leistungsstarken Cloud-basierten Infrastruktur für maschinelles Lernen grundlegend zu verändern.

Erfahren Sie mehr darüber, wie die Plattform für maschinelles Lernen von AWS Ihrem Unternehmen helfen kann, innovativ zu sein Hier .

Dieser Inhalt wurde von AWS erstellt. Es wurde nicht von der Redaktion des MIT Technology Review geschrieben.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Alumni-Briefe

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen