KI verbraucht viel Energie. Hacker könnten es dazu bringen, mehr zu verbrauchen.

Rechenzentrum

Taylor Vick/Unsplash



Die Nachrichten: Eine neue Art von Angriff könnten den Energieverbrauch von KI-Systemen erhöhen. So wie ein Denial-of-Service-Angriff im Internet versucht, ein Netzwerk zu verstopfen und unbrauchbar zu machen, zwingt der neue Angriff ein tiefes neuronales Netzwerk dazu, mehr Rechenressourcen als nötig zu binden und seinen Denkprozess zu verlangsamen.

Das Ziel: In den letzten Jahren hat die wachsende Besorgnis über den kostspieligen Energieverbrauch großer KI-Modelle Forscher dazu veranlasst, effizientere neuronale Netze zu entwerfen. Eine Kategorie, bekannt als Input-adaptive Multi-Exit-Architekturen, funktioniert, indem sie Aufgaben danach aufteilt, wie schwer sie zu lösen sind. Es verbraucht dann die minimale Menge an Rechenressourcen, die zum Lösen jedes Problems erforderlich ist.





Angenommen, Sie haben ein Bild von einem Löwen, der bei perfekter Beleuchtung direkt in die Kamera schaut, und ein Bild von einem Löwen, der in einer komplexen Landschaft kauert, teilweise unsichtbar. Ein traditionelles neuronales Netzwerk würde beide Fotos durch alle seine Schichten leiten und die gleiche Menge an Rechenleistung aufwenden, um jedes zu kennzeichnen. Aber ein input-adaptives neuronales Multi-Exit-Netzwerk könnte das erste Foto durch nur eine Schicht passieren, bevor es die notwendige Vertrauensschwelle erreicht, um es als das zu bezeichnen, was es ist. Dies verringert die CO2-Bilanz des Modells, verbessert aber auch seine Geschwindigkeit und ermöglicht den Einsatz auf kleinen Geräten wie Smartphones und intelligenten Lautsprechern.

Der Angriff: Aber diese Art von neuronalem Netzwerk bedeutet, dass Sie, wenn Sie die Eingabe ändern, z. B. das Bild, mit dem es gefüttert wird, ändern können, wie viel Berechnung es benötigt, um es zu lösen. Dies eröffnet eine Schwachstelle, die Hacker ausnutzen könnten, wie die Forscher des Maryland Cybersecurity Center in einem neuen Papier skizzierten, das auf der vorgestellt wird Internationale Konferenz zum Lernen von Repräsentationen in dieser Woche. Indem sie den Eingängen eines Netzwerks kleine Mengen an Rauschen hinzufügten, ließen sie es die Eingänge als schwieriger empfinden und seine Berechnung aufstocken.

Als sie davon ausgingen, dass der Angreifer alle Informationen über das neuronale Netzwerk hatte, konnten sie seine Energieaufnahme maximieren. Als sie davon ausgingen, dass der Angreifer sich auf keine Informationen beschränkt hatte, konnten sie die Verarbeitung des Netzwerks dennoch verlangsamen und den Energieverbrauch um 20 % bis 80 % erhöhen. Der Grund, wie die Forscher herausfanden, ist, dass die Angriffe gut über verschiedene Arten von neuronalen Netzwerken übertragen werden. Das Entwerfen eines Angriffs für ein Bildklassifizierungssystem reicht aus, um viele zu stören, sagt Yiğitcan Kaya, Doktorand und Co-Autor der Veröffentlichung.



Der Vorbehalt: Diese Art von Angriff ist noch etwas theoretisch. Eingangsadaptive Architekturen werden in realen Anwendungen noch nicht häufig verwendet. Die Forscher glauben jedoch, dass sich dies aufgrund des Drucks innerhalb der Branche, leichtere neuronale Netze, beispielsweise für Smart Home und andere IoT-Geräte, einzusetzen, schnell ändern wird. Tudor Dumitraş, der Professor, der die Forschung beraten hat, sagt, dass mehr Arbeit erforderlich ist, um zu verstehen, inwieweit diese Art von Bedrohung Schaden anrichten könnte. Aber, fügt er hinzu, dieses Papier ist ein erster Schritt zur Sensibilisierung: Mir ist es wichtig, die Menschen darauf aufmerksam zu machen, dass dies ein neues Bedrohungsmodell ist und diese Art von Angriffen durchgeführt werden können.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen