Wie man die Daten vergiftet, die Big Tech verwendet, um Sie zu überwachen

Eric Risberg/AP



Jeden Tag hinterlässt Ihr Leben eine Spur digitaler Brotkrümel, die Technologiegiganten verwenden, um Sie zu verfolgen. Du schickst eine E-Mail, bestellst Essen, streamst eine Sendung. Sie erhalten wertvolle Datenpakete zurück, um ihr Verständnis für Ihre Vorlieben aufzubauen. Diese Daten werden in maschinelle Lernalgorithmen eingespeist, um Sie mit Anzeigen und Empfehlungen anzusprechen. Google kassiert Ihre Daten für Werbeeinnahmen von über 120 Milliarden US-Dollar pro Jahr.

In zunehmendem Maße können wir dieser Vereinbarung nicht mehr widersprechen. Im Jahr 2019 versuchte es Kashmir Hill, damals Reporter für Gizmodo fünf große Tech-Giganten aus ihrem Leben streichen . Sie verbrachte sechs Wochen damit, sich unglücklich zu fühlen und kämpfte damit, grundlegende digitale Funktionen auszuführen. Die Tech-Giganten hingegen verspürten nicht einmal einen Juckreiz.





Jetzt schlagen Forscher der Northwestern University neue Wege vor, um dieses Machtungleichgewicht durch die Behandlung unserer zu beheben Kollektiv Daten als Verhandlungsmasse. Tech-Giganten mögen ausgefallene Algorithmen zur Verfügung haben, aber sie sind bedeutungslos, wenn nicht genügend Daten zum Trainieren vorhanden sind.

In ein neues Papier präsentiert auf der Association for Computing Machinery’s Konferenz zu Fairness, Rechenschaftspflicht und Transparenz Nächste Woche schlagen Forscher, darunter die Doktoranden Nicholas Vincent und Hanlin Li, drei Möglichkeiten vor, wie die Öffentlichkeit dies zu ihrem Vorteil nutzen kann:

  • Daten schlagen zu , inspiriert von der Idee von Arbeitsstreiks, bei denen Ihre Daten zurückgehalten oder gelöscht werden, damit ein Technologieunternehmen sie nicht verwenden kann – beispielsweise das Verlassen einer Plattform oder das Installieren von Datenschutz-Tools.
  • Datenvergiftung , was das Beitragen bedeutungsloser oder schädlicher Daten beinhaltet. Bis zum Erbrechen , zum Beispiel, ist eine Browsererweiterung, die auf jede einzelne Anzeige klickt, die Ihnen geliefert wird, und so die Ad-Targeting-Algorithmen von Google verwirrt.
  • Bewusster Datenbeitrag , was bedeutet, Bedeutung zu geben voll Daten an den Konkurrenten einer Plattform, gegen die Sie protestieren möchten, z. B. indem Sie stattdessen Ihre Facebook-Fotos auf Tumblr hochladen.

Menschen wenden bereits viele dieser Taktiken an, um ihre eigene Privatsphäre zu schützen. Wenn Sie jemals einen Werbeblocker oder eine andere Browsererweiterung verwendet haben, die Ihre Suchergebnisse so modifiziert, dass bestimmte Websites ausgeschlossen werden, haben Sie sich an Datenstreiks beteiligt und eine Behörde wegen der Verwendung Ihrer Daten zurückgefordert. Aber wie Hill feststellte, tragen sporadische Einzelaktionen wie diese nicht viel dazu bei, Tech-Giganten zum Wandel zu bewegen ihr Verhaltensweisen.



Was wäre jedoch, wenn sich Millionen von Menschen koordinieren würden, um die Daten eines Technologieriesen zu vergiften? Das könnte ihnen nur einen gewissen Hebel geben, um ihre Forderungen durchzusetzen.

Dafür gab es vielleicht schon einige Beispiele. Im Januar löschten Millionen von Nutzern ihre WhatsApp-Konten und wechselten zu Konkurrenten wie Signal und Telegram, nachdem Facebook angekündigt hatte, WhatsApp-Daten mit dem Rest des Unternehmens zu teilen. Der Exodus veranlasste Facebook dazu Verzögerung seine Politik ändert sich.

Gerade diese Woche, Google auch angekündigt dass es aufhören würde, Personen im Internet zu verfolgen und Anzeigen auf sie auszurichten. Obwohl unklar ist, ob dies eine echte Änderung oder nur ein Rebranding ist, sagt Vincent, ist es möglich, dass der verstärkte Einsatz von Tools wie AdNauseam zu dieser Entscheidung beigetragen hat, indem die Effektivität der Algorithmen des Unternehmens beeinträchtigt wurde. (Natürlich ist es letztendlich schwer zu sagen. Die einzige Person, die wirklich weiß, wie effektiv sich eine Datennutzungsbewegung auf ein System ausgewirkt hat, ist das Technologieunternehmen, sagt er.)

Vincent und Li glauben, dass diese Kampagnen Strategien wie politische Interessenvertretung und Arbeiterorganisation in der Bewegung zum Widerstand gegen Big Tech ergänzen können.



Wie genau ist ein Lügendetektortest 2020

Es ist spannend, diese Art von Arbeit zu sehen, sagt Ali Alkhatib, ein wissenschaftlicher Mitarbeiter am Zentrum für angewandte Datenethik der Universität von San Francisco, der nicht an der Forschung beteiligt war. Es war wirklich interessant zu sehen, wie sie über die kollektive oder ganzheitliche Sichtweise nachdachten: Wir können mit dem Brunnen herumspielen und mit dieser Bedrohung Forderungen stellen, weil es unsere Daten sind und alles zusammen in diesen Brunnen fließt.

So haben wir die Kontrolle über unsere Gesichter verloren

Die bisher größte Studie zu Gesichtserkennungsdaten zeigt, wie sehr der Aufstieg von Deep Learning zum Verlust der Privatsphäre geführt hat.

Es gibt noch viel zu tun, um diese Kampagnen weiter zu verbreiten. Informatiker könnten eine wichtige Rolle bei der Entwicklung von mehr Tools wie beispielsweise AdNauseam spielen, die dazu beitragen würden, die Barriere für die Teilnahme an solchen Taktiken zu senken. Auch die Politik könnte helfen. Datenstreiks sind am effektivsten, wenn sie durch strenge Datenschutzgesetze wie die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union unterstützt werden, die den Verbrauchern das Recht gibt, die Löschung ihrer Daten zu verlangen. Ohne eine solche Regulierung ist es schwieriger zu garantieren, dass ein Technologieunternehmen Ihnen die Möglichkeit gibt, Ihre digitalen Aufzeichnungen zu bereinigen, selbst wenn Sie Ihr Konto entfernen.

Und einige Fragen müssen noch beantwortet werden. Wie viele Personen braucht ein Datenstreik, um den Algorithmus eines Unternehmens zu beschädigen? Und welche Art von Daten wäre am effektivsten, um ein bestimmtes System zu vergiften? In einer Simulation mit einem Filmempfehlungsalgorithmus fanden die Forscher beispielsweise heraus, dass ein Streik von 30 % der Benutzer die Genauigkeit des Systems um 50 % verringern könnte. Aber jedes maschinelle Lernsystem ist anders, und Unternehmen aktualisieren sie ständig. Die Forscher hoffen, dass mehr Menschen in der Community für maschinelles Lernen ähnliche Simulationen der Systeme verschiedener Unternehmen durchführen und ihre Schwachstellen identifizieren können.

Alkhatib schlägt vor, dass Wissenschaftler mehr Forschung darüber betreiben sollten, wie sie auch kollektive Datenaktionen inspirieren können. Kollektives Handeln ist wirklich schwierig, sagt er. Eine Herausforderung besteht darin, Menschen dazu zu bringen, fortlaufende Maßnahmen zu ergreifen. Und dann gibt es die Herausforderung, wie man eine Gruppe von Menschen, die sehr flüchtig sind – in diesem Fall könnten es Menschen sein, die fünf Sekunden lang eine Suchmaschine benutzen – dazu bringt, sich selbst als Teil einer Gemeinschaft zu sehen, die tatsächlich langlebig ist?

Diese Taktiken könnten auch nachgelagerte Konsequenzen haben, die einer sorgfältigen Prüfung bedürfen, fügt er hinzu. Könnte die Datenvergiftung am Ende nur mehr Arbeit für Inhaltsmoderatoren und andere Personen bedeuten, die mit der Bereinigung und Kennzeichnung der Schulungsdaten der Unternehmen beauftragt sind?

Aber insgesamt sind Vincent, Li und Alkhatib optimistisch, dass sich die Nutzung von Daten zu einem überzeugenden Instrument entwickeln könnte, um den Umgang von Technologiegiganten mit unseren Daten und unserer Privatsphäre zu beeinflussen. KI-Systeme sind auf Daten angewiesen. Es ist nur eine Tatsache, wie sie funktionieren, sagt Vincent. Letztendlich ist dies ein Weg, wie die Öffentlichkeit an Macht gewinnen kann.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Alumni-Briefe

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen