Die Gesichtserkennung weniger voreingenommen zu machen, macht sie nicht weniger beängstigend

Busà Photography/Getty



In den letzten Jahren gab es einen dramatischen Anstieg bei der Einführung von Gesichtserkennungs-, Erkennungs- und Analysetechnologien.

Sie sind wahrscheinlich am besten vertraut mit Erkennung Systeme wie der Foto-Tagging-Recommender von Facebook und FaceID von Apple, die bestimmte Personen identifizieren können. Erkennung Systeme hingegen stellen fest, ob ein Gesicht überhaupt vorhanden ist; und Analyse Systeme versuchen, Aspekte wie Geschlecht und Rasse zu identifizieren. Alle diese Systeme werden heute für eine Vielzahl von Zwecken verwendet, von einstellen und Einzelhandel zu Sicherheit und Überwachung .





Viele Menschen glauben, dass solche Systeme sowohl sehr genau als auch unparteiisch sind. Die Logik besagt, dass das Sicherheitspersonal von Flughäfen müde werden und die Polizei Verdächtige falsch einschätzen kann, aber ein gut trainiertes KI-System sollte in der Lage sein, jedes Bild eines Gesichts konsistent zu identifizieren oder zu kategorisieren.

In der Praxis hat die Forschung jedoch immer wieder gezeigt, dass diese Systeme mit manchen Bevölkerungsgruppen deutlich ungenauer umgehen als mit anderen. Vergangenes Jahr, Geschlechtsschattierungen , eine wegweisende Studie unter der Leitung von MIT Media Lab-Forscherin Joy Buolamwini, fand heraus, dass Geschlechterklassifizierungssysteme, die von IBM, Microsoft und Face++ verkauft werden, bei dunkelhäutigen Frauen eine um bis zu 34,4 Prozentpunkte höhere Fehlerquote aufwiesen als bei hellhäutigen Männern. Die ACLU von Nordkalifornien ähnlich gefunden dass die Plattform von Amazon eher nicht-weiße als weiße Kongressabgeordnete falsch identifizierte.

Das Problem ist, dass Gesichtserkennungs- und Analysesysteme oft auf verzerrte Datensätze trainiert werden: Sie werden mit weitaus weniger Bildern von Frauen und Menschen mit dunkler Hautfarbe gefüttert als mit Bildern von Männern und Menschen mit heller Hautfarbe. Und obwohl viele von ihnen angeblich auf Fairness getestet werden, prüfen diese Tests nicht die Leistung auf einer ausreichend großen Auswahl an Gesichtern – wie Buolamwini feststellte. Diese Ungleichheiten verewigen und verfestigen bestehende Ungerechtigkeiten weiter und führen zu Konsequenzen, die sich nur verschlimmern, je höher der Einsatz ist.



Drei neue Papiere, die in der vergangenen Woche veröffentlicht wurden, lenken nun die dringend benötigte Aufmerksamkeit auf dieses Problem. Hier ist eine kurze Beschreibung von jedem von ihnen.

Papier Nr. 1. Letzten Donnerstag, Buolamwini freigegeben ein Update für Gender Shades, indem sie die Systeme, die sie zuvor untersucht hatte, erneut testete und ihre Überprüfung um Amazons Rekognition und ein neues System von einem kleinen KI-Unternehmen namens Kairos erweiterte. Es gibt gute Nachrichten. Sie fand heraus, dass IBM, Face++ und Microsoft alle ihre Genauigkeit bei der Geschlechtsklassifizierung für dunkelhäutige Frauen verbesserten, wobei Microsoft seine Fehlerquote auf unter 2 % reduzierte. Auf der anderen Seite hatten die Plattformen von Amazon und Kairos immer noch Genauigkeitsunterschiede von 31 bzw. 23 Prozentpunkten zwischen helleren Männern und dunkleren Frauen. Buolamwini sagte Die Studie zeigt, dass diese Technologien extern geprüft werden müssen, um sie technisch verantwortlich zu machen.

Papier Nr. 2. Am Sonntag, a lernen vom MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) demonstrierten die Wirksamkeit eines neuen Algorithmus zur Minderung von Vorurteilen in einem Gesichtserkennungssystem, selbst wenn es mit stark voreingenommenen Daten trainiert wurde. Während des Trainings identifiziert es auch, welche Beispiele in den Daten unterrepräsentiert sind, und verbringt zusätzliche Zeit damit, sie zu betrachten, um dies auszugleichen. Als die Forscher das System anhand von Buolamwinis Gender Shades-Datensatz testeten, stellten sie fest, dass es dazu beitrug, ihre eigene größte Genauigkeitslücke zwischen hell- und dunkelhäutigen Männern im Vergleich zu einem Standard-Trainingsalgorithmus zu schließen (obwohl es sie nicht vollständig beseitigte). .

wie kam Bengay zu seinem Namen?

Papier Nr. 3. Heute Morgen veröffentlichte IBM Research a Papier Das identifiziert Dutzende von Merkmalen zur Messung der Vielfalt über Hautfarbe und Geschlecht hinaus, einschließlich Kopfhöhe, Gesichtsbreite, Augenabstand und Alter. Die Ergebnisse basieren auf früheren Untersuchungen zu menschlichen Gesichtern. Wenn wir keine Maßnahmen zur Gesichtsvielfalt haben, sagt John Smith, einer der Co-Autoren des Papiers, können wir nicht zurückkommen und sie durchsetzen, während wir diese Gesichtserkennungssysteme trainieren. In Verbindung damit veröffentlichte das Team einen neuen Datensatz mit 1 Million Bildern von Gesichtern, die mit diesen neuen Maßnahmen kommentiert wurden.



Verschiedene Maße der Gesichtsvielfalt, vorgestellt im neuen Papier von IBM Research. IBM-Forschung

Jede dieser Studien hat wichtige Schritte unternommen, um Vorurteile bei der Gesichtserkennung anzugehen – indem sie Unternehmen zur Rechenschaft ziehen, neue Algorithmen entwickeln und unser Verständnis von Datenvielfalt erweitern. Aber die Schaffung gerechterer und genauerer Systeme ist nur die halbe Miete.

Selbst die fairsten und genauesten Systeme können immer noch dazu verwendet werden, die bürgerlichen Freiheiten der Menschen zu verletzen. Letztes Jahr ein Daily Beast Untersuchung stellte fest, dass Amazon seine Gesichtsüberwachungsplattform aktiv der US-Einwanderungs- und Zollbehörde, besser bekannt als ICE, vorstellte, um ihr Vorgehen gegen Migrantengemeinschaften zu unterstützen. Ein Abfangen Untersuchung fand auch heraus, dass IBM im Rahmen einer langfristigen Partnerschaft mit der New Yorker Polizeibehörde die Fähigkeit entwickelt hat, die ethnische Zugehörigkeit von Gesichtern zu identifizieren. Diese Technologie wurde dann ohne Wissen der Stadtbewohner zu Testzwecken in öffentlichen Überwachungskameras eingesetzt. Bereits jetzt setzt die britische Metropolitan Police Gesichtserkennung ein scannen öffentliche Menschenmassen für Leute auf Beobachtungslisten, und China verwendet es für Massenüberwachung aller Einwohner, zu Zwecken wie der Verfolgung von Dissidenten.

Als Reaktion auf die schnelle Verbreitung dieser Systeme, eine wachsende Zahl von Bürgerrechtlern und Technologen haben ihre Regulierung gefordert; Google hat sogar suspendiert seinen Verkauf solcher Systeme, bis er klare Strategien hat, um deren Missbrauch zu verhindern.

Ohne algorithmische Gerechtigkeit können algorithmische Genauigkeit/technische Fairness KI-Werkzeuge schaffen, die zu Waffen werden, sagt Buolamwini.

Diese Geschichte erschien ursprünglich in unserem KI-Newsletter The Algorithm. Um es direkt in Ihren Posteingang geliefert zu bekommen, melden Sie sich hier kostenlos an.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen