KI liest menschliche Emotionen. Sollte es?

KI kann Ihre emotionale Reaktion auf Werbung und Ihre Mimik in einem Vorstellungsgespräch lesen. Aber wenn es das alles schon kann, was passiert dann? Im zweiten Teil einer Serie über emotionale KI untersuchen Jennifer Strong und das Team von MIT Technology Review die Auswirkungen ihrer Verwendung und ihre zukünftige Entwicklung.

Wir treffen:

  • Shruti Sharma, VSCO
  • Gabi Zijderveld, Affectiva
  • Tim VanGoethem, Harman
  • Rohit Prasad, Amazon
  • Meredith Whittaker, AI Now Institute der NYU

Kredite:

Diese Episode wurde von Jennifer Strong, Karen Hao, Tate Ryan-Mosley und Emma Cillekens gemeldet und produziert. Wir hatten Hilfe von Benji Rosen. Wir werden von Michael Reilly und Gideon Lichfield herausgegeben.



Vollständiges Episodenprotokoll:

Jennifer Stark : In dieser Ära von Covid-19 werden so viele der Beziehungen und Erfahrungen, die wir einst persönlich hatten, jetzt durch Technologie vermittelt. Egal, ob Sie von zu Hause aus arbeiten, Kindern aus den eigenen vier Wänden bei der Bildung helfen oder wie so viele von uns beides tun, eine neue Konstante, die wahrscheinlich nicht verschwindet, ist der Videoanruf. Ob Sie sich in einem Zoom-Raum, Google Meet oder etwas anderem befinden, die Realität ist wahrscheinlich, dass es auch nach diesem aktuellen Moment hier bleiben wird. Und diese Erfahrung hat etwas, das sich distanziert und getrennt anfühlt. Als würde man durch einen Filter kommunizieren. Einfache Gespräche, die durch Internetausfälle unterbrochen werden oder in der Übersetzung verloren gehen. Was wäre, wenn diese Technologie verwendet werden könnte, um Interaktionen zu verbessern, anstatt sie stumm zu schalten? Was wäre, wenn es auf Ihre Körpersprache, Ihre Stimmmelodien reagieren könnte, um Ihnen zu helfen, mehr als nur Worte zu vermitteln? Es ist etwas, worauf Affectiva-Gründerin Rana el Kaliouby angedeutet hat, als wir für unsere letzte Folge gesprochen haben.

Rana el Kaliouby : Wo ich präsentiere, um sagen wir hundert entfernten Leuten, wenn es eine echte Live-Veranstaltung wäre, würde ich die Energie der Leute im Raum abstrahlen, und das kann ich nicht online tun. Und es ist wirklich schmerzhaft und ich hasse es. [lacht] Also stelle ich mir immer wieder ein Echtzeit-Diagramm des Engagements, des Lachens vor, vielleicht so etwas wie einen Emoji-Stream oder etwas, das den Leuten einfach ein Gefühl für diese gemeinsame Erfahrung gibt.

Jennifer Stark : Ihre Firma und viele andere beeilen sich, an solchen Möglichkeiten zu arbeiten, aber ein Großteil der Technologie, die solche Dinge antreiben würde, wird bereits oft auf unerwartete Weise verwendet. Zum Beispiel, um den Gesichtsausdruck von Menschen zu messen, die einen Schlaganfall erlitten haben.

Gabi Zijderveld : Damit ist viel soziales Stigma verbunden, weil die Leute denken, dass diese Leute wütend aussehen oder finster dreinblicken, aber sie hatten einen Schlaganfall und können nicht lächeln. Typischerweise messen Chirurgen, ob ihre Wiederherstellung des Lächelns erfolgreich ist oder nicht, indem sie ihre Patienten kitzeln, und dann fangen sie an zu lachen, und sie würden ein Lineal verwenden und Millimeterbewegungen messen.

Jennifer Stark : Und ein Chirurg fand diese Methode lächerlich.

Gabi Zijderveld : Also hat er mit unserer Emotions-KI ein Softwaresystem entwickelt, um zu bewerten und zu messen, wie erfolgreich er ist, indem er das Lächeln der Patienten wiederherstellt.

Jennifer Strong: Ich bin Jennifer Strong und in Teil zwei unserer Serie über Emotions-KI schauen wir uns an, wie sie bereits angewendet wird und wohin uns das in Zukunft führen könnte.

[ID ANZEIGEN]

Shruti Sharma : Ok, also werde ich meinen Bildschirm hier teilen. Lassen Sie mich wissen, ob Sie es sehen können.

Jennifer Stark : Shruti Sharma ist Senior Engineering Manager für maschinelles Lernen bei der Foto-App namens VSCO.

Shruti Sharma : Und so sehen Sie gerade diese orangefarbenen Jalousien in einem dunkelschwarz aussehenden Raum. Und die damit verbundenen Bilder, die sich zeigen, sind im Wesentlichen so etwas wie dieses mysteriöse Spiel von Licht und Dunkelheit und Licht und Schatten.

Jennifer Stark : Diese Fotos wurden von Ava ausgewählt, einer KI, die Bilder bewertet und sie nach Stimmung und Emotion kategorisiert. Eine Art der Sortierung, die früher von Menschen durchgeführt wurde. Und wir reden nicht über Strandlandschaften, die auf denselben Stapel fallen, oder einen ganzen Haufen Katzenfotos, die zusammen gruppiert sind. Das ist viel nuancierter. Ich habe das nicht erwartet. Es ist nicht nur derselbe Farbton, es ruft wirklich von Foto zu Foto dasselbe Gefühl hervor.

Shruti Sharma : Das Ziel, die Stimmung und das Gefühl oder die Emotion in einem Foto zu erkennen, besteht für uns also im Wesentlichen darin, diese Essenz einzufangen, die sonst nur ein Mensch sehen könnte. Unsere Technologie für maschinelles Lernen, Ava, betrachtet nicht nur den Inhalt des Fotos, sondern auch Attribute, die sehr spezifisch für die Fotografie sind und zu diesen Gefühlen und Emotionen beitragen, die ein Foto bei Menschen hervorruft … Dinge wie Komposition, Aufnahmestil , ästhetisch.

Jennifer Stark : Diese App ist eine kreative Plattform für Fotografen.

Shruti Sharma : Die Tatsache, dass all diese Bilder irgendwie das Gefühl haben, dass hier mehr passiert als das, was wir auf dem Foto sehen. Es ist schwer zu sagen, was genau vor sich geht, und es gibt so etwas wie das Gefühl des Mysteriums, das hier hervorgerufen wird. Es ist ein sehr persönliches Gefühl, das Fotos hervorrufen, und dass eine Maschine in der Lage ist, Bilder auf dieser Grundlage sozusagen zuzuordnen, erfüllt mich fast mit Freude. [Lachen]

Jennifer Stark : Im Gegensatz zu anderen Anwendungen dieser Technologie steht hier ziemlich wenig auf dem Spiel, wenn die KI eine Kategorie oder eine Klassifizierung verfehlt.

Shruti Sharma : Was meiner Meinung nach auch das Schöne daran ist. Richtig? Macht die Maschine tatsächlich einen Fehler oder gibt sie Ihnen nur eine andere Perspektive? Und ich denke, es ist manchmal ein bisschen von beidem.

Jennifer Stark : Aber das Sortieren von Fotos ist nur die Spitze des Eisbergs.

Gabi Zijderveld : Also, wenn Sie darauf klicken könnten …

Karen Hao : In Ordnung.

Gabi Zijderveld : Und das ist am besten, wenn du fährst, denn dann kannst du die Demo ausprobieren.

Jennifer Stark : Gabi Zijderveld ist Chief Marketing Officer bei Affectiva. Sie führt meine Kollegin Karen Hao, die leitende KI-Reporterin von Tech Review, durch eine Demonstration eines ihrer Produkte, das Emotionen lesen kann.

Gabi Zijderveld : Das ist also im Grunde eine vereinfachte Version dessen, wie unsere Technologie in der Medienanalyse und speziell beim Testen von Anzeigen eingesetzt würde. Es gibt Ihnen nur mehr oder weniger einen Eindruck davon, wie wir dies tun und welche Art von Dingen wir messen können. Wie Sie also sehen können, haben wir ein paar verschiedene Anzeigen oder Videos vorinstalliert, und Sie können dann einfach eine auswählen, die für Sie herausspringt.

Karen Hao : Play drücken…

wie funktioniert wii

Gabi Zijderveld : Während Sie sich diese Anzeige ansehen, messen wir, wie Sie sehen, Ihre Reaktionen darauf.

Karen Hao : [Hörbares Lachen]

Jennifer Stark : Sie schaut sich einen lustigen YouTube-Clip an, in dem unter anderem zwei Kinder und die Aufgaben einer berufstätigen Mutter eine Nachrichtensendung unterbrechen. Es ist eine Parodie des viralen BBC-Interviews – Sie kennen das – wo ein entzückendes kleines Mädchen in das Büro ihres Vaters hereinspaziert.

Gabi Zijderveld : Im Grunde genommen haben wir Sie in dieser Demo um Erlaubnis gebeten, Ihre Webkamera einzuschalten. Und als Sie anfingen, das Video abzuspielen, hat unsere KI Ihre Reaktionen und Ihre Reaktionen auf das, was Sie in dieser Anzeige gesehen haben, im Grunde Bild für Bild gemessen. Auf der linken Seite der Demo sehen Sie all diese verschiedenen Metriken, wie z Heben, Heben ihrer Augenbrauen, wenn Sie so wollen, buchstäblich. Wenn Sie auf eine Lachkurve klicken, könnte das interessant sein... ein Lächeln bedeutet nicht immer, dass Sie etwas genießen, aber hier kennen wir den Kontext, wir wissen, dass dies eine humorvolle Anzeige ist, und wir können es an Ihrer erkennen Kurve, dass du viel gelächelt hast. Dieses Video hatte also eindeutig seine beabsichtigte Wirkung bei Ihnen. Und wenn Sie dann auf die Zusammenfassung der Ansichten klicken, ist das auch irgendwie cool. Dadurch werden Ihre Daten mit allen anderen verglichen, die dieses Video angesehen haben.

Karen Hao : Beeindruckend. Ich glaube, ich war viel ausdrucksstärker als die durchschnittliche Person.

Gabi Zijderveld : Ja, ja, genau. Auch dein Lächeln war viel höher. Offensichtlich hat dir dieses Video viel besser gefallen als der Durchschnitt.

Jennifer Stark : Was sie hier demonstrieren, liest Emotionen und zerlegt sie in Daten für Werbetreibende und Werbeagenturen.

Gabi Zijderveld : Auch diese Daten sind sehr wichtige Erkenntnisse, da sie ihnen im Grunde dabei helfen, festzustellen, wie effektiv ihre Anzeigen sind und wo sie ihre Medienausgaben einsetzen sollen.

Jennifer Stark : Sie sagt, sie brauchen ungefähr hundert Tests, um genügend Daten für einen effektiven Vergleich zu erhalten. Affectiva hat diese Emotions-KI-Technologie weltweit bei Kunden wie Disney, Coca Cola, Kelloggs, Samsung und Google eingesetzt.

Gabi Zijderveld : Etwa 28 % der Fortune Global 500-Unternehmen nutzen unsere Technologie. Ad Age hat eine Liste der weltweit größten Werbetreibenden und 70 % von ihnen nutzen unsere Technologie. Wir haben im Laufe der Jahre mehr als 52.000 Anzeigen in 90 Ländern getestet. Es wird also viel geforscht. Nehmen wir an, jemand testet eine Bieranzeige in Großbritannien und möchte die Leistung seiner Bieranzeige mit anderen Bieranzeigen in Großbritannien oder vielleicht einer Bieranzeige in den USA vergleichen, weil wir so viele Daten haben diese Art von bietet diese Normen.

Jennifer Stark : Und nach 10 Jahren der Verfeinerung von Emotions-KI in der Medienanalyse … wechselt Affectiva nun in die Unterhaltungsindustrie.

Gabi Zijderveld : Zum Beispiel haben wir bereits eine Reihe von Studien durchgeführt, in denen es wirklich darum geht, zu verstehen, wie Zuschauer mit bestimmten Charakteren in Fernsehprogrammen interagieren und sich, wenn Sie so wollen, fast an sie binden. Sie stellen neue Charaktere vor. Manchmal bleiben diese Charaktere hängen und das Publikum liebt sie. Manchmal tun sie es nicht. Also forschen sie viel darüber. Und natürlich versuchen sie vorherzusagen, was eine Art Erfolgsformel sein wird, und wenn sie dies frühzeitig tun, können sie viel Geld sparen, da es in diesen Fällen teuer ist, etwas falsch zu machen. Wir haben auch Filmtrailer getestet, die an sich schon eine Art Werbeinhalt sind.

Jennifer Stark : Aber es ist die Autoindustrie, auf die sich Affectiva und viele andere Unternehmen besonders konzentrieren.

Gabi Zijderveld : Abgesehen von der Sicherheitsanwendung durch das Verständnis der Fahrerbeeinträchtigung, die im Grunde ein Fahrerüberwachungssystem ist, gibt es auch andere Anwendbarkeit, denn in dem Moment, in dem Sie verstehen, was mit den Passagieren auf dem Rücksitz vor sich geht, gibt es viele andere interessante Dinge, die Sie tun können. Sie können die Umgebung grundsätzlich an den momentanen Zustand der Person anpassen. Vielleicht ist also jemand auf dem Weg zu einem Arbeitstreffen in der Zukunft. Ihr Fahrzeug versteht das vielleicht, weil all die verschiedenen Systeme miteinander verbunden sind. Vielleicht können Sie in Ihren Kalender schauen, wenn Sie die Erlaubnis dazu geben. Und wenn Sie auf dem Weg zu einem Meeting sind, möchten Sie vielleicht keine Musik. Vielleicht möchten Sie kein Video im Hintergrund sehen. Vielleicht möchten Sie die richtige Beleuchtung in Ihrer Region des Autos. Vielleicht benötigen Sie eine bestimmte Sitzposition. Es könnte auch darum gehen, das Erlebnis grundlegend zu verbessern, richtig? Machen Sie es lustiger und angenehmer oder erholsamer.

Jennifer Stark : Es ist noch nicht auf dem Markt, aber sie sagt, dass sie Elemente der Emotions-KI in Autos getestet haben, einschließlich dieser:

Gabi Zijderveld : Es gab sogar vor einigen Jahren ein Forschungsprojekt, das wir mit Porsche gemacht haben, wo wir unsere Technologie im Grunde genommen haben bewerten lassen, wie Menschen auf Musik reagieren, die im Fahrzeug gespielt wird. Und wenn ihnen die Musik gefiel, passte sie die Empfehlungen im Grunde an die Reaktionen der Leute an und personalisierte sie auf diese Weise.

Jennifer Stark : Sie schätzt, dass es 2 bis 4 Jahre dauern wird, bis diese Art von Technologie auf der Straße ist.

ist das Universum größer als die Galaxie

Eine andere Gruppe, die an dieser Art von Emotions-KI für Fahrzeuge arbeitet, ist Harman, ein Unternehmen von Samsung.

Tim VanGoethem : Wir bauen diese Algorithmen, die ein Kamerabild von einer am Armaturenbrett montierten Kamera verwenden könnten, und wir bauen die Software, die Ihre Augen oder andere Gesichtszüge betrachten und den Zustand des Fahrers ableiten kann.

Jennifer Stark : Das ist Tim VanGoethem, der Leiter der Advanced Mobility des Unternehmens.

Tim VanGoethem : So könnten wir zum Beispiel Ihre Herzfrequenz verstehen, indem wir uns ansehen, wie sich die Pigmentierung Ihrer Haut bei jedem Herzschlag verändert. Wir können uns die Eigenschaften Ihrer Augenbewegungen ansehen und darauf aufbauend in Beziehung setzen, ob Sie abgelenkt oder schläfrig oder gestresst sind oder Ihr Geist unkonzentriert zu sein scheint … Und so verstehen wie man das bedeutungsvoll macht. Wenn Sie müde sind, können wir die Kabinentemperatur einfach anpassen? Können wir die Sitzposition subtil verändern? Wähle eine Musikmischung, die vielleicht ein bisschen schneller ist als das, was du gerade hörst. Es könnte also die Kombination einiger sehr einfacher Anpassungen mit einigen sehr großen Schritten sein, je nachdem, was wir auf Ihren Zustand schließen können

Jennifer Stark : Wie weit könnten Unternehmen wie dieses also die Technologie vorantreiben?

Tim VanGoethem : Wo das in Zukunft hingehen könnte, ist die Anbindung an Wearables, die Sie ins Auto bringen. Viele Menschen lieben ihre Smartwatches und oft haben diese Smartwatches auch eine Fitness- oder Wellnessfunktion. Das Auto der Zukunft könnte also Informationen von diesen Wearables einbringen. Anstatt also zu versuchen, eine Kamera zu verwenden, um Ihre Herzfrequenz abzuleiten oder abzuleiten, könnten wir tatsächlich den Sensor der Smartwatch selbst verwenden. Und dann könnte die Smartwatch mit der Erlaubnis des Benutzers diese Informationen mit dem Auto teilen. Und dann ist es offensichtlich, es könnte ein präziseres Signal sein. Der Schritt darüber hinaus ist, dass wir auch noch größere Ökosysteme erschließen könnten. Wenn das Auto und die Algorithmen im Auto beispielsweise wüssten, dass Sie schlecht geschlafen haben, bevor Sie ins Auto gestiegen sind, könnten wir einige Vorentscheidungen treffen, da wir wissen, dass Sie möglicherweise bereits müde ins Auto steigen.

Jennifer Stark : In den nächsten 2 bis 5 Jahren wird er versuchen, diese Frage zu beantworten.

Tim VanGoethem : Wie löst das Auto nicht nur Probleme für Menschen, während sie in ihrem Auto sitzen, sondern wie können sie sich in diese größeren Ökosysteme einklinken? Und ich denke, dass sich das im Laufe der Zeit entwickeln wird, wenn die Menschen verstehen, wie sich mein Leben außerhalb des Autos und mein Leben im Auto auf natürliche Weise miteinander vermischen.

Jennifer Stark : Wie bequem werden es die Fahrer ihrem Auto erlauben, ihre Emotionen zu lesen und darauf zu reagieren und sich sogar mit ihrem Leben außerhalb des Fahrzeugs zu verbinden? Nun, wir lassen dies bereits Maschinen in unseren intimsten Räumen tun ... in unserem Haus.

Rohit Prasad : Genauso wie wir Menschen – schätzen wir den Umgang mit Menschen, die bescheiden, hilfsbereit, zuordenbar und vertrauenswürdig sind. Und natürlich möchten Sie auch eine Art Spaß in der Persönlichkeit haben, damit Sie sehr einnehmend sein können.

Jennifer Stark : Rohit Prasad ist der Chefwissenschaftler hinter Amazons Alexa. Als der Sprachassistent vor sechs Jahren veröffentlicht wurde, war dies der Beginn einer neuen Art von Beziehung zur persönlichen Technologie. Er wusste, dass sie dafür eine Persönlichkeit schaffen mussten, die für verschiedene Menschen in verschiedenen Räumen funktionieren würde.

Rohit Prasad : Wir glauben, dass Vertrauen nicht nur dadurch gewonnen wird, wie Sie klingen, sondern was Sie sagen und was Sie tun. Wir wollten, dass Menschen wie wir es bequem haben, in ihren Häusern mit einer KI zu sprechen … Und unsere Häuser sind eine gemeinschaftliche Umgebung. Es ist nicht nur ein persönliches Gerät wie Ihr Smartphone. Und in dieser Umgebung wird Alexa mit mir, meiner Frau und meinen Kindern interagieren. Richtig? Jetzt müssen Sie also dafür sorgen, dass die Stimme für all diese Umgebungen funktioniert.

Jennifer Stark : Sie wussten, dass die Vertrauensbildung bei den Benutzern auch von der Fähigkeit von Alexa abhängen würde, die Emotionen der Menschen zu erkennen und darauf zu reagieren.

Rohit Prasad : Wenn Kunden glücklich oder aufgeregt sind, sollte Alexa dieses Verhalten nachahmen. Und wenn der Kunde enttäuscht ist, sollte Alexa einen empathischeren Ton anschlagen.

Jennifer Stark : Heutzutage kann Alexa einige der Grundlagen erledigen.

Rohit Prasad : Einige der emotionalen Antworten, die Sie sehen können, sind, wenn Sie nach Ihrer Lieblingssportmannschaft fragen, und wenn sie gewonnen haben, wird Alexa in der Antwort fröhlicher sein.

Jennifer Stark : Außerdem arbeitet Amazon weiter an seinen Zuhörfähigkeiten.

Rohit Prasad : Kann Alexa also Ihre vokale Frustration spüren und ihre Antworten auf Sie ändern? Damit Alexa Ihre vokale Frustration aufnimmt und ihre Antworten richtig anpasst, um Ihnen das zu geben, was Sie als Kunde brauchen, anstatt Sie nur noch mehr zu frustrieren, indem Sie die gleiche Antwort geben.

Jennifer Stark : Und Alexa kann seinen Benutzer bereits in einer Version spiegeln:

Alexa-Aufnahme : Lassen Sie mich Ihnen ein Geheimnis verraten. Ich kann flüstern.

Rohit Prasad : Dies nennen wir einen Flüstermodus. Dies geschah, als einer meiner früheren Chefs bei Alexa nach Hause kam. Er flüsterte Alexa zu und Alexa antwortete und weckte seine Frau.

Jennifer Stark : Er sagt, es hat sie dazu inspiriert, Alexa das Flüstern beizubringen, denn wenn Sie einem Menschen zuflüstern, flüstert diese Person normalerweise zurück. Sie bringen ihm auch bei, wie ein Experte zu antworten und wann man weiß, dass dies nicht der Fall ist. Er sagt, es kommt auf die Art der Fragen an.

Chinesen mit dunkler Hautfarbe

Rohit Prasad : In bestimmten Umgebungen, wenn es sich um sehr sensible Themen handelt, die Sie möglicherweise mit einem Begleiter teilen, aber Alexa möglicherweise nicht die Expertin darin ist, z. B. psychische Gesundheit. Oder andere gesundheitliche Probleme. Dort denke ich, dass unser Leitsatz immer darin besteht, die Hilfe von Experten in diesen Einstellungen zu erhalten, und ich denke, obwohl Sie es als Begleiter teilen, gibt es an diesem Punkt eine große Verantwortung für die KI.

Jennifer Stark : Wenn Alexa seine Benutzer kennenlernt, könnte es eine zunehmende Rolle in ihrem Leben spielen.

Rohit Prasad : Ich denke, dass diese Beziehung immer mehr von einem Assistenten zu einem Berater und sogar Begleiter für Menschen wird. Und wir sehen, dass dies in der heutigen Zeit geschieht. Und ich denke, wenn Sie mit Alexa wachsen, entwickelt sich die Beziehung.

Jennifer Stark : Aber er warnt:

Rohit Prasad : Dies sind noch frühe Tage und wir werden weiterhin recherchieren, um herauszufinden, was die beste emotionale Reaktion oder stilistische Reaktion basierend auf dem Kundeneingang ist. Aber ich möchte nur sicherstellen, dass wir uns einig sind, dass es sich um ein ziemlich schwieriges Problem handelt, da Sie nicht möchten, dass sich Fehler verstärken und Kunden das Vertrauen zu Alexa verlieren. Tatsächlich möchten Sie vertrauenswürdigere Aktionen, was bedeutet, dass es wahrscheinlich in Ordnung ist, in bestimmten Situationen neutralere Antworten zu haben. Und daran arbeiten wir auch gerade.

Jennifer Stark : Emotion AI kann unsere Interaktionen mit Technologie verbessern, aber je nachdem, wie sie verwendet wird, kann sie auch echten Schaden anrichten. Wir werden gleich nach der Pause einige Beispiele dafür untersuchen.

[Midroll-Anzeige]

Jennifer Stark : Die Pandemie hat zu einem Anstieg der Nutzung digitaler Programme zur Überwachung von Schulprüfungen geführt. Diese Produkte verwenden Verhaltensverfolgung und -erkennung, um Schüler über ihre Laptops zu beobachten und nach Anzeichen von Betrug zu suchen. Die New York Times sprach mit einer College-Juniorin, die an einer Tic-Behinderung im Gesicht leidet, und einer frischgebackenen Afro-Latina-Jura-Absolventin, die vier Stunden lang darum kämpfte, die Software zur Registrierung ihres Gesichts zu bekommen. Diese Probleme sind auch bei Interviewsoftware aufgetaucht, die eine ähnliche Gesichts- und Verhaltensverfolgung verwendet, um zu entscheiden, ob Sie es wert sind, eingestellt zu werden.

Meredith Whittaker : Die Vorstellung, dass der Zugang der Menschen zu Jobs und Möglichkeiten von Stereotypen und Annahmen darüber geprägt wird, wie sie aussehen, wie sie sich verhalten, ob sie in einer Weise sprechen, die dem einen oder anderen Erfolgsmodell entspricht, ist unglaublich beunruhigend.

Jennifer Stark : Meredith Whittaker ist Mitbegründerin des AI Now Institute an der NYU.

Meredith Whittaker : Und wir untersuchen die sozialen Implikationen der künstlichen Intelligenz.

Jennifer Stark : Sie sagt, dass es nicht nur darum geht, Emotionen zu benennen, sondern darum, den Wert dieser Emotionen zu interpretieren und Entscheidungen mit diesen Informationen zu automatisieren.

Meredith Whittaker : Hier geht es um Unternehmensmacht und die Art und Weise, wie diese Unternehmen Technologien produzieren, die fantastische Behauptungen aufstellen, die fast immer hinter dem Schleier des Geschäftsgeheimnisses verborgen sind. Sie sind ungeprüft. Sie sind ungeprüft. Wir sehen Technologie, die behauptet, in der Lage zu sein, den inneren Charakter von Menschen, ihre Kompetenz, ihre Gefühle zu erkennen, und die eingesetzt wird, um die Entscheidungsfindung im Klassenzimmer zu informieren, wen einzustellen und wen zu befördern. Wir sehen, dass es im Strafjustizsystem eingesetzt wird – an Orten, die das Leben der Menschen und den Zugang zu Chancen wirklich prägen. Und da es keinen wissenschaftlichen Konsens über die Wirksamkeit der Automatisierung dieser Art von Behauptungen gibt, hielten wir es für an der Zeit, ein Verbot der Verwendung dieser Technologien in diesen Bereichen zu fordern.

Jennifer Stark : Und sie sagt, was vielleicht am beunruhigendsten ist, ist, wie oft diese Technologien verwendet werden, ohne dass die Menschen, die ihnen ausgesetzt sind, eine Ahnung oder einen Rückgriff haben.

Meredith Whittaker : Es ist sehr schwer zu sagen, ob ich, wenn ich nicht für einen Job eingestellt wurde und von HireVu interviewt wurde, daran lag, dass die Software voreingenommen ist oder weil ich den Job sowieso nicht bekommen hätte. Richtig? Zum Beispiel ist es schwierig, aus einer Stichprobe eine Schlussfolgerung zu ziehen. Und die Daten, die es uns ermöglichen würden, ein Muster von Diskriminierung oder Schäden oder Fehlern oder was auch immer zu erkennen, sind nicht öffentlich zugänglich. Die Leute, die Zugriff auf diese Daten haben, sind HireVu und dann, welches Unternehmen HireVu lizenziert, um sie für Interviews zu verwenden, richtig? Und keines dieser Unternehmen hat ein wirkliches Interesse daran, der Öffentlichkeit und Gesetzgebern und Anwälten zu erlauben, diese Daten zu durchsuchen.

Jennifer Stark : Und so fordert ihre Gruppe ein Verbot von Emotions-KI in sensiblen Anwendungsfällen, die Anwendungen umfassen würden, die möglicherweise nicht so sensibel erscheinen – wie ein Piepton vom Armaturenbrett eines Autos, wenn es glaubt, dass ein Fahrer schläfrig wird.

Meredith Whittaker : Wir müssen uns hier irgendwie zurückziehen und uns die Machtdynamik hier ansehen, richtig? Vielleicht ist ein Auto, das ein wenig blinkt, wenn es denkt, dass Sie schläfrig sind, basierend darauf, wie Ihr Gesicht aussieht, vielleicht nicht so schädlich. Aber werden diese Informationen an Ihre Versicherungsgesellschaft gesendet? Werden diese Informationen verwendet, um Ihre Versicherungstarife festzulegen oder um Ihre Schuld zu beurteilen, wenn Sie in einen Unfall geraten? Hindert es Lyft- oder Uber-Fahrer daran, sich bei ihrer App anzumelden? Wozu dienen diese Daten?

Jennifer Stark : Was sie sagt, mag übervorsichtig klingen, aber letztes Jahr entschied die oberste Finanzaufsichtsbehörde von New York, dass Lebensversicherungsunternehmen in diesem Bundesstaat Prämien auf der Grundlage von Informationen aus sozialen Medien festlegen können. Was also hindert Sie daran, Daten von Autos – oder irgendetwas anderem – in Zukunft zur Festlegung Ihrer Versicherungstarife zu verwenden? Im Moment ist an den meisten Orten nichts.

Jennifer Stark : Diese Episode wurde von mir und Karen Hao, Tate Ryan-Mosley und Emma Cillekens gemeldet und produziert. Wir hatten Hilfe von Benji Rosen. Wir werden von Michael Reilly und Gideon Lichfield herausgegeben. Danke fürs Zuhören, ich bin Jennifer Strong.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen