Warum Menschen vielleicht nie autonome Autos benutzen werden



Das automatisierte Fahren schreitet immer weiter voran, aber es fehlt immer noch eine entscheidende Zutat: Vertrauen. Moderatorin Jennifer Strong trifft Ingenieure, die eine neue Kommunikationssprache zwischen automatisierten Fahrzeugen und ihren menschlichen Insassen entwickeln, ein entscheidendes fehlendes Element auf dem Weg in eine fahrerlose Zukunft.

Wir treffen:

  • Dr. Richard Corey und Dr. Nicholas Giudice, Gründer des VEMI Lab an der University of Maine
  • Ryan Powell, UX-Design und -Forschung bei Waymo.
  • Rashed Haq, VP für Robotik bei Cruise

Kredite:

Diese Episode wurde von Jennifer Strong, Tanya Basu, Emma Cillekens und Tate Ryan-Mosley gemeldet und produziert. Wir hatten Hilfe von Karen Hao und Benji Rosen. Wir werden von Michael Reilly und Gideon Lichfield herausgegeben.





Vollständiges Episodenprotokoll:

Jennifer Stark: Fahrerlose Autos werden seit Jahrzehnten in Filmen beschworen und diskutiert. Die ersten Versuche, sie herzustellen, waren vor etwa einem Jahrhundert. Und sicher, sie sind nicht mehr so ​​unglaublich wie in Herbie The Love Bug aus den 1960er Jahren, wo dieses selbstfahrende Auto seinen eigenen Kopf hat:

[Herbie-Clip]: Ich habe dich nicht hierher gebracht. Es ist dieses böse kleine Auto.

Jennifer Stark: Aber während die künstliche Intelligenz, die die Technologie antreibt, sprunghaft vorangekommen ist – und wir haben jetzt einige selbstfahrende Taxis in den USA und China – ist die Kommunikation zwischen dem Auto und dem Menschen im Inneren seit den Tagen nicht wirklich so weit gekommen dass Herbie ohne Zustimmung des Fahrers losfährt.



Und außerdem sagen uns die Piep- und Bing-Töne, die uns etwas darüber sagen sollen, was das Auto tut, nicht intuitiv, was los ist.

Um fair zu sein, das ist nicht nur ein Problem mit automatisierten Fahrzeugen – es taucht in den meisten Autos mit computerisierten Elementen auf. Mein Auto pingt meinen Beifahrer an, sich anzuschnallen, obwohl alles, was da ist, eine Handtasche ist.

Trotz aller Bemühungen der Programmierer gibt es immer noch ein grundlegendes Problem: Autos und Menschen sprechen nicht die gleiche Sprache.

Dies alles ist wichtig, weil dies kein Videospiel oder Telefon ist, das versucht, seine mathematische Sprache von 1 und 0 auf eine Weise zu interpretieren, die in der menschlichen Sprache sinnvoll ist. Dies ist ein bewegliches Ding, das unsere Körper von Ort a nach Ort b trägt. Wenn etwas schief geht, kann es richtig schief gehen.



Ich bin Jennifer Strong und in dieser Folge tauchen wir in einige knifflige Fragen zu Benutzerfreundlichkeit und Vertrauen ein.

Stellen Sie sich vor, Sie verlassen gerade das Haus – Sie eilen zu einem Meeting mit einigen Kunden. Sie möchten vorher mit Ihrem Chef sprechen, aber Sie müssen auch Ihre Kinder zur Schule bringen. Sie und die Kinder kämpfen sich aus der Tür und gehen zum Auto, Kaffee und Toast in der Hand, Rucksäcke und Wasserflaschen im Schlepptau. Es wäre schön, einen Autopiloten einzustellen. Aber würdest du ihm vertrauen? Können Sie sich wirklich vorstellen, das Lenkrad loszulassen?

Und woher wissen Sie, welches Szenario weniger sicher ist? Das unvermeidliche Multitasking und Kindermanagement während der Fahrt? Oder die Kontrolle an eine Maschine abgeben?

Die Technologie, die wir jetzt haben, wie der Autopilot von Tesla, ist nicht fortschrittlich genug, um wirklich autonom zu sein. Fachleute bezeichnen es als automatisiertes Fahren – es erfordert einen Menschen, der überwacht, was das Auto tut – wir wissen, dass mindestens fünf Menschen bei Unfällen mit automatisiertem Fahren gestorben sind, wenn jemand hinter dem Lenkrad nicht genau aufgepasst hat.

Aber abgelenkte Fahrer sind in jedem Auto gefährlich, und in den USA sterben jedes Jahr immer noch etwa 30.000 bis 40.000 Menschen bei Unfällen.

Jennifer Stark: Wenn ich in meiner Nachbarschaft spazieren gehe, sehe ich oft meine beste Freundin mit ihrem dreizehnjährigen Kind auf ihrer Treppe. Es ist eine typische urbane Szene ... bis auf diesen nächsten Teil.

Hanna : Sie gehen in die Steuerung ... das wird nicht geladen ...

Jennifer Stark: Hannah verwendet eine App auf dem iPhone ihrer Mutter, um ihr Elektroauto auf einen Parkplatz zu ziehen, wo sie es anschließen können.

Hanna : Nun, das ist eine Sache der Benutzerfreundlichkeit … es wird nicht geladen.

Kamel : Das passiert mehrmals, wenn wir zum ersten Mal mit der Bereitstellung der Beschwörungsfunktion beginnen …

Jennifer Stark: Kinder wachsen mit Apps auf und es ist für sie oft intuitiver, wie diese Dinge funktionieren, als für ihre Eltern. Sie sind auch nicht so leicht von neuen Technologien frustriert.

Hanna: Hier gehen wir. Okay. Also, es zeigt Ihnen ein Bild des Autos. Sie drücken einfach in die gewünschte Richtung und halten es fest, und es sollte sich bewegen. Aber es tat nicht … [kichern] ...

Jennifer Stark: Der Autohersteller Tesla verfügt über eine Autopilot-Funktion, mit der Fahrer unter anderem Autos auf Parkplätzen herbeirufen können, um sie abzuholen.

Oh! Da geht es.

Hanna : Also gehen die Lichter an und man kann sehen, wie sich das Lenkrad im Auto bewegt … und es denkt auch, dass unser Fahrradträger ein anderes Auto ist, also können wir es damit nicht umkehren.

Jennifer Strong: Autopilot bietet auch eine fortgeschrittenere Version des Tempomats … obwohl sie auch nicht perfekt ist.

Kamel : Aber ich habe gelernt, dass es je nach Person vor Ihnen anhält oder langsamer wird. Wenn Sie nicht auf die Überholspur gehen können. Sie müssen jedoch immer noch wachsam sein, da es auf einer schnell fahrenden Autobahn tot anhält. Aus Gründen … ohne Grund. Nicht, dass ich das sagen könnte. Also, ich bin sehr misstrauisch. Es lässt mich nicht viel entspannen. Lässt nur meinen Fuß eine Pause machen.

Kamel : Und wenn es mit mir über seine Sicherheitsmaßnahmen sprechen möchte, würde ich mir wünschen, es würde einfach Klartext sprechen. Anstatt piep piep … zu versuchen, durchzublättern … was zum [piep] bedeutet das? Ich weiß nicht. [Lachen]

Hanna : Wenn wir Software-Updates durchführen, erhalten wir einen Überblick darüber, was getan wird. Aber wie meine Mutter sagte, es ist nicht in einfachem Englisch. Es ist sehr schwer zu verstehen. Sie müssen also wirklich nur herausfinden, was sich geändert hat, was gefährlich sein kann. Wenn es etwas Wichtiges ist, wissen Sie nicht, wie Sie die Heizung einschalten oder den Autopiloten einschalten sollen. Und ich weiß auch, dass ich, seit ich auf dem Vordersitz fahre, zu einer Art Co-Pilot geworden bin und es keine offensichtliche Möglichkeit gibt, die Schriftgröße anzupassen. Meine Mutter kann weder die Uhrzeit noch das Navi lesen. Sie hat ein sehr gutes Sehvermögen, aber es ist immer noch schwer für sie. Und ich muss meine Augen von der Straße abwenden. Wenn ich fahren würde, könnte ich es wahrscheinlich auch nicht. Es ist also nicht sehr benutzerfreundlich.

Jennifer Stark: Es ist nicht zu leugnen, dass wir in dieser Beziehung echte Probleme haben – es ist nur eine Frage von wie sie werden angesprochen, wie Forscher, die sich an der University of Maine darauf konzentrieren, nur allzu bewusst sind.

Richard Corey : Es gibt sehr wenig Diskussion von der menschlichen Seite. Und, und ich werde der erste sein, der das sagt ... Gut! Denn erstens möchte ich sicherstellen, dass das Auto auf der Straße bleibt. Das ist unsere Nummer eins. Stellen Sie sicher, dass die Technik stimmt und sie auf der Straße bleiben ... aber wir werden hier sehr bald einen Punkt erreichen, an dem wir in sie einsteigen müssen, und wir müssen herausfinden, was das bedeutet Die menschliche Seite, was brauchen wir?

Jennifer Stark: Richard Corey ist Direktor des VEMI Lab an der University of Maine, das sich auf Mensch-Maschine-Interaktionen konzentriert.

Richard Corey : Wir begannen uns eingehender damit zu befassen und stellten fest, dass die Benachrichtigung auf einem Tesla, den jeder derzeit als führend bei autonomen Fahrzeugen betrachtet, die Benachrichtigung, die Sie darüber informiert, dass der Tesla keine Kontrolle mehr hat, aus vier Pieptönen besteht. Und wir dachten, das scheint nicht genug Information zu sein [lacht] in Anbetracht der neuronalen Verarbeitung und und Sachen, die wir durchmachen, wenn wir ein Auto fahren und uns der Dinge um uns herum bewusst sind und ...

Nikolaus Giudice : Ausgehend davon stellten wir fest, dass …

Jennifer Stark: Und das ist der Mitbegründer des Labors, Nicholas Giudice .

Roboter-Siegel Amazon Stop

Nikolaus Giudice : Während die Menschen auch nicht wirklich über die menschliche Seite der Dinge nachdenken und sich nicht alle menschlichen Faktoren ansehen, gab es einige Untersuchungen, hauptsächlich Umfragen, die ziemlich konsistent gezeigt haben, dass die Menschen die Idee autonomer Fahrzeuge irgendwie mögen. Und wenn du dann sagst, nun, würdest du gerne ausgehen und in einen einsteigen? Wir haben einen direkt vor dem Labor. Sie sagen: Oh nein, absolut nicht. Ich meine, das liegt daran, dass sie diese Art von Angst vor der Technologie zeigen, Angst davor, wie sie funktioniert. Angst, es nicht zu wissen, eine Art Kontrollverlust. Denn das Fahren gibt Ihnen dieses Gefühl, wissen Sie, Sie haben die Entscheidungsgewalt über den Prozess, Sie haben die Kontrolle darüber, was passiert. Und wenn Sie in ein autonomes Fahrzeug einsteigen, scheinen sich die Leute nicht nur darüber Sorgen zu machen, sie haben keine Kontrolle, aber sie wissen nicht, warum das Fahrzeug tut, was es tut.

Jennifer Stark: Um zu verstehen, wie diese Vertrauensbeziehung funktionieren könnte, untersuchen sie, wie Menschen dies tun.

Nikolaus Giudice: Wenn Menschen einander vertrauen, dann deshalb, weil sie gelernt haben, zusammenzuarbeiten. Sie lernten zu verstehen, was sie voneinander brauchen. Und diese Idee der Mensch-Fahrzeug-Kollaboration ist so etwas wie dieser zugrunde liegende Rahmen für unsere Forschung. Teilweise gewinnen wir Vertrauen, indem wir sagen, ob wir einen kollaborativen Prozess aufbauen können, bei dem der Mensch verstehen kann, wie er mit dem Fahrzeug interagiert und was es braucht, und das Fahrzeug mehr darüber versteht, was der Mensch tut und was er braucht. Dieser Prozess, dieser Prozess der Zusammenarbeit, baut Vertrauen auf. Und so bauen wir im Wesentlichen Vertrauen durch bessere Kommunikation auf.

Jennifer Stark: Vertrauen ist nicht greifbar. Wie also messen Wissenschaftler, die sich auf die Benutzererfahrung konzentrieren, diese?

Nikolaus Giudice : Sind sie entspannt? Wir können dies aus physiologischen Maßen betrachten. Sie können sich also die Herzfrequenz oder die Hautleitung ansehen. Schauen Sie sich an, wie sich ihre Aufmerksamkeit verändert, und durch diese verschiedenen Arten von Tools Vertrauen aufzubauen, halten wir für einen innovativen Weg, dies zu tun. Denn bisher wurde dies durch Umfragen untersucht, oder? Sie lassen also Leute an diesen Umfragen teilnehmen, und das ist eine gute Möglichkeit, Aspekte des Vertrauens zu betrachten, aber es ist wirklich nicht annähernd so direkt. Wenn wir also die qualitativen und quantitativen und Verhaltens- und physiologischen Maße kombinieren, erhalten wir wirklich eine viel umfassendere, irgendwie robustere Art, Vertrauen von verschiedenen Ebenen aus zu betrachten.

Jennifer Stark: Ihre persönlichen Tests wurden durch das Coronavirus aufgehalten. Aber im Wesentlichen erhofften sie sich Folgendes:

Richard Corey : Wir wollten ein Jahr lang ein autonomes Fahrzeug an einem öffentlichen Ort einsetzen. Und wir wollten anfangen zu schauen, was wir da reinpacken können. Können wir dort Kameras einbauen? Können wir Leute dort haben, die Beobachtungsstudien durchführen? Können wir Sensoren in den Sitz einbauen, um herauszufinden, ich weiß nicht, wie viel Leute herumwackeln, wenn sie nervös sind oder so. Alle Daten, die wir sammeln könnten, um herauszufinden, wer sich wohlfühlt und wer nicht.

Jennifer Stark: Forscher wollen nachverfolgen, ob Menschen mit der Weiterentwicklung von Autos bequemer und vertrauensvoller werden und schließlich die Fähigkeit erlangen, zu erklären, was sie tun und warum.

Aber selbst wenn man Vertrauen messen kann, ist es nicht gleich. Und es wird nicht von allen auf die gleiche Weise gegeben.

Nikolaus Giudice : Die Menschen sind in gewisser Weise eher bereit, insbesondere jemand wie ich, der von Geburt an blind ist. Ich bin eher bereit, einige der unbekannten Risiken einzugehen, über die die Menschen bei autonomen Fahrzeugen besorgt sind. Denn ich bin wie, ja! Das wird es mir ermöglichen, zu kommen, wohin ich will, wann ich will. Sie wissen, und Sie könnten Buslinien haben, Sie können Paratransit haben, aber dann sind Sie an sehr spezifische Zeitpläne gebunden. Das ist eine wirtschaftlich sinnvolle und einfach wirklich befreiende Art, sich fortzubewegen. Und diese Verbindung zur Unabhängigkeit, diese Verbindung zur Lebensqualität ist an Vertrauen gebunden, einen Teil des Vertrauens zu setzen, bedeutet auch einfach zu wissen, dass es eben ist, sie vertrauen darauf, dass es etwas ist, das funktionieren kann, weil gerade jetzt so viele Die Systeme, die da draußen sind, funktionieren nicht.

Jennifer Stark: Dasselbe gilt für diejenigen, die älter werden oder Probleme haben, die sie am Autofahren hindern können.

Was können wir also lernen, wenn wir beobachten, wie Menschen jemandem hinter dem Steuer vertrauen – und wie repliziert man diese Beziehung, wenn es um Menschen und fahrerlose Autos geht?

Richard Corey : Wir Menschen können körperlich erkennen, ob jemand nervös ist.

Jennifer Strong: Richard Corey.

Richard Corey : Sie greifen nach dem Armaturenbrett, nageln hinein, so etwas, und sie sind nervös, und dann können Sie Ihre Fahrweise anpassen. Du kannst sogar sagen: Hey, es ist okay. Ich meine, ich bin einmal in einem wirklich schlimmen Schneesturm gefahren und alle im Auto sind ausgeflippt. Und ich dachte, schau, weißt du, es ist alles in Ordnung. Das habe ich noch im Griff. Und es sind die kleinen menschlichen Dinge, die Sie tun, die verbinden. Was kann das Auto oder der Computer, was immer es ist, zu dir sagen, das sagt: Hey, es ist okay. Deshalb mache ich das. Wir werden auf die rechte Spur wechseln, weil es wirklich schwierig ist und wir ein wenig langsamer fahren müssen, aber wir sehen heute nicht wirklich, dass irgendetwas von dieser bestehenden Technologie passiert. Und das brauchen wir als Menschen.

Jennifer Stark: Und sein Kollege Nicholas Giudice sagt, so könnte Kommunikation funktionieren...

Nikolaus Giudice : Es kann einen Avatar geben, nur Dinge, an die Sie tatsächlich denken können, dass das Fahrzeug menschenähnliche Eigenschaften hat, dass es nicht nur diese Black-Box-Automatisierung ist, in der Sie sich gerade befinden .

Jennifer Stark: Der langjährige Spitzenreiter in diesem Rennen um den Bau autonomer Fahrzeuge ist ein Unternehmen namens Waymo, das früher als Google-Projekt für selbstfahrende Autos bekannt war.

Es wurde 2018 das weltweit erste Robo-Taxi, nachdem es in Phoenix, Arizona, eine Flotte selbstfahrender Taxis auf die Straße gebracht hatte. Und obwohl sie während der globalen Pandemie persönliche Fahrten einstellen mussten, legen ihre Autos immer noch 20 Millionen virtuelle Meilen pro Tag in Simulatoren zurück.

Es gehört auch zu einer Handvoll Unternehmen, die jetzt selbstfahrende Lastwagen in Texas testen.

Bei Waymo sieht Kommunikation aus wie Fernsehbildschirme, Soundeffekte … und menschenähnliche Stimmen …

Ryan Powell : Und so wissen wir heute, dass als Beifahrer in einem Auto, das von einem Menschen gefahren wird, viel Kommunikation zwischen Ihnen und diesem Fahrer stattfindet, die hilft, Vertrauen aufzubauen.

Jennifer Stark: Ryan Powell leitet das Forschungs- und Designteam für Benutzererfahrung.

Ryan Powell : ...also kann es eine direkte Kommunikation sein. So wie Sie einen Fahrer fragen, welche Route wir nehmen oder warum Sie nicht weiterfahren, ist die Ampel grün, aber es kann auch indirekt sein. Als ob Sie bemerken könnten, dass dieser menschliche Fahrer seine Hände am Lenkrad neu positionieren könnte, bevor er bereit ist, nach links abzubiegen. Aber wir wussten schon sehr früh, dass wir eine Kommunikationsmethode in unseren Fahrzeugen brauchen, um Vertrauen aufzubauen, damit sich die Fahrer sicher und geborgen fühlen und informiert sind. Aus diesem Grund verbringen wir viel Zeit damit, über die visuelle Schnittstelle in unserem Auto nachzudenken. Wir versuchen zu visualisieren, was das Auto sehen kann, wissen Sie, wie kommunizieren wir die Absicht des Autos, in welchen Situationen Fahrer zusätzliche Informationen benötigen, was die richtige Informationsebene ist.

Jennifer Stark: Denn auf der anderen Seite versuchen sie auch, die Fahrer nicht mit zu vielen Informationen zu überladen.

Ryan Powell : Was Sie hören, wenn Sie mit einem Produkt oder einer Dienstleistung interagieren, sollte also genauso viel Designüberlegung erhalten wie das, was Sie sehen. Wenn wir also an unsere Benutzererfahrung denken, haben wir uns entschieden, nicht nur für das zu entwerfen, was Sie sehen, sondern auch für das, was Sie hören können.

Das ist es also, was wir als eine Art Willkommens-Track bezeichnen, den Sie hören würden, sobald sich die Türen öffnen und Sie in das Fahrzeug einsteigen, aber die Sprachrückmeldung ermöglicht es uns, komplexere Informationen zu übermitteln und auch auch Nachrichten zu personalisieren. Dies ist also ein Beispiel dafür, was ein Fahrer hören würde, wenn sich das Auto in Bewegung setzt. Der Desert Breeze Park ist natürlich das Ziel, das der Fahrer dort eingegeben hat. Und wir sind wiederum in der Lage, diese Stimme zu personalisieren, indem wir, ähm, das Ziel nehmen, das sie in die App eingegeben haben, und dem Fahrer nur bekräftigen, dass wir wissen, wo das Ziel ist, wohin wir unterwegs sind, wie wir das Auto tatsächlich bewegen.

Jennifer Stark: Ich habe mich gefragt, was passiert, wenn Sie in einem fahrerlosen Taxi einschlafen? Wie weckt Sie das Auto – oder der Helfer, wie Waymo es nennt – auf?

Ryan Powell : Wir geben Ihnen einen Hinweis, wenn, ähm, wenn Sie ungefähr eine Minute von Ihrem, Ihrem, Ziel entfernt sind und die Idee, die dahintersteckt, wenn Sie irgendwie eingenickt oder eingenickt sind, dann sind wir da eine Stimme verwenden. Also ertönt eine Stimme und teilt Ihnen mit, dass Sie in ungefähr einer Minute ankommen. Und die andere Sache, dass es als Erinnerung dient, Ihre Sachen einzusammeln, wenn Sie etwas auf die anderen Sitze gelegt haben, und damit Sie das nicht zurücklassen, weil Sie es wieder anziehen Dieser menschliche Fahrer muss sich nicht umsehen und sagen: Hey, du hast deine Jacke vergessen. Oder Sie haben Ihr, Ihr, ähm, Ihr Telefon oder Ihre Tasche vergessen. Und so verwenden wir in diesem Fall die Stimme. Und wir denken auch, ähm, wissen Sie, dass das jemandem helfen würde aufzuwachen, wenn er während der Fahrt irgendwie eingenickt wäre.

Jennifer: Es wurde viel recherchiert, um eine Stimme für das autonome Fahrzeug auszuwählen, der die Fahrer vertrauen würden.

Ryan Powell : Wir werden oft gefragt, warum eine weibliche Stimme im Gegensatz zu einer männlichen Stimme gefällt, aber die Entscheidung für uns war wirklich nicht geschlechtsspezifisch. Es ging vielmehr darum, die am besten klingende Stimme zu finden, die diesen Prinzipien entsprach. Und am Ende war es einfach eine weibliche Stimme für uns, wissen Sie, eine Stimme, die kompetent und nachdenklich und freundlich klingt, wissen Sie, wiederum trägt sehr dazu bei, Menschen dabei zu helfen, eine positive Erfahrung zu machen. Und genau das wollten wir, als wir an die Stimme dachten, die man im Auto hört.

Jennifer Stark: Und darüber hinaus produziert Waymo alle seine Sounds in einer bestimmten Tonart, in der Hoffnung, zu beeinflussen, wie wir uns im Auto fühlen.

[Klang]

Ryan Powell : Es gibt diese Idee, dass die Tonart E eine sehr brillante oder optimistische Tonart ist. Und Sie werden feststellen, dass unsere gesamte Klanglandschaft wieder um diese Tonart E herum gespielt wird. Und so werde ich, ich werde hier einen Ton in der Tonart E spielen.

[Klang]

Als Forscher verbringen wir viel Zeit mit unseren Fahrern, indem wir versuchen, die Momente aufzudecken, in denen die Leute zusätzliche Informationen benötigen, um zu verstehen, was im Fahrzeug passiert. Und wieder geht es irgendwie zurück auf diese Idee, Vertrauen aufzubauen. Es könnte also ein einfaches Beispiel sein, bei dem das Auto einfach mitfährt und das Auto plötzlich langsamer wird und wir das die ganze Zeit sehen. Du weißt schon, du bist es nicht, natürlich ist es kein ängstlicher Moment oder ein alarmierender Moment, aber du, du schaust irgendwie von deinem Handy auf und fragst dich irgendwie, Oh, was ist los, weißt du, es ist niemand vor uns, aber wir fahren irgendwie viel langsamer als vorher. Und das ist ein Beispiel dafür, wo wir in diesem Fall in eine Schulzone eingetreten sind, aber weil Sie nicht fahren, werden Sie das wahrscheinlich nicht ohne Weiteres wissen. Und deshalb verlassen wir uns auf diese visuelle Schnittstelle oder verwenden in einigen Fällen Ton oder Stimme, um Sie wissen zu lassen, was passiert ist.

Jennifer Stark: Einer der Hauptkonkurrenten von Waymo heißt Cruise. Wir treffen seinen Leiter der Robotik nach der Pause.

[mittlere Rolle]

Jennifer Stark: Das selbstfahrende Autounternehmen Cruise ist Teil von General Motors. Das Start-up aus San Francisco baut Elektroautos und konzentriert sich auf Mitfahrgelegenheiten und Lieferungen in dicht besiedelten städtischen Umgebungen.

Rashed Haq ist sein Vizepräsident für Robotik.

Rascha Huck : Selbstfahrende Autos müssen das Sozialverhalten anderer Fahrer oder anderer Verkehrsteilnehmer wie Fußgänger lernen. Und gleichzeitig müssen sie den menschenähnlichen sozialen Erwartungen anderer Fahrer und Mitfahrer entsprechen. Und sie müssen dies tun, während sie ein übermenschliches Maß an Sicherheit erreichen.

Jennifer Stark: Ein Teil seiner Arbeit besteht darin, autonomen Fahrzeugen beizubringen, menschlicher zu sein, denn es gibt viele Dinge, die wir während der Fahrt einfach nur zu unserem eigenen Komfort tun. Wir bevorzugen sanftere Kurven und fahren nicht genau in der Mitte einer Fahrspur neben geparkten Autos.

Er und sein Team studieren unsere Gewohnheiten nicht nur, um sie in bestimmten Szenarien nachzuahmen, sondern auch, um uns an sie anzupassen. Er sagt zum Beispiel, dass sie Computer-Vision-Algorithmen verwenden, um die Absichten von Fußgängern anhand ihres Verhaltens zu analysieren.

Rascha Huck : Wenn also zum Beispiel jemand an einem Zebrastreifen steht, aber auf sein Telefon hinunterschaut, dann kann das AV daraus schließen, dass er entweder nicht sofort überqueren wird oder dass er abgelenkt ist und tatsächlich losgeht und nicht aufschaut .

Wir haben Sensoren, die ziemlich weit draußen 360 Grad sehen können, normalerweise mehr als Menschen. Und jeden Tag fahren wir mehr Auto, als ein Mensch in seinem ganzen Leben tun würde. Das gibt Ihnen also gewisse Grenzen, wie schnell die Algorithmen angreifen können. Offensichtlich muss es noch nicht das Urteil der Menschen haben.

Jennifer Stark: Und bevor wir dort ankommen, müssen wir wissen, wie wir vom menschlichen Fahren weg automatisieren wollen.

Können wir realistisch erwarten, dass die Leute jederzeit die Kontrolle übernehmen, wenn sie diese Kontrolle für den größten Teil der Fahrt abgegeben haben? Flugzeugingenieure haben vor langer Zeit erkannt, dass Piloten dies nicht sicher tun können, also lassen Navigationssysteme sie immer eine Art Aufgabe erledigen, um sich am Fliegen zu beteiligen.

Vielleicht bedeutet das, dass Autos sich zurückhalten sollten, wie oft sie das Steuer übernehmen, bis sie wirklich autonom sein können.

Diese Art von Technologie erfordert eine neue Art von menschlichem Vertrauen. Obwohl wir es nicht quantifizieren können, wissen wir, dass das Vertrauen der Menschen mit Transparenz, persönlicher Erfahrung und Schutzmaßnahmen steigt. Wenn wir also unsere eigenen Autos fahren, zweifeln wir nie wirklich daran, dass sie anhalten, wenn wir auf die Bremse treten. Da wir die Entscheidungsfindung an Maschinen auslagern, muss dieses Vertrauen verdient werden. Ohne sie werden weitere Jahrzehnte vergehen, und einige dieser Technologien werden möglicherweise nie das Licht der Welt erblicken.

Nächste Folge: Emotionserkennungstechnologie weist auf eine Zukunft hin, in der unsere Autos, Telefone und andere Geräte auf unsere Gefühle reagieren.

Rana al-Kaliouby : Also bauen wir Algorithmen, die Ihre Gesichtsausdrücke verstehen können, wie Ihr Lächeln oder Ihr Stirnrunzeln oder hochgezogene Augenbrauen, und dies in ein Verständnis Ihres emotionalen und mentalen Zustands umwandeln.

Jennifer Stark: Können wir Emotionen überhaupt kodifizieren? Und sollen wir? Begleiten Sie uns zu einer Miniserie über emotionale KI, während wir untersuchen, wie man intelligente Tools in empathische Tools umwandelt.

Diese Folge wurde von mir und Tanya Basu mit Emma Cillekens und Tate Ryan-Mosely gemeldet und produziert. Wir hatten Hilfe von Karen Hao und Benji Rosen. Wir werden von Michael Reilly und Gideon Lichfield herausgegeben.

Danke fürs Zuhören, ich bin Jennifer Strong.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Alumni-Briefe

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen