Herr der Roboter

Computer! Mach das Licht an! Rodney Brooks, Direktor des Labors für künstliche Intelligenz am MIT, dem größten KI-Labor. lab in the world-schritten in sein Büro im neunten Stock in Cambridge, MA. Trotz seiner Aufforderung bleibt der Raum dunkel. Computer! wiederholt er und setzt sich an den Konferenztisch.

Ich höre schon mal zu, kommt eine HAL-ähnliche Stimme von der Wand. Brooks richtet seine Bitte an ein kleines Mikrofon auf dem Tisch, diesmal deutlicher: Licht an!

Ein angenehmes Zwitschern signalisiert digitales Verständnis. Die Lichter klicken auf. Brooks grinst, seine länglichen, ergrauenden Locken hüpfen auf beiden Seiten seines Gesichts und gibt zu, dass sein Auftritt eine etwas grobe Demonstration von Pervasive Computing war. Dies ist die Vision einer Post-PC-Zukunft, in der Sensoren und Mikroprozessoren in Autos, Büros und Wohnungen verkabelt und in Hemdtaschen getragen werden, um Informationen abzurufen, zu kommunizieren und verschiedene Aufgaben über Sprach- und Gestenschnittstellen zu erledigen. Meine Mitarbeiter lachen mich aus, sagt Brooks, er hätte einfach den Lichtschalter umlegen können, aber ich muss mit meiner Technik leben.



In nicht allzu ferner Zukunft werden möglicherweise noch viel mehr Menschen mit Technologien leben, die Brooks’ Labor entwickelt. Um Pervasive Computing Wirklichkeit werden zu lassen, entwickeln Forscher in seinem Labor und dem MIT-Labor für Computerwissenschaften – in einem Bemühen, das Brooks als Co-Direktor namens Project Oxygen leitet – die erforderlichen einbettbaren und tragbaren Geräte, Schnittstellen und Kommunikationsprotokolle. Andere bauen bessere Sichtsysteme, die zum Beispiel Lippenbewegungen interpretieren, um die Genauigkeit von Spracherkennungssoftware zu erhöhen.

Brooks KI Lab ist auch ein Paradies für Bastler voller Robotermaschinen, die von mechanischen Beinen bis hin zu Humanoiden reichen, die menschenähnliche Ausdrücke und Gesten als intuitive Mensch-Roboter-Schnittstellen verwenden – etwas, das nach Brooks Ansicht für die Akzeptanz von Robotern in ihrem Leben entscheidend sein wird. Die erste Generation relativ banaler Versionen dieser Maschinen verlässt bereits das Labor. Das von Brooks mitbegründete Robotikunternehmen iRobot mit Sitz in Somerville, MA, ist eines von vielen Unternehmen, die dieses Jahr planen, neue Roboterprodukte auf den Markt zu bringen, wie autonome Bodenreiniger und Industriewerkzeuge, die für schmutzige, gefährliche Arbeiten wie die Inspektion von Ölquellen entwickelt wurden.

Gibt es menschliche Hybriden?

Natürlich sind autonome Ölquelleninspektoren nicht so aufregend, wie uns die Roboterdiener frühere Visionäre vorhergesagt haben. Aber wie Brooks betont, haben Robotik und künstliche Intelligenz tatsächlich ihren Weg in den Alltag gefunden, wenn auch auf weniger dramatische Weise (sehen KI Neustarts , KINDER März 2002) . In Gesprächen mit KINDER Senior Editor David Talbot, Brooks sprach (mit gelegentlichen Unterbrechungen durch seinen allgegenwärtigen Computer) darüber, was wir von Robotik, A.I. und die gesichtslose Stimme aus dem versteckten Lautsprecher in seiner Wand.

TR: Das Militär ist seit langem der dominierende Geldgeber für Robotik und KI. Forschung. Wie haben die Terroranschläge vom 11. September diese Felder beeinflusst?

BRÜCHE: Es gab einen ersten Anstoß, Roboter schnell ins Feld zu bringen, und dieser begann am 11. September gegen 10 Uhr morgens, als John Blitch [Direktor für Robotertechnologie des National Institute for Urban Search and Rescue in Santa Barbara, CA] iRobot anrief mit anderen Unternehmen, um Roboter nach New York City zu bringen und in den Trümmern nach Überlebenden zu suchen. Das war nur der Anfang eines Vorstoßes, um Dinge in Betrieb zu nehmen, die noch nicht ganz fertig waren – und nicht unbedingt für bestimmte Jobs gedacht waren. Im Allgemeinen war es dringend erforderlich, Dinge viel schneller von einer Entwicklungsphase in eine Bereitstellungsphase zu bringen, als vor dem 11. September angenommen wurde. Ich denke, die Leute haben erkannt, dass Roboter eine echte Rolle spielen, um Menschen vor Gefahren zu schützen .

TR: Was sonst noch

COMPUTER: Ich höre schon mal zu.

BRÜCHE: Geh schlafen. Geh schlafen. Geh schlafen.

COMPUTER: Schlafen gehen.

BRÜCHE: Solange wir jetzt nicht das C-Wort sagen, ist alles in Ordnung.

TR: Wurden andere Roboter zum aktiven Dienst berufen?

BRÜCHE: Dinge, die sich in einem späten Forschungs- und Entwicklungsstadium befanden, wurden durchgesetzt, wie die Packbot-Roboter von iRobot. Dies sind Roboter, die ein Soldat tragen und einsetzen kann. Sie rollen auf Schienen durch Schlamm und Wasser und senden Videos und andere sensorische Informationen von entfernten Orten zurück, ohne dass ein Soldat in die Schusslinie geht. Sie können in Schutt und Asche gehen; Sie können dorthin gehen, wo es Sprengfallen gibt. Packbots wurden zum Suchdienst am Standort des World Trade Centers geschickt und bewegen sich schneller als erwartet in einen groß angelegten Militäreinsatz. Der Druck auf die Entwicklung von Minensuchrobotern steigt.

TR: Wie bringen Sie militärische und kommerzielle Roboterforschung in Einklang?

BRÜCHE: Als ich KI wurde Labordirektor Vor viereinhalb Jahren stellte das Verteidigungsministerium 95 Prozent unserer Forschungsförderung. Ich dachte, das wäre einfach zu viel, aus jeder Perspektive. Jetzt sind es etwa 65 Prozent, mit mehr Unternehmensfinanzierung.

TR: Wie sieht die Zukunft der kommerziellen Roboter aus?

BRÜCHE: Es gab eine große Bewegung in Richtung kommerzieller Roboter. Im vergangenen November begann Electrolux mit dem Verkauf von Reinigungsrobotern in Schweden. Sie planen, sie in den USA unter der Marke Eureka zu verkaufen. Es gibt eine Reihe von Unternehmen, die planen, noch in diesem Jahr Reinigungsroboter auf den Markt zu bringen, darunter Dyson in Großbritannien, Krcher in Deutschland und Procter and Gamble in den USA Wachstumsbereich sind Remote-Presence-Roboter; diese werden genauer untersucht, beispielsweise um oberirdische Ferninspektionen an Ölbohrstellen durchzuführen. Viele Unternehmen beginnen, in diesem Bereich zu investieren. IRobot hat gerade drei Jahre Tests an Ölbohrrobotern abgeschlossen, die tatsächlich unter Tage gehen; wir beginnen jetzt mit der Herstellung der ersten Chargen davon.

zukünftiges Leben im Jahr 2030

TR: Wie unterscheidet sich das von anderen Industrierobotern wie Punktschweißern, die es seit Jahren gibt?

BRÜCHE: Diese Roboter agieren völlig autonom. Es ist unmöglich, mit einem unterirdischen Roboter über Funk zu kommunizieren, und extreme Tiefen machen selbst ein leichtes Glasfaserkabel unpraktisch. Wenn sie in Schwierigkeiten geraten, müssen sie sich neu konfigurieren und an die Oberfläche zurückkehren. Sie verfügen über ein Maß an Autonomie und Intelligenz, das nicht einmal der Mars-Rover Sojourner erreicht, der Anweisungen von der Erde erhalten könnte. Sie brauchen keine Arbeitermannschaft mit Tonnen von Kabeln oder Tonnen von Rohrleitungen für unterirdische Inspektionen und Wartungsarbeiten. Sie nehmen diesen Roboter – der ein paar hundert Pfund wiegt –, programmieren ihn mit Anweisungen, und er kriecht den Brunnen hinunter. Sie haben dort eine Reihe von Sensoren, um Durchflussraten, Drücke, Wasserstände und alle möglichen Dinge herauszufinden, die Ihnen den Zustand des Bohrlochs anzeigen und was Sie tun müssen, um die Ölproduktion zu steigern. Sie werden schließlich Muffen öffnen und schließen, die Flüssigkeiten in das Hauptbohrrohr zuführen und Anpassungen vornehmen. Aber die ersten Versionen, die wir dieses Jahr verkaufen, werden nur Daten sammeln.

TR: Der Computer, der das Licht einschaltete, ist Teil des MIT-Projekts Oxygen, das darauf abzielt, eine Welt des Pervasive Computing zu ermöglichen. Was sind Ihre Ziele als Co-Direktor?

BRÜCHE: Bei Project Oxygen konzentrieren wir uns hauptsächlich darauf, Pervasive Computing in einer Büroumgebung zum Laufen zu bringen. Aber die verschiedenen Unternehmen, die in Project Oxygen investieren, haben offensichtlich unterschiedliche Ansichten dazu. Philips ist viel mehr an Technologien interessiert, um Informationsdienste zu Hause besser verfügbar zu machen. Delta Electronics interessiert sich für die Zukunft von Großbildschirm-Displays – Dinge, die getan werden können, wenn Sie wandgroße Displays haben, die Sie an Hausbesitzer verkaufen können. Nokia ist daran interessiert, Informationsdienste zu verkaufen. Sie nennen ein Handy ein Terminal. Sie wollen Sachen an dieses Terminal liefern und Wege finden, wie wir mit diesem Terminal interagieren können. Nokia bietet in Finnland bereits einen Service an, bei dem Sie das Mobiltelefon auf einen Getränkeautomaten richten und Ihnen die Getränke in Rechnung stellen. In Japan surfen bereits 30 Millionen Menschen auf ihren Mobiltelefonen über den i-mode von NTT im Internet. All diese Technologien stellen Dienste aus der Computernutzung in alltäglichen Umgebungen bereit. Wir versuchen, die nächsten Dinge zu identifizieren, um zu sehen, wie wir das, was diese Unternehmen tun, verbessern oder darüber hinausgehen können.

TR: Zu diesem Zweck entwickelt Project Oxygen ein Handheld-Gerät namens H21 und eine Embedded-Sensor-Suite namens E21. Aber was genau werden wir mit diesen Werkzeugen machen – außer das Licht anzuschalten?

BRÜCHE: Die Idee ist, dass wir alle unsere Informationsdienste immer verfügbar haben sollten, egal was wir tun, und so unauffällig wie möglich. Wenn ich heute dein Handy abhebe und anrufe, kostet es dich, nicht ich. Wenn Sie einen H21-Prototyp in die Hand nehmen und verwenden, erkennt er Ihr Gesicht und passt sich an Sie an – er kennt Ihren Zeitplan und weiß, wo Sie sein möchten. Sie können mit ihm sprechen, ihn nach dem Weg fragen oder von ihm aus telefonieren. Es bietet Ihnen per Sprach- oder Stiftbefehl Zugriff auf das Internet. Und es kann Ihre Fragen beantworten, anstatt Ihnen nur Webseiten anzuzeigen, die Sie durchsuchen müssen.
Die E21 bieten die gleichen Dienste in einer allgegenwärtigen Umgebung. Die Wände werden zu Bildschirmen, und das System verwaltet mehrere Personen, indem es sie verfolgt und auf jede Person einzeln reagiert. Wir experimentieren mit neuen Arten von Benutzeroberflächen, ähnlich wie bei aktuellen Whiteboards, außer dass Softwaresysteme verstehen, was Sie anderen Leuten sagen, was Sie skizzieren oder schreiben, und Sie beispielsweise mit einem mechanischen Konstruktionssystem verbinden, während Sie arbeiten . Anstatt Sie bei der Arbeit einsam in den virtuellen Desktop des Computers hineingezogen zu werden, unterstützt er Sie auf natürlichere Weise bei der Zusammenarbeit mit anderen.

TR: Wie verbreitet wird Pervasive Computing in den nächsten fünf bis zehn Jahren sein?

BRÜCHE: Zuerst müssen wir eine große Herausforderung meistern, damit diese Geräte überall funktionieren. Wenn Sie sich bewegen, ändert sich Ihre drahtlose Umgebung drastisch. Es gibt campusweite Netzwerke und an verschiedenen Orten Mobiltelefone mit unterschiedlichen Protokollen. Sie möchten, dass sich diese Protokolle nahtlos ändern. Sie möchten, dass diese Handheld-Geräte unabhängig von den Dienstanbietern funktionieren. Hari Balakrishnan [ein Assistenzprofessor am MIT’s Laboratory for Computer Science] und Studenten haben die Fähigkeit demonstriert, die bei den Unternehmenspartnern auf großes Interesse gestoßen ist, ein vollständig Roaming-Internet zu haben, das wir derzeit nicht haben. Das ist etwas, von dem ich erwarte, dass es in fünf Jahren kommerziell erhältlich sein wird.

TR: Und in 10 Jahren?

BRÜCHE: In 10 Jahren werden wir bessere Sichtsysteme in Handgeräten und in Wandgeräten sehen. Dies wird mit viel besseren Sprachschnittstellen gekoppelt sein. In 10 Jahren werden die kommerziellen Systeme Computer Vision verwenden, um Ihr Gesicht beim Sprechen zu betrachten, um die Erkennung dessen, was Sie sagen, zu verbessern. In einigen Jahren werden die Kameras, die Mikrofonarrays in Ihrem Büro in der Decke sein und Menschen verfolgen und unterscheiden, wer wann spricht, damit das Büro versteht, wer was tun möchte und ihnen die entsprechenden Informationen zur Verfügung stellt. Das demonstrieren wir bereits in unserem Intelligent Room hier im A.I. Labor. Ich rede mit Ihnen – dann zeige ich, und oben an der Wand kommt eine Webseite, die sich auf das bezieht, was ich sage. Es ist wie Star Trek , da der Computer immer verfügbar ist.

TR: Wie ist der Zustand von A.I. Forschung?

BRÜCHE: Es gibt diesen dummen Mythos da draußen, dass A.I. ist gescheitert, aber A.I. ist jede Sekunde des Tages überall um dich herum. Die Leute merken es einfach nicht. Sie haben KI in Autos, Abstimmung der Parameter der Kraftstoffeinspritzsysteme. Wenn Sie in einem Flugzeug landen, wird Ihr Gate von einer KI ausgewählt. Terminplanungssystem. Jedes Mal, wenn Sie eine Microsoft-Software verwenden, haben Sie eine KI. System versucht herauszufinden, was Sie tun, wie zum Beispiel einen Brief zu schreiben, und es macht einen verdammt guten Job. Jedes Mal, wenn Sie einen Film mit computergenerierten Charakteren sehen, sind sie alle kleine KI. Charaktere, die sich als Gruppe verhalten. Jedes Mal, wenn Sie ein Videospiel spielen, spielen Sie gegen eine KI. System.

TR: Aber immer noch kann man sich nicht darauf verlassen, dass ein Roboter-Rasenmäher das Gras so gut mäht wie eine Person. Was sind die größten Probleme, die noch gelöst werden müssen?

symbolisch isolierte linguistisch variable Intelligenzalgorithmen

BRÜCHE: Die Wahrnehmung ist noch immer schwierig. In Innenräumen können Reinigungsroboter einschätzen, wo sie sich befinden und welchen Teil des Bodens sie reinigen, aber sie können es immer noch nicht so gut wie eine Person. Im Freien, wo der Boden nicht eben ist und Orientierungspunkte nicht zuverlässig sind, können sie dies nicht tun. Vision-Systeme sind sehr gut darin geworden, Bewegungen zu erkennen, Dinge zu verfolgen und sogar Gesichter von anderen Objekten zu erkennen. Aber es gibt kein künstliches Sehsystem, das sagen kann: Oh, das ist ein Handy, das ist eine kleine Uhr und das ist ein Stück Sushi. Wir haben immer noch keine allgemeine Objekterkennung. Wir haben es nicht nur nicht gelöst – ich glaube, niemand hat eine Ahnung. Ich glaube nicht, dass man dafür Geld bekommen kann, weil es so weit weg ist. Es wartet darauf, dass ein Einstein – oder drei – mit einer anderen Denkweise über das Problem auftaucht. Aber mittlerweile gibt es viele Roboter, die darauf verzichten können. Der Trick besteht darin, Orte zu finden, an denen Roboter nützlich sein können, wie beispielsweise Ölquellen, ohne visuelle Objekterkennung durchführen zu können.

TR: Dein neues Buch Fleisch und Maschinen: Wie Roboter uns verändern werden argumentiert, dass die Unterscheidung zwischen Mensch und Maschine eines Tages irrelevant sein wird. Was bedeutet das?

BRÜCHE: Es werden Technologien entwickelt, die unser Nervensystem direkt mit Silizium verbinden. Zehntausende Menschen haben beispielsweise Cochlea-Implantate, bei denen elektrische Signale Neuronen stimulieren, damit sie wieder hören können. Forscher des A.I. Das Labor experimentiert mit direkten Schnittstellen zum Nervensystem, um bessere Beinprothesen zu bauen und erkrankte Teile des Gehirns zu umgehen. In den nächsten 30 Jahren werden wir immer mehr Robotertechnologie in unseren Körper einbauen. Wir werden anfangen, mit dem Silizium und dem Stahl unserer Roboter zu verschmelzen. Wir werden auch anfangen, Roboter aus biologischen Materialien zu bauen. Das Material von uns und das Material unserer Roboter werden ein und dasselbe sein, und die heiligen Grenzen unseres Körpers werden durchbrochen. Das ist der Kern meiner Argumentation.

TR: Was sind einige der wilderen langfristigen Ideen, an denen Ihr Labor arbeitet oder über die Sie nachgedacht haben?

BRÜCHE: Wirklich langfristig – wirklich ein Ausweg – wir würden gerne die Biologie kapern, um Maschinen zu bauen. Wir haben hier ein Projekt, bei dem Tom Knight [Senior Research Scientist am A.I. Lab] und seine Studenten haben E. coli-Bakterien so konstruiert, dass sie sehr einfache Berechnungen durchführen und als Ergebnis unterschiedliche Proteine ​​produzieren. Ich denke, die wirklich interessanten Dinge liegen viel weiter hinten, wo wir die digitale Kontrolle darüber haben, was in den Zellen vor sich geht, damit sie als Gruppe verschiedene Dinge tun können. Um ein theoretisches Beispiel zu geben: In 30 Jahren würden wir, anstatt einen Baum zu züchten, ihn zu fällen und einen Tisch zu bauen, einfach einen Tisch wachsen lassen. Wir würden unsere industrielle Infrastruktur ändern, damit wir Dinge wachsen lassen können, anstatt sie zu bauen. Davon sind wir weit entfernt. Aber es wäre fast wie ein kostenloses Mittagessen. Du fütterst sie mit Zucker und bringst sie dazu, etwas Nützliches zu tun!

TR: Projekt Sauerstoff. Roboter. Wachsende Tische. Was ist das gemeinsame intellektuelle Thema für Sie?

BRÜCHE: Angefangen hat alles, als ich 10 Jahre alt war und Anfang der 1960er Jahre meinen ersten Computer baute. Ich würde es einschalten und die Lichter blitzten und es tat einiges. Das ist der rote Faden – die Aufregung, etwas Neues zu bauen, das in der Lage ist, etwas zu tun, das normalerweise eine Kreatur erfordert, eine gewisse Intelligenz.

TR: Ist diese Aufregung noch da?

BRÜCHE: Oh ja.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen