Eine robotische helfende Hand

Ein neuer Roboter von Georgia Tech versteht Befehle, die mit einem einfachen Werkzeug gegeben werden: einem handelsüblichen Laserpointer. In einem Demonstrationsvideo schaltet eine auf einem Stuhl sitzende Person einen grünen Laser ein und trainiert ihn auf einem schnurlosen Telefon, das wenige Meter entfernt auf dem Boden liegt. Ein dünner, fünf Fuß bis sieben Zoll großer Roboter namens Elevated Engagement, oder kurz El-E, fixiert das Telefon, dreht sich um, greift es und bringt es in einer Roboterversion des Abrufens zum Benutzer zurück.



Kann ein Gehirn ewig leben?

Abholbereit: Der neue Home-Assistance-Roboter von Georgia Tech steht auf etwa menschlicher Höhe und verfügt über zwei Kameraaugen, die auf die von einem Laserpointer projizierte Stelle zielen können. Sein etwa zwei Fuß langer, mit Sensoren ausgestatteter Arm kann bis zum Boden oder bis zu Tischen reichen, um leichte Gegenstände aufzunehmen.

Während Begleitroboter seit einiger Zeit Einzug in unsere Häuser halten, von den digitalen Haustieren Furbys und Tamagotchi bis hin zum therapeutischen Paro-Roboterbaby, ist El-E einem automatisierten Roboter einen Schritt näher gekommen, der beispielsweise ein ganzes Haus aufräumen kann oder das Geschirr spülen. Es bleiben jedoch noch viele Hindernisse bestehen – in Bereichen wie Navigation, Greifen und Kommunikation.





El-E, gebaut vom Healthcare Robotics Lab der Georgia Tech, ist der erste Roboter, der durch Laserpointing geführt wird, eine Methode, die genauer ist als menschliche Gesten oder Sprache, die Robotikforscher in der Vergangenheit ausprobiert haben. Nach Angaben des Projektleiters Charles Kemp , wurde der Ansatz teilweise von Tetraplegikern inspiriert, die über Laser mit Helferaffen kommunizieren. Es ist eine Point-and-Click-Schnittstelle, sagt Kemp. Benutzer richten den Laser auf das, was sie wollen, und dann dorthin, wo sie hin sollen: auf sich selbst, auf eine andere Person oder auf eine andere Oberfläche.

Darüber hinaus ist El-E auch der erste Roboter, der in einer nicht kartierten Umgebung autonom Objekte von Oberflächen unterschiedlicher Höhe holt. Während Roboter schon früher nach Gegenständen auf Tischen und Regalen gegriffen haben, mussten sie immer den Aufbau einer statischen Umgebung kennen. Im Gegensatz dazu kann El-E in einem neuen Raum ohne Karte arbeiten und mit neuen oder verschobenen Tischen interagieren, indem er seinen eigenen, eingebauten Laser verwendet, um Oberflächen zu erkennen.

Multimedia

  • Sehen Sie den neuen Assistenzroboter El-E von Georgia Tech in Aktion.

Kemps Labor entwickelt den Roboter in Zusammenarbeit mit Julie Jacko, Direktorin des Instituts für Gesundheitsinformatik und Professor an der University of Minnesota, und Jonathan Glass, der ein Zentrum in Emory leitet, das amyotrophe Lateralsklerose oder ALS (Lou-Gehrig-Krankheit) erforscht ). Das Team verwendete mehrere Standardkomponenten, um den größten Teil des Bots zu bauen, und fügte die neuartige Laserpointer-Schnittstelle an seinem Kopf hinzu. Der erste Teil der Schnittstelle ist eine Kamera, die mit einem hyperbolischen Spiegel gekoppelt ist, der sie omnidirektional macht, sodass sie jedes vom Zeiger beleuchtete Objekt sehen kann. Der Roboter schwenkt seine beiden Augen – hochauflösende Kameras –, bis sie auf den Punkt des Laserpointers gerichtet sind. Der Roboter trianguliert dann die Informationen der Kameras, um die Position des Objekts im dreidimensionalen Raum abzuschätzen. Sobald El-E ein Objekt gefunden hat, erklärt es seinen Erfolg, indem es das Wort ding sagt und zu ihm schwenkt.



Die Verwendung eines Laserpointers auf El-E eröffnet Menschen eine völlig neue Möglichkeit, mit Robotern zu interagieren, sagt Andrew Ng , einem Professor für Informatik an der Stanford University, der Kemps Arbeit aufmerksam verfolgt hat. Ich denke, dies ist eine Art der Interaktion mit Robotern, die sich bei vielen weiteren Anwendungen als nützlich erweisen wird.

Um mit dem Aufnehmen eines Objekts zu beginnen, verwendet El-E seinen Laser-Entfernungsmesser, um herauszufinden, ob sich das Objekt auf dem Boden oder auf einer erhöhten Oberfläche befindet. Wenn es auf dem Boden liegt, bewegt sich El-E auf das Objekt zu und senkt seinen Laser-Entfernungsmesser ab, um über den Boden zu scannen. Wenn das Objekt erhöht ist, verwendet El-E den Entfernungsmesser, um die Kante der Tisch- oder Schreibtischoberfläche zu identifizieren, auf der das Objekt ruht. Sobald er am Tisch angedockt ist, scannt El-E die Oberfläche und verwendet eine Kamera an seiner Hand, um nach unten zu schauen und das Objekt visuell zu segmentieren, vorausgesetzt, der Tisch hat eine einheitliche visuelle Textur. Bisher kann El-E unter anderem ein Objekt richtig erkennen, solange sie voneinander entfernt sind. Das Team hat noch keine geclusterten oder überlappenden Objekte getestet.

Schneller Lerner: El-E ist in der Lage, Objekte abzurufen, die ein Mensch mit einem Handlaser anzeigt. Hier überreicht El-E seinem Schöpfer Charles Kemp ein Stoffhandtuch, das aufgrund seiner Formbarkeit traditionell ein schwer zu greifendes Objekt für Roboter ist. Mit visuellen und taktilen Sensoren an Arm und Hand kann der Roboter Gegenstände greifen, denen er zuvor noch nicht begegnet ist.

Der Handgreifer senkt sich ab und richtet sich optimal aus, um das Objekt zu greifen, während Sensoren in den Fingerkuppen verhindern, dass die Hand das Objekt entweder zerquetscht oder aus dem Griff rutscht. Wenn El-E das Objekt beim ersten Versuch nicht greifen kann, greift sein Feedback-System ein, um die Position des Objekts mit dem Laser-Entfernungsmesser neu zu bewerten und andere Ausrichtungen mit dem Greifer auszuprobieren. Wenn der Roboter weiß, dass er versagt hat und verschiedene Strategien ausprobiert werden, verbessert sich die Leistung erheblich, sagt Kemp. Während Roboter in streng kontrollierten Umgebungen wie einer Autofabrik komplexe Aufgaben erledigen können, sind unvorhersehbare Situationen und Objekte derzeit der Fluch eines Roboters. In der Vergangenheit haben Forscher Roboter die Form von Objekten merken lassen. Derzeit bringen zahlreiche Forscher Robotern bei, neue Objekte auf unterschiedliche Weise zu identifizieren. Der Stair-Roboter von Ng zum Beispiel setzt auf maschinelle Lerntechniken, durch die ihm gezeigt wird, wie man Arten von Objekten aufnimmt, bis er schließlich seine eigenen Strategien entwickelt. (Siehe Ihren persönlichen Roboterassistenten.)

Bisher kann El-E Tassen, Flaschen, Telefone und Geschirrtücher aufnehmen (knifflig für Roboter wegen ihrer Formlosigkeit). Wenn El-E ein Objekt gegriffen hat, gibt es ein skurriles Bob's your Onkel von sich und folgt dem Laser zurück zum Benutzer oder zu einer bestimmten Oberfläche. Unter Verwendung einer Standard-Gesichtserkennungssoftware verkündet El-E, dass die Lebensform erkannt wurde, während es das Objekt anbietet.

El-E ist eine sehr überzeugende Demonstration dessen, was heute möglich ist, sagt Josh Smith , ein leitender Forscher bei Intel Research Seattle, der sich mit Robotergreifern beschäftigt. Er fügt hinzu, dass El-E nur der Anfang ist. Forscher müssen noch herausfinden, wie Roboter komplexer geformte oder schwerere Objekte sowie Objekte in unübersichtlichen Umgebungen oder zwischen vielen identischen Gegenständen (zum Beispiel Gabeln in einer Schublade) greifen können. Die Weiterentwicklung des Roboterabrufs ist laut Smith von entscheidender Bedeutung, da es ein Baustein ist, aus dem viele andere persönliche Roboteranwendungen und möglicherweise sogar militärische Anwendungen erstellt werden können.

Ich denke, dass Heimroboter eines Tages in unseren Häusern genauso verbreitet sein werden wie heute Autos in unserer Garage und genauso unverzichtbar sind, sagt Ng, der gerade seinem Treppenroboter beibringt, einen gefrorenen Burrito in der Mikrowelle zu erhitzen. Während die Hardware und die Maschinen für die Herstellung voll funktionsfähiger Roboterassistenten vorhanden sind, muss die Software verbessert werden, bevor Roboter ihre Häuser aufräumen lassen, sagt Ng.

Roboter-Helfer sollen nicht nur den Alltag der Menschen erleichtern, sondern auch älteren und motorisch eingeschränkten Menschen ein selbstständigeres Leben ermöglichen. El-E könnte beispielsweise eine heruntergefallene Rezeptflasche oder ein heruntergefallenes Telefon bergen – etwas, das für eine Person mit schweren Behinderungen möglicherweise unmöglich ist. Der nächste Schritt für El-E besteht darin, mit Menschen mit ALS zu arbeiten, einer verheerenden neurodegenerativen Erkrankung, die die Mobilität stark einschränkt. Es gibt eine enorme Chance, die Lebensqualität der Menschen zu verbessern und die Gesundheitsversorgung zu beeinflussen, sagt Kemp. Laufende Studien mit dem Emory ALS-Zentrum in diesem Sommer werden El-E mit ALS-Patienten testen, um zu sehen, ob es ihre Bedürfnisse erfolgreich erfüllen kann. Schließlich hofft das Team, dass El-E Lichtschalter betätigen und Türen öffnen können.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen