Reverse-Engineering des Gehirns

Maggie ist ein sehr intelligenter Affe, sagt Tim Buschman, ein Doktorand im Neurowissenschaftlichen Labor von Professor Earl Miller. Maggie ist nicht zu sehen – sie befindet sich in einem biologischen Sicherheitsgehäuse, das sie vor menschlichen Keimen schützen soll – aber die Anzeichen ihrer Intelligenz fließen über zwei Monitore vor Buschman. In den letzten sieben Jahren hat Maggie für das Department of Brain and Cognitive Sciences (BCS) des MIT gearbeitet. Drei Stunden am Tag spielt der Makaken Computerspiele, die (normalerweise) darauf ausgelegt sind, abstrakte Darstellungen zu generieren und diese Abstraktionen dann als Werkzeuge zu verwenden. Sogar ich habe damit Probleme, sagt Buschman und nickt auf ein Spiel hin, bei dem es um die Klassifizierung logischer Operationen geht. Aber Maggie hat es in sich, Probleme zu lösen, braucht für jedes etwa eine halbe Sekunde und bekommt etwa vier von fünf richtig.

Illustration von David Plunkert

Maggies Gaming liegt an der Schnittstelle zwischen künstlicher Intelligenz (KI) und Neurowissenschaften. Unter der Anleitung von Buschman und Michelle Machon, einer weiteren Doktorandin, trägt sie zur Erforschung des Lernens und Konstruierens von logischen Regeln des Gehirns bei und wie sich seine Leistung dieser Aufgaben mit der von künstlichen neuronalen Netzen in der KI vergleichen lässt.



Vor vierzig Jahren wäre die Vorstellung, dass Neurowissenschaften und KI in Laboren wie dem von Miller zusammenlaufen könnten, so gut wie undenkbar gewesen. Damals arbeiteten die beiden Disziplinen auf Distanz. Während sich die Neurowissenschaften darauf konzentrierten, die Details der Neuroanatomie und neuronalen Aktivität aufzudecken und zu beschreiben, versuchte die KI, einen unabhängigen, nichtbiologischen Weg zur Intelligenz zu entwickeln. (In der Vergangenheit musste die Technologie die Natur nicht wirklich sklavisch kopieren; Flugzeuge fliegen nicht wie Vögel und Autos rennen nicht wie Pferde.) Und es war die KI, die anscheinend viel schneller vorankam. Die Neurowissenschaften wussten kaum etwas darüber, was das Gehirn ist, geschweige denn, wie es funktioniert, während jeder mit einem Quäntchen Verstand glaubte, dass der Tag, an dem Computer alles tun könnten, was Menschen tun (und es besser machen), in greifbarer Nähe war. 1962 war Präsident Kennedy selbst davon überzeugt und erklärte die Automatisierung (oder wie sie damals oft genannt wurde, Kybernation) zur zentralen innenpolitischen Herausforderung der 1960er Jahre, weil sie drohte, Menschen arbeitslos zu machen.

Aber etwas hat den KI-Express entgleist. Obwohl Computer dazu gebracht werden könnten, einfache Objekte in einer kontrollierten Umgebung zu handhaben, scheiterten sie kläglich daran, komplexe Objekte in der natürlichen Welt zu erkennen. Ein Mikrofon konnte Schallpegel unterscheiden, aber nicht zusammenfassen, was gesagt wurde; ein Manipulator könnte ein sauberes neues Objekt, das in einer geordneten Anordnung liegt, aufnehmen, aber kein schmutziges altes, das in einem durcheinander liegenden Haufen liegt. (In Marvin Minskys inspiriertem Beispiel konnte es auch nicht ein Kissen in einen Kissenbezug stecken.) Heute machen wir uns viel mehr Sorgen über die Konkurrenz durch Menschen im Ausland als über die Konkurrenz durch Maschinen.

Während der Fortschritt der KI langsamer war als erwartet, ist die Neurowissenschaft in ihrem Verständnis der Funktionsweise des Gehirns viel ausgefeilter geworden. Nirgendwo ist dies offensichtlicher als in den 37 Labors des BCS-Komplexes des MIT. Die Gruppen hier zeichnen die neuronalen Bahnen der meisten höheren kognitiven Funktionen (und ihrer Störungen) auf, darunter Lernen, Gedächtnis, die Organisation komplexer sequentieller Verhaltensweisen, die Bildung und Speicherung von Gewohnheiten, mentale Bilder, Zahlenmanagement und -kontrolle, Zieldefinition und Planung, die Verarbeitung von Konzepten und Überzeugungen und die Fähigkeit zu verstehen, was andere denken. Die potenzielle Wirkung dieser Forschung könnte enorm sein. Entdecken Sie, wie das Gehirn funktioniert – exakt wie es funktioniert, wie wir wissen, wie ein Motor funktioniert – würde fast jeden Text in der Bibliothek neu schreiben. Nur für den Anfang, es würde die Strafjustiz, die Bildung, das Marketing, die Elternschaft und die Behandlung von psychischen Störungen jeder Art revolutionieren. (Earl Miller hofft, dass die Forschung in seinem Labor bei der Entwicklung von Therapien für Lernstörungen helfen wird.)

Solche Fortschritte sind einer der Gründe, warum die einst helle Linie zwischen Neurowissenschaften und KI am MIT zu verschwimmen beginnt – und nicht nur in Millers Labor. Die am Institut laufende Sehforschung veranschaulicht auch, wie die beiden Disziplinen beginnen, zusammenzuarbeiten. Die Felder sind getrennt aufgewachsen, sagt James DiCarlo, Assistenzprofessor für Neurowissenschaften, aber sie werden nicht mehr lange getrennt sein. Heutzutage verfolgen KI-Forscher mit großem Interesse den Fortschritt der Neurowissenschaften und die Idee der Umkehrung.
Das Gehirn zu manipulieren ist nicht mehr so ​​unplausibel, wie es einmal schien.

Die Objekterkennung verstehen

End-to-End-Verbindung

Ein Großteil der Arbeit in DiCarlos Labor betrifft die Objekterkennung, die es uns ermöglicht, ein Objekt (z. ohne es mit ähnlichen Objekten (wie zum Beispiel einem Pferd) zu verwechseln. DiCarlo und sein Doktorand David Cox haben letzten August ihre Forschungsergebnisse veröffentlicht Natur Neurowissenschaften die sich auf eine der grundlegenden Fragen der Objekterkennung konzentrierte: Wie viel von unserem Erfolg beim Erkennen von Objekten hängt von fest verdrahteten, angeborenen Schaltkreisen ab und wie viel von erlernten Fähigkeiten?

DiCarlo und Cox führten jedes ihrer Experimente an einem Dutzend Personen durch, eine Person nach der anderen. Die Probanden saßen vor Geräten, die sowohl Bilder von Objekten anzeigen als auch die Blickrichtung der Probanden verfolgen konnten. Die Objekte wurden computergeneriert und sahen vage wie anthropomorphisierte Tiere aus, aber sie waren so konzipiert, dass sie den Subjekten fremd waren. Ein Objekt würde in einer von drei Positionen auf einem Bildschirm erscheinen und das Subjekt würde seinen Blick auf natürliche Weise darauf richten. Für bestimmte Objekte ersetzten die Forscher jedoch neue Objekte, während die Probanden ihre Augen bewegten. Nehmen wir zum Beispiel an, ein Objekt, das irgendwie gedrungen aussah, mit spitzen Ohren, wurde rechts auf dem Bildschirm vorgestellt, während das Motiv auf die Mitte fokussierte. Als sich der Blick des Probanden in Richtung gedrungen und keck verlagerte, ersetzten die Forscher das Objekt durch eines, das etwas dünner aussah, mit hängenden Ohren. Da Menschen bei Blickverschiebungen effektiv blind sind, bemerkten die Probanden den Wechsel nicht. Aber ihr Gehirn tat es.

Nach ein oder zwei Stunden Exposition gegenüber unterschiedlichen Objekten, von denen einige beim Erscheinen in bestimmten Positionen konsequent ausgetauscht wurden, wurden den Probanden Paare der Objekte in verschiedenen Positionen auf dem Bildschirm präsentiert und zum Vergleich aufgefordert. Man könnte erwarten, dass die Probanden die Objekte ohne große Schwierigkeiten unterscheiden würden. Und das taten sie auch, außer wenn die Objekte getauscht worden waren – und nun an denselben Stellen wieder auftauchten, an denen die Tauschs stattfanden. Die Probanden neigten dazu, diese Objekte zu verwechseln: Das heißt, sie waren eher der Meinung, dass gedrungen und keck in einer Position und dünn und hängend in einer anderen ein und dasselbe Objekt waren. DiCarlo glaubt, dass solche Fehler zeigen, dass die Mechanismen des Gehirns zur Erkennung desselben Objekts an verschiedenen Orten von der normalen visuellen Erfahrung über Raum und Zeit abhängen. Der Befund legt nahe, dass sogar grundlegende Eigenschaften der Objekterkennung durch visuelle Erfahrungen mit unserer Welt entwickelt werden könnten, sagt er. DiCarlo und sein Team führen ähnliche Tierversuche durch, um die Muster der neuronalen Aktivität zu untersuchen, die der Objekterkennung zugrunde liegen. (Ein gutes Beispiel für diese Forschung wurde in der Ausgabe vom 4. November 2005 von . veröffentlicht Wissenschaft Zeitschrift. DiCarlo und drei Mitarbeiter haben die Aktivität von Hunderten von Neuronen in Makakenhirnen aufgezeichnet und analysiert. Sie konnten zeigen, dass selbst in einer Handvoll Neuronen äußerst zuverlässige Informationen über Objektidentität und -kategorie enthalten waren.)

Die Objekterkennung war eines der Hauptziele und größte Enttäuschung der traditionellen KI. Obwohl die maschinelle Bildverarbeitung eine echte Branche ist, wurden ihre Erfolge in eng definierten Anwendungen unter streng kontrollierten Bedingungen erzielt, wie z vom Fließband). Jedes Bildverarbeitungssystem sieht nur eine bestimmte Art von Objekt; Beispielsweise könnte die Maschine, die Nummernschilder liest, keine Fingerabdrücke erkennen und umgekehrt. Obwohl die heutige Technologie gut genug sein mag, um uns Maschinen zu liefern, die eine Sache erkennen, erfordern die meisten Jobs in den meisten Branchen – Montage, Wartung, Gesundheitswesen, Transport, Sicherheit – mehr Vielseitigkeit. Arbeiter müssen Hammer, Schraubendreher und Schraubenschlüssel trotz unterschiedlicher Beleuchtung, Ausrichtung der Objekte und Umgebungsunordnung erkennen können. Das Versäumnis, Maschinen zu bauen, die dies können, ist besonders frustrierend, da Vögel wie Krähen und kleine Säugetiere wie Ratten routinemäßig ein Niveau an allgemeiner Anerkennung aufweisen, das weit über die aktuelle Technologie hinausgeht. Es tröstet unsere Eitelkeit, Maschinen nicht so intelligent zu machen, wie wir es sind; aber nicht in der Lage zu sein, einen so schlauen wie eine Taube zu machen, ist einfach nur peinlich.

So beschäftigen sich KI-Forscher seit Jahren mit dem Problem, visuelle Muster mit Bedeutungen oder Identitäten zu verknüpfen. Dies ist einer der Bereiche, in denen KI und Neurowissenschaft aufeinander zusteuern: Die Neurowissenschaft hat an der Rolle des Gehirns bei der Objekterkennung gearbeitet, KI an der allgemeinen Logik dessen, was jedes System tun müsste, um dasselbe Problem zu lösen. Nach Jahrzehnten sind sie fast in Sprechdistanz. DiCarlo fragt sich, ob es vielleicht an der Zeit ist, eine neue Disziplin zu taufen, die aus beiden Bereichen schöpft, wie zum Beispiel biologisch inspiriertes maschinelles Sehen.

Keine Universität nähert sich dieser Schnittstelle schneller als das MIT, wo die Zusammenarbeit von Technik und Wissenschaft eine institutionelle Mission ist. Und das, sagt DiCarlo, sei einer der Gründe, warum er zum MIT gekommen sei: Er erwarte hier die Revolution.

Modellierung der Soforterkennung

Eine eindrucksvolle Illustration von DiCarlos Standpunkt findet sich in den Labors von Tomaso Poggio. Als Co-Direktor des Center for Biological and Computational Learning des MIT arbeitet Poggio seit vier Jahrzehnten an der Vision, zuerst am Max-Planck-Institut in Tübingen, Deutschland, dann am KI-Labor des MIT (das zum Computer Science and Artificial Intelligence Lab wurde) und jetzt in der Abteilung für Hirn- und Kognitionswissenschaften. (Poggio arbeitete mit DiCarlo bei den Makaken-Experimenten zusammen, die in Wissenschaft .) Poggio leitete die meiste Zeit eine Forschungsgruppe für Neurowissenschaften und eine für maschinelles Sehen und sah keinen Grund, sie zusammenzubringen. Wir wussten so wenig, sagt er. Ich hielt es immer für einen Fehler, viel von der Neurowissenschaft zu erwarten. Aber die jüngsten Ergebnisse eines Projekts von Postdoc Thomas Serre und Aude Oliva, Assistenzprofessorin für kognitive Neurowissenschaften am BCS, machten ihn zum Konvertiten.

Poggios Labor konzentriert sich derzeit auf eine Art der Objekterkennung, die als Soforterkennung bezeichnet wird. Dieses Phänomen wurde erstmals 1969 in einem Artikel der MIT-Dozentin Mary Potter (heute Professorin für Psychologie am BCS) und ihrer wissenschaftlichen Mitarbeiterin Ellen Levy beschrieben. Die Soforterkennung ist die schnellste bekannte Form der Erkennung. Ein Proband in einem klassischen Experiment mit sofortiger Erkennung sitzt vor einem Display und wird aufgefordert, für jedes Bild einer Serie eine von zwei Tasten zu drücken, je nachdem, ob es ein Tier enthält oder nicht. Um sicherzustellen, dass das Betrachten eines Bildes nicht versehentlich den Versuchspersonen hilft, andere zu betrachten, wählen die Forscher sehr unterschiedliche Bilder aus: viele Arten in vielen verschiedenen Posen und Perspektiven, vor einem breiten Spektrum von Hintergründen. Die Fotos kommen und gehen in wenigen Zehntelsekunden. Zu Beginn einer Studie kann es sein, dass sich ein Proband so gut wie gar nicht bewusst ist, überhaupt ein Bild gezeigt zu bekommen, geschweige denn zu erkennen, was darin enthalten ist. Erstaunlicherweise treffen die Leute jedoch häufiger die richtigen Tasten. Sie werden immer besser – und werden sich der Erscheinung der Bilder bewusst – mit Übung. Dennoch ist am Anfang etwas im Gehirn in der Lage, Objekte zu erkennen und zu kategorisieren, bevor das Subjekt überhaupt etwas sieht.

Die sofortige Erkennung ist für Forscher wichtig, weil es sich um den einfachsten Fall allgemeiner Objekterkennung handelt. Es geht zu schnell, viele Neuronen zu rekrutieren oder Informationen intensiv zu verarbeiten oder Impulse über mehr als einen Bruchteil eines Zentimeters zu senden und zu empfangen. Informationen aus Augenbewegungen, ein Schlüsselelement bei anderen Arten der Erkennung (wie bei DiCarlo), können keine Rolle spielen. Aber irgendwie werden (meistens) die richtigen Tasten gedrückt, was bedeutet, dass eine begrenzte Form der universellen Objekterkennung mit einer relativ kleinen Anzahl von Neuronen, die relativ einfach organisiert sind, möglich sein muss.

Aufbauend auf der Arbeit, die Poggio mit Max Riesenhuber, PhD ‘00, gemacht hat, dann Doktorand am MIT und jetzt Professor an der Georgetown University, Serre, Poggio und anderen in Poggio’s
entwickelte eine Theorie über den Teil des visuellen Kortex, der hauptsächlich für die sofortige Erkennung verantwortlich ist. Ihre Herangehensweise an die visuelle Verarbeitung unterschied sich in vielerlei Hinsicht von der eines Machine Vision Engineers. Beispielsweise verfügen die meisten Machine-Vision-Programme über einen Prozessor, der eine Reihe von Befehlen in aufeinanderfolgender Reihenfolge ausführt, eine Architektur, die als serielle Verarbeitung bekannt ist. Das Gehirn hingegen verwendet Parallelverarbeitung, einen Ansatz, bei dem ein Problem in viele Teile zerlegt wird, die jeweils von einem eigenen Prozessor separat angegangen werden, wonach die Ergebnisse kombiniert oder integriert werden, um ein einziges allgemeines Ergebnis zu erhalten – sagen wir: die Wahrnehmung einer Kuh. Theoretisch könnten Ingenieure parallele Verarbeitung für Machine-Vision-Programme verwenden (und einige haben es versucht), aber in der Praxis ist es selten offensichtlich, wie man ein Problem so aufschlüsselt, dass die fertigen Teile nahtlos wieder zusammengefügt werden können.

Das biologische Sehen löst dieses Problem auf verschiedene Weise. Einer, so Poggios Gruppe, besteht darin, die Verarbeitung um zwei einfache Operationen herum zu organisieren und diese Operationen dann in geordneter Weise durch Schichten von Neuronen abzuwechseln. Schicht A könnte die grundlegenden Eingaben vom Sehnerv filtern; Schicht B würde die Ergebnisse vieler Zellen in Schicht A integrieren; C würde die Eingaben von B filtern; D würde die Ergebnisse von C integrieren; und so weiter, vielleicht ein Dutzend Mal. Wenn ein Signal durch die Schichten steigt, kombinieren sich die Ausgänge der parallelisierten Prozessoren allmählich, es entsteht Identität und das Rauschen fällt weg.

Hitzetoleranz beim Menschen

Serre und Poggio verwendeten diese Schichtungstechnik, um ihrem Modell eine parallele Verarbeitung zu ermöglichen. Ein weiterer Trick, den sie der Biologie entlehnten, bestand darin, die Anzahl der Verbindungen zu erhöhen, die ihre grundlegenden Vermittlungseinheiten miteinander verbanden. Die Vermittlungseinheiten in herkömmlichen Computern haben sehr wenige Verbindungen, normalerweise etwa drei; Neuronen, die grundlegenden Schalteinheiten des Gehirns, haben Tausende oder sogar Zehntausende. Serre und Poggio statteten die logischen Schalter in ihrem Modell mit einem biologisch plausiblen Grad an Konnektivität aus. In Fällen, in denen die Wissenschaft noch nicht bekannt war, machten sie Annahmen, die auf ihrer breiteren Erfahrung mit Neuroanatomie beruhten.

Um ihre Theorie zu testen, entwickelten Serre und Poggio ein Computerprogramm mit sofortiger Erkennung, das digitale Bilder analysiert. Wenn digitale Bilddateien in das Programm eingespeist werden, durchläuft es sie durch mehrere abwechselnde Schichten von Filter- und Integrationszellen und trainiert sich selbst, um die Bilder zu identifizieren und zu klassifizieren. Der Schlüssel ist, Komplexität langsam aufzubauen, sagt Serre. Intelligenz zu schnell einzuführen, ist ein großer Fehler. Frühe KI-Bemühungen haben möglicherweise zu schnell versucht, die Identität zu erkennen und Informationen zu verwerfen, die für die richtige Antwort entscheidend waren.

Der Ansatz von Serre und Poggio war ein spektakulärer Erfolg. Aus neurowissenschaftlicher Sicht stellte sich heraus, dass einige ihrer Annahmen echte Merkmale vorhersagten, wie das Vorhandensein von Zellen (sie nennen sie OR-Zellen), die das stärkste oder konsistenteste Signal aus einer Gruppe von Eingaben auswählen und es in ihre eigenen kopieren Ausgangsfasern. (Stellen Sie sich eine Gruppe von drei Neuronen A, B und C vor, die alle Signale an das OR-Neuron X senden. Wenn diese Signale die Stärkestufen 1, 2 bzw. 3 hätten, würde X A und B unterdrücken und das Signal von C in sein kopieren Wenn die Stärken 3, 2 und 1 gewesen wären, hätte es stattdessen das Signal von A kopiert und das von B und C unterdrückt.)

Die Ergebnisse waren aus KI-Sicht ebenso dramatisch. Als menschliche Probanden und das Soforterkennungsprogramm von Serre und Poggio den Tieranwesenheits-/Abwesenheitstest durchführten, schnitt der Computer genauso gut ab wie der Mensch – und besser als die besten verfügbaren Bildverarbeitungsprogramme. (Tatsächlich erhielt es in 82 Prozent der Fälle die richtige Antwort, während die Menschen im Durchschnitt nur 80 Prozent erhielten.) Dies ist mit ziemlicher Sicherheit das erste Mal a Allgemeines -Vision-Programm hat so gut wie Menschen funktioniert.

Die vielversprechenden Ergebnisse lassen Poggio und Serre bis zur Unkenntlichkeit denken. Poggio vermutet, dass das Modell auch auf die auditive Wahrnehmung anwendbar sein könnte. Serre stellt eine noch gewagtere Spekulation vor: dass die allgemeine Objekterkennung der Grundbaustein der Erkenntnis ist. Vielleicht sagen wir deshalb, ich sehe, wenn wir andeuten wollen, dass wir etwas verstanden haben.

Obwohl die Erweiterung ihrer Theorie in diese neuen Richtungen einige Arbeit erfordern wird, hat das Modell von Serre und Poggio bereits begonnen, sich sowohl in der KI- als auch in der Neurowissenschaftsgemeinschaft am MIT zu verbreiten. Der Elektrotechnik-Student Stan Bileschi hat kürzlich seine Promotion abgeschlossen, in der er das Modell auf die Szenenerkennung anwendete, die die Ableitung von Urteilen höherer Ordnung ist – es ist eine Farm! – aus der Erkennung einzelner Objekte – einer Scheune, einer Kuh, eines Split-Rail-Zauns. Bileschi glaubt, dass die allgemeine Szenenanalyse für viele reale Machine-Vision-Anwendungen von entscheidender Bedeutung sein wird – zum Beispiel für die Überwachung.

Die sofortige Erkennung ist die Grundlage für die allgemeine visuelle Erkennung, sagt Poggio, aber das ist noch nicht alles. Es gibt viele Anerkennungsstufen, und die sofortige Anerkennung ist eine der einfachsten. Je nach Kontext kann ein Objekt als Spielzeug, Puppe, Barbie, Spiegelbild der amerikanischen Kultur, Frau, Darstellung eines Mädchens mit einer seltsamen Wachstumsstörung usw. auf einer langen Liste identifiziert werden. Ebenso kann bei Schachproblemen das Erkennen des richtigen Zuges Sekunden, Minuten oder Stunden dauern, je nach Konfiguration der Figuren. Vermutlich erfordert die Lösung von Problemen, wenn Probleme schwieriger werden, die Rekrutierung einer höheren Gehirnfunktion – und das braucht Zeit.

Ein Modell mit sofortiger Erkennung könnte die Sehprobleme lösen, die die Entwicklung nützlicher Wartungs- und Bauroboter behindert haben. Oder wir finden, dass solche Roboter in der Lage sein müssen, sowohl Anomalien in der Landschaft als auch deren Ursachen zu erkennen. Diese Art der Anerkennung ist eindeutig von höherer Ordnung.

Der nächste Schritt besteht darin, Erkennungsmodelle zu erstellen, die immer mehr Ressourcen rekrutieren und somit mehr Verarbeitungszeit benötigen. Wir wissen, wie das Modell geändert werden könnte, um die Zeit einzubeziehen, sagt Serre. Dies könnte uns dem Denken näher bringen – nur vielleicht.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen