Unnatürliche Auswahl

Um ein professioneller Antennendesigner zu werden, können Sie einen von zwei Wegen beschreiten: Sie können sich in Hochschul- und Aufbaustudiengänge zum Elektromagnetismus einschreiben, in die empirische Untersuchung von Antennenformen eintauchen und sich bei einem etablierten Techniker ausbilden, der bereit ist, die streng gehütete Geheimnisse der Disziplin.

Oder Sie tun, was Jason Lohn getan hat: Lassen Sie die Evolution die Arbeit machen.

Möchten Sie für immer leben?

Diese Geschichte war Teil unserer Februar-Ausgabe 2005



  • Siehe den Rest der Ausgabe
  • Abonnieren

Physiker wissen viel über die Maxwell-Gleichungen und die anderen Prinzipien der drahtlosen Kommunikation. Aber Antennendesign ist immer noch eine ziemlich dunkle Kunst, sagt Lohn, ein Informatiker, der am NASA Ames Research Center außerhalb von Mountain View, CA, arbeitet. Das Feld ist so Eichhörnchen. Ihr gesamtes Lernen erfolgt durch Versuch und Irrtum, die Schule der harten Schläge.

Zukunft des Kundenservice

Warum also nicht Versuch und Irrtum automatisieren? Laut Lohn ist das Antennendesign eines von vielen technischen Problemen, das am besten durch evolutionäre Algorithmen gelöst werden könnte, eine aufstrebende Klasse von Software, die viele verschiedene Designs produziert und die weniger passenden ausschließt, um die funktionalste auszuwählen. Die daraus resultierenden Designs wirken oft ein wenig unmenschlich – unelegant und unheimlich.

Evolutionäre Algorithmen, auch als genetische Algorithmen oder GAs bekannt, orientieren sich an der biologischen Evolution, die ein kriechendes Reptil ohne zukunftsweisende Blaupause in einen aufsteigenden Vogel verwandeln kann. Bei der sexuellen Fortpflanzung entstehen durch das Mischen der Gene jedes Elternteils – kombiniert mit zufälligen genetischen Mutationen – Organismen mit neuen Eigenschaften, und die weniger fitten Organismen neigen dazu, ihre Gene nicht an nachfolgende Generationen weiterzugeben. Evolutionäre Algorithmen funktionieren ähnlich, jedoch innerhalb eines Computers. Wenn Lohn zum Beispiel eine neue Antenne erstellt, beginnt er mit einer Population von zufällig generierten Designs und bewertet deren relative Leistung. Designs, die den vorgegebenen Zielen nahe kommen, gewinnen das Recht, ihre Eigenschaften mit denen anderer erfolgreicher Kandidaten zu vermischen. Designs, die enttäuschen, gehen den Weg des Archaeopteryx: Vergessenheit.

Das Züchten von Antennen braucht natürlich Zeit. Die meisten Designs sind geradezu schrecklich, und es dauert eine große Anzahl von Rechenzyklen, um anständige Performer zu finden. Wenn Sie jedoch einen Computer haben, der 1.000 Generationen pro Stunde generieren und testen kann, entstehen interessante Ideen*. Lohn, ein Doktorand, der seit seinen Studienjahren keinen Kurs über Elektromagnetismus mehr besucht hat, geht davon aus, dass mindestens eines der Antennendesigns seines Teams dieses Jahr im Rahmen der NASA-Mission Space Technology 5 ins All fliegen wird, bei der ein Trio von Miniaturen getestet wird Satelliten. Seine Lieblingsantenne vom Computer: eine Korkenziehervorrichtung, die klein genug ist, um in ein Weinglas zu passen, aber dennoch eine breitstrahlende Funkwelle aus dem Weltraum zur Erde senden kann. Es ähnelt nichts, was ein vernünftiger Funkingenieur selbst bauen würde.

Evolutionäre Algorithmen sind ein großartiges Werkzeug, um die dunklen Ecken des Designraums zu erkunden, sagt Lohn. Sie zeigen [Ihre Designs] Leuten mit 25 Jahren Erfahrung in der Branche und sie sagen: „Wow, funktioniert das wirklich?“ Die etwas gruselige Antwort lautet: Ja, das tun sie wirklich, wie Lohn nach monatelangen Tests feststellte. Wenn wir Glück haben, könnten 2005 bis zu sechs Antennendesigns ins All fliegen, sagt Lohn.

Nicht jedes Problem wird dem evolutionären Ansatz erliegen. Aber diejenigen, die eines gemeinsam haben: Sie alle liegen jenseits dessen, was der Mathematiker John von Neumann die Komplexitätsbarriere nannte, die Trennlinie zwischen Problemen, die mit traditionellen, reduktionistischen Methoden gelöst werden können, und solchen, die eine intuitivere Lösung erfordern -und-sehen-was-sticks-Ansatz. Bis vor kurzem war das Überschreiten dieser Barriere ein teures Unterfangen. Aber die heutigen Computer sind schnell genug, um Millionen von ausgefallenen Designs zu durchsuchen, in der Hoffnung, eines zu finden, das funktioniert. Kombiniert man dies mit der wachsenden Fähigkeit moderner Designer bei der Anwendung evolutionärer Algorithmen, sagt David Goldberg, Direktor des Illinois Genetic Algorithms Laboratory an der University of Illinois in Urbana-Champaign, erhält man das, was Ingenieure liebevoll Skalierbarkeit nennen: die Fähigkeit, sowohl Miniatur- als auch massive Designherausforderungen.

So wie die Dampfmaschine eine mechanische Hebelwirkung geschaffen hat, um größere Aufgaben zu erledigen, beginnen genetische Algorithmen dem Einzelnen eine Art intellektuellen Hebel zu geben, der die Arbeit neu gestalten wird, sagt Goldberg. Indem wir einen Teil der schweren Gedankenarbeit automatisieren, machen wir uns frei, um auf einer höheren, kreativeren Ebene zu agieren. Diese Freiheit hat natürlich ihren Preis. Es erfordert, dass Ingenieure erkennen, dass es unmöglich ist, in jede einzelne dunkle Ecke zu blicken, und auf eine weitere Ebene der mechanischen Unterstützung vertrauen. Aber immer mehr von ihnen wagen diesen Sprung.

mond nahaufnahme bilder

Von Spielzeug bis Werkzeug
Einen Prozess, der in der Natur Millionen von Jahren dauert, in Mikrosekunden auf einem Computer zu reproduzieren, ist eine Idee, die lange älter ist als die Fähigkeit, sie zu verwirklichen. John H. Holland, ein 76-jähriger Informatikprofessor an der University of Michigan, sagte, er sei zum ersten Mal auf die Idee gekommen, als er Anfang der 1950er Jahre durch die offenen Stapel der Michigan-Mathematikbibliothek stöberte.

Ab und zu habe ich ein Buch in die Hand genommen, das interessant aussah, und es einfach gelesen, sagt er. Diese Gewohnheit führte ihn zu The Genetical Theory of Natural Selection, einem Buch aus dem Jahr 1930 des britischen Mathematikers und Biologen Ronald Fisher. Inspiriert von den Erbsenpflanzenexperimenten des österreichischen Mönchs Gregor Mendel aus dem 19. Jahrhundert erarbeitete Fisher mathematische Beschreibungen der natürlichen Selektion auf der Ebene einzelner Gene. Obwohl die Forscher die Biochemie hinter diesem Prozess erst in den 1950er Jahren knacken wollten, stimmte Fishers Arbeit dennoch mit dem überein, was Bauern und Hirten seit Jahrhunderten wussten: Die sexuelle Fortpflanzung sorgt für Abwechslung und Neuheit.

Von dort kamen die genetischen Algorithmen wirklich, sagt Holland. Ich begann mich zu fragen, ob man Programme züchten könnte, wie die Leute sagen würden, gute Pferde zu züchten und guten Mais zu züchten.

Holland schrieb 1962 seine erste Arbeit über adaptive Algorithmen. Aber erst Ende der 1970er Jahre hatten er und seine Doktoranden die Computerressourcen angehäuft, um die Idee ins Spiel zu bringen. Holland schreibt einem seiner Studenten, Edward Codd, zu, seinen ehemaligen Arbeitgeber IBM davon überzeugt zu haben, der Michigan-Forschungsgruppe einen kostengünstigen Mainframe zu verkaufen. (Codd gewann später den AM Turing Award, den Nobelpreis für Informatik, für den Entwurf der ersten relationalen Datenbanken.) Aber selbst dann begrenzten die kümmerlichen 32 Kilobyte Speicher des Computers die Größe und den Umfang der Initialen der Forscher Experimente.

Einer der ersten Wissenschaftler, der evolutionäre Algorithmen ernsthaft testete, war Goldberg, der Anfang der 1980er Jahre als Doktorand bei Holland arbeitete. Goldberg hat ein Problem wiederbelebt, mit dem er während seiner Zeit in der Erdgasindustrie konfrontiert war: den Stromverbrauch einer Fernleitung bei schwankender regionaler Nachfrage zu minimieren. Seine evolutionären Algorithmen führten zu ebenso effizienten Lösungen wie denen der bestehenden Strömungsmechanik-Software, die von Pipeline-Konstrukteuren verwendet wird. Aber als Goldberg seinen Algorithmen größere und kompliziertere Probleme fütterte, gerieten sie ins Stolpern: Sie blieben bei der Erforschung evolutionärer Sackgassen oder dem Ausspucken hoffnungslos wilder Lösungen stecken. Ich verstand die Probleme, die ich löste, besser als die Werkzeuge, mit denen ich sie löste, und das hat mich gestört, sagt Goldberg.

Goldberg konzentrierte seine Dissertation und dann ein weiteres halbes Jahrzehnt seiner Arbeit darauf, genetische Algorithmen berechenbarer zu machen. Er fand heraus, dass durch die Anpassung der Parameter jedes neuen Algorithmus – zum Beispiel die Ausgangspopulation oder die Mutationsrate – einige Fältchen geglättet wurden. Doch seine Forschungen hinterließen größtenteils eine ernüchternde Erkenntnis: Evolutionäre Algorithmen waren oft komplexer als die Probleme, die sie zu lösen versuchten. Schließlich lernte Goldberg, sich von dem, was er als Nadel im Heuhaufen bezeichnet, zu vermeiden, das eine einzige, beste Lösung erfordert; diese führten dazu, dass evolutionäre Algorithmen außer Kontrolle gerieten. Stattdessen zielte er auf freundlichere Probleme ab, für die es je nach Herangehensweise eine Reihe tragfähiger Lösungen gab. Wenn Dutzende von Nadeln so verstreut sind, dass der [evolutionäre Algorithmus] den Heuhaufen in kleinere Heuhaufen zerlegen kann, garantiert man sich zumindest eine Chance auf ein besseres Ergebnis, sagt Goldberg.

Goldberg dokumentierte seine Arbeit in einem Lehrbuch von 1989, einem Band, das andere computererfahrene Ingenieure dazu inspirieren sollte, selbst zu basteln. Bis Mitte der 1990er Jahre hatten Ingenieure des General Electric Research Center in Niskayuna, NY, evolutionäre Methoden in ein hauseigenes Konstruktionstool namens EnGENEous eingebaut, mit dem die effizienteste Form für die Fanschaufeln in den verwendeten GE90-Triebwerken gefunden wurde auf Boeings 777-Flugzeug. EnGENEous ermöglichte es dem GE90-Team, eine Stufe des Motorkompressors zu eliminieren, was eine Reduzierung des Motorgewichts und der Herstellungskosten ohne Einbußen bei der aerodynamischen Leistung bedeutete. Nach diesem ersten Erfolg haben sich die Schleusen geöffnet, um diese Art von Werkzeugen in vielen verschiedenen Anwendungen in allen Geschäftsbereichen von GE einzusetzen, sagt Pete Finnigan, Laborleiter für fortschrittliche mechanische Konstruktionsanwendungen im Forschungszentrum. Ingenieure von Rolls Royce, Honda sowie Pratt und Whitney sind diesem Beispiel gefolgt und haben genetische Algorithmen in ihre eigenen Designprozesse integriert.

Betrug melden
Aber während Computer leistungsfähig genug geworden sind, um evolutionäre Prinzipien auf alle möglichen Probleme anzuwenden, vermehren sich die Heuhaufen noch dramatischer. Betrachten Sie Verbraucherbetrug. Kreditkartenunternehmen schätzen, dass 0,07 US-Dollar pro 100 US-Dollar, die Kreditkarten belastet werden, durch Betrug verloren gehen, was die Branche allein in den Vereinigten Staaten jährlich mehr als 1 Milliarde US-Dollar kostet. Dennoch bleibt das Schreiben traditioneller Software zur Identifizierung betrügerischer Anschuldigungen phänomenal schwierig. Wieso den? Weil die Betrüger Experten darin sind, ihr Verhalten so zu ändern, dass es nicht entdeckt wird. Es ist einfach nicht möglich, ein Programm zu schreiben, das jeden möglichen Betrug vorwegnimmt.

Aber evolutionäre Algorithmen können zumindest die Erfolgswahrscheinlichkeit der computergestützten Betrugserkennung erhöhen, argumentieren die Forscher der künstlichen Intelligenz, die das in New York City ansässige Searchspace gegründet haben. Das Unternehmen vertreibt eine Vielzahl von Programmen, die den Heuhaufen aufteilen, indem sie innerhalb genau definierter Abschnitte bestehender Kontodaten nach abweichenden Aktivitäten suchen, sagt Michael Recce, leitender Wissenschaftler von Searchspace. Die Software verwendet Tools, die als Sentinels bezeichnet werden und mit Betrugserkennungsregeln programmiert sind. Mehrere Belastungen derselben Debitkarte in einem einzigen Geschäft an einem einzigen Tag können beispielsweise automatisch eine rote Flagge auslösen.

Aber die Person, die diese Einkäufe sammelt, kann einfach ein vergesslicher Weihnachtskäufer sein, kein Dieb. Daher berücksichtigen die Wächter eine Vielzahl von Faktoren, wie beispielsweise die vorherige Aktivität einer Person in diesem Geschäft, um falsch positive Ergebnisse zu vermeiden und nur Konten zu kennzeichnen, von denen menschliche Experten zustimmen würden, dass sie verdächtig sind. Recce sagt, Sie können die Eignungskriterien so festlegen, dass sowohl minimale Betrugsverluste als auch minimale Verluste an guten Kunden erzielt werden.

Searchspace hostet routinemäßig Piloten, im Wesentlichen Software-Bake-Offs, die seine Algorithmen mit den bestehenden Betrugserkennungssystemen potenzieller Kunden messen. Die Teilnehmer bringen Blindstichproben historischer Daten ein, um zu sehen, ob die Wächter von Searchspace an den richtigen Stellen rote Fahnen setzen. Ausnahmslos, sagt Recce, tauchen die Wächter nicht nur die vorgemerkten Konten auf, sondern auch ein paar weitere Schurken, die im Hintergrundgeräusch lauern. Ich glaube nicht, dass es eine dieser Präsentationen gegeben hat, bei denen wir nicht einen Moment pausieren mussten, damit eine Führungskraft kurz vor die Tür treten konnte, um ein kurzes Telefonat zu führen, sagt Recce lächelnd.

Offensichtlich Original
Nun, da evolutionäre Algorithmen den Menschen überlisten, wollen einige Forscher die Messlatte noch höher legen. An der Stanford University zum Beispiel erforscht der Professor für biomedizinische Informatik John Koza – ein weiterer Schützling der Niederlande – ein eng verwandtes Gebiet namens genetische Programmierung. Evolutionäre Algorithmen haben feste Anweisungen und variieren lediglich die Daten, die sie manipulieren. Genetische Programme sind eher wie sexuelle Organismen, die sich im Laufe der Zeit verbessern können, indem sie Code-Stücke untereinander mischen. Die bisher von Kozas Programmen gemachten Entdeckungen reichen von neuartigen computergestützten Methoden zum Sortieren von Proteinen bis hin zu hochmodernen Designs für elektronische Schaltungen.

Die Schaltungsdesigns entstanden aus Kozas Arbeit mit Matthew Streeter von der Carnegie Mellon University und Martin Keane von Econometrics, einer Marketingstrategieberatung mit Sitz in Chicago. Gemeinsam bauten die Forscher ein Programm, das schematische Schaltpläne zeichnet. Ihre erste Herausforderung bestand darin, zu sehen, ob der genetische Ansatz von Grund auf neue Schaltungsdesigns ableiten könnte, die bereits von früheren Ingenieuren patentiert wurden. Das Programm hatte keine Schwierigkeiten, einfache Designs zu generieren, die denen der 1930er und 1940er Jahre entsprachen. Tatsächlich begann Koza, das Programm als Erfindungsmaschine zu bezeichnen und erstellte eine Webseite, die die neuesten Entdeckungen durch menschliche Konkurrenzsoftware verfolgt.

Als Kozas Gruppe die vierte oder fünfte Version ihres Programms testete, geschah jedoch etwas noch Überraschenderes: Das Programm verwarf Schaltungsdesigns, die nirgendwo in der Patentliteratur veröffentlicht wurden. Zwei dieser Designs – zwei Controller-Schaltungen, die Feedback regulieren – waren so originell, dass Koza und seine Kollegen darauf Patente angemeldet haben.

So stolz er auf seine Software ist, wird Koza die Verantwortung für die neuen Designs nicht dem Programm selbst übertragen. Die Patente schreiben Keane, Koza und Streeter in dieser Reihenfolge zu. Aber hier lauern ein paar neue pseudophilosophische Rätsel: Wenn etwas ohne menschliche Nähe erfunden wird, ist es dann wirklich eine Erfindung? Wer ist der Erfinder? Und wenn die Erfindung tatsächlich funktioniert, spielt es eine Rolle, wenn wir nicht verstehen, wie?

Zu diesem letzten Punkt, sagt Lohn von der NASA, gibt es zwei Denkschulen. Einer sagt, ich brauche nur etwas, das X, Y und Z tut, und wenn mir die Evolution X, Y und Z gibt, ist das alles, was mich interessiert. Die andere Schule will wissen, was da drin ist und wie es funktioniert. Wir können diesen Leuten nicht wirklich helfen, weil wir häufig weiterentwickelte Designs sehen, die völlig unverständlich sind.

das Haus der Zukunft

Es sei noch nicht nötig, dass die Menschen auf menschliche Konkurrenzsoftware neidisch werden, sagt Koza, da das ultimative Ziel einfach darin besteht, die härteste Arbeit der Ingenieure an Computer zu übergeben. Er sieht in naher Zukunft – vielleicht in 20 Jahren – eine Zeit, in der genetische Algorithmen auf ultraschnellen Computern grundlegende Designaufgaben in so unterschiedlichen Bereichen wie Elektronik und Optik übernehmen werden. Aber selbst dann, glaubt Koza, werden menschliche und maschinelle Intelligenz partnerschaftlich zusammenarbeiten. Wir haben noch nie den Ort erreicht, an dem Computer den Menschen ersetzt haben, sagt Koza. In besonders engen Bereichen, ja – aber in der Vergangenheit haben sich die Menschen dazu bewegt, an schwierigeren Problemen zu arbeiten. Ich denke, das wird auch weiterhin so sein.

Sam Williams ist ein freiberuflicher Technologieautor mit Sitz in Staten Island, NY. Er schreibt regelmäßig für Salon.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen