Claude Shannon: Widerstrebender Vater des digitalen Zeitalters

Holen Sie sich eine Lieblings-CD. Lassen Sie es jetzt auf den Boden fallen. Verschmieren Sie es mit Ihren Fingerabdrücken. Schieben Sie es dann in den Schlitz am Player – und hören Sie, wie die Musik genauso kristallklar herauskommt wie am Tag, an dem Sie das Kunststoffgehäuse zum ersten Mal geöffnet haben. Bevor Sie mit dem Rest Ihres Tages fortfahren, denken Sie kurz über den Mann nach, dessen revolutionäre Ideen dieses Wunder möglich gemacht haben: Claude Elwood Shannon.

Shannon, der im Februar nach langer Krankheit starb, war einer der größten Giganten, die das Informationszeitalter geschaffen haben. John von Neumann, Alan Turing und viele andere Visionäre gaben uns Computer, die Informationen verarbeiten konnten. Aber es war Claude Shannon, der uns das moderne Konzept der Information vermittelte – ein intellektueller Sprung, der ihm einen Platz auf dem Hightech-Äquivalent von Mount Rushmore einbringt, das eines Tages etabliert wird.

Ein intelligenteres Stromnetz

Diese Geschichte war Teil unserer Juli-Ausgabe 2001



  • Siehe den Rest der Ausgabe
  • Abonnieren

Die gesamte Wissenschaft der Informationstheorie entstand aus einer elektrisierenden Veröffentlichung, die Shannon 1948 veröffentlichte, als er 32 Jahre alt war und an den Bell Laboratories forschte. Shannon zeigte, wie der einst vage Begriff der Information mit absoluter Präzision definiert und quantifiziert werden kann. Er demonstrierte die wesentliche Einheit aller Informationsmedien und wies darauf hin, dass Text, Telefonsignale, Radiowellen, Bilder, Film und jede andere Kommunikationsform in der universellen Sprache der Binärziffern oder Bits kodiert werden könnten – ein Begriff, den sein Artikel lautete die erste, die in gedruckter Form verwendet wird. Shannon vertrat die Idee, dass Informationen, sobald sie digital geworden sind, fehlerfrei übertragen werden können. Dies war ein atemberaubender konzeptioneller Sprung, der direkt zu so vertrauten und robusten Objekten wie CDs führte. Shannon habe eine Blaupause für das digitale Zeitalter geschrieben, sagt der MIT-Informationstheoretiker Robert Gallager, der immer noch von dem Papier von 1948 beeindruckt ist.

Und das ist noch nicht einmal die Masterarbeit, die Shannon 10 Jahre zuvor geschrieben hatte – die, in der er die Prinzipien aller modernen Computer formulierte. Claude hat so viel dazu beigetragen, moderne Technologie zu ermöglichen, dass es schwer ist, zu wissen, wo man anfangen und enden soll, sagt Gallager, der in den 1960er Jahren mit Shannon zusammengearbeitet hat. Er hatte diese erstaunliche Klarheit des Sehens. Einstein hatte sie auch – diese Fähigkeit, ein kompliziertes Problem anzugehen und den richtigen Weg zu finden, es zu betrachten, sodass die Dinge sehr einfach werden.

Basteln in Richtung Morgen

Für Shannon war das alles nur eine andere Art, Spaß zu haben. Claude liebte es zu lachen und sich ungewöhnliche Dinge auszudenken, sagt der pensionierte Bell Labs-Mathematiker David Slepian, der in den 1950er Jahren ein Mitarbeiter von Shannon war. Shannon ging in Mathe wie ein Bühnenmagier, der seinen Taschenspielertrick übt: Er kreiste herum und griff das Problem aus einer Richtung an, an die Sie nie gedacht hätten, sagt Slepian - nur um Sie mit einer Antwort zu überraschen, die direkt vor Ihnen lag Gesicht die ganze Zeit. Aber Shannon hatte auch ein großes Repertoire an echten Kartentricks. Er brachte sich das Einradfahren selbst bei und wurde berühmt dafür, dass er nachts die Gänge der Bell Labs hinunterfuhr – während er jonglierte. (Er war im College Turner gewesen, also war er besser darin, als man vielleicht dachte, sagt seine Frau Betty, die ihm den Zyklus 1949 zu Weihnachten geschenkt hatte.)

Zu Hause verbrachte Shannon seine Freizeit damit, alle möglichen bizarren Maschinen zu bauen. Da war der Throbac (THrifty ROman-numerical BAckward-Looking Computer), ein Taschenrechner, der mit römischen Zahlen rechnete. Da war Theseus, eine lebensgroße mechanische Maus, die ihren Weg durch ein Labyrinth finden konnte. Und vielleicht am bekanntesten war die Ultimate Machine – eine Box mit einem großen Schalter an der Seite. Schalten Sie den Schalter ein, und der Deckel würde sich langsam anheben und eine mechanische Hand enthüllen, die nach unten greifen, den Schalter ausschalten und zurückziehen würde – die Schachtel so wie sie war.

Ich war schon immer daran interessiert, Dinge mit lustigen Bewegungen zu bauen, erklärte Shannon 1987 in einem Interview mit dem Omni-Magazin (einer der wenigen Male, in denen er öffentlich über sein Leben sprach). In seiner Heimatstadt Gaylord im Norden Michigans, erinnerte er sich, verbrachte er seine frühen Jahre damit, Modellflugzeuge, Funkschaltkreise, ein funkgesteuertes Modellboot und sogar ein Telegrafensystem zusammenzustellen. Und als er 1932 an der University of Michigan eintrat, zögerte er nicht, Elektrotechnik als Hauptfach zu studieren.

Nach seinem Abschluss im Jahr 1936 ging Shannon direkt zum MIT, um eine Werkstudentenstelle anzutreten, die er auf einer Postkarte gesehen hatte, die an einem schwarzen Brett des Campus befestigt war. Er sollte die Hälfte seiner Zeit damit verbringen, einen Master in Elektrotechnik zu machen und die andere Hälfte als Laborassistent für den Computerpionier Vannevar Bush, den Vizepräsidenten des MIT und Dekan für Ingenieurwissenschaften, zu arbeiten. Bush übertrug Shannon die Verantwortung für den Differential Analyzer, ein ausgeklügeltes System aus Zahnrädern, Riemenscheiben und Stangen, das den größten Teil eines großen Raums einnahm – und das zu dieser Zeit wohl die mächtigste Computermaschine auf dem Planeten war ( sehen Computer nach Silizium , TR Mai/Juni 2000 ).

Von Bush und seinen Schülern in den späten 1920er Jahren konzipiert und 1931 fertiggestellt, war der Differential Analyzer ein analoger Computer. Es stellte mathematische Größen nicht mit Einsen und Nullen dar, wie es digitale Computer tun, sondern durch einen kontinuierlichen Wertebereich: die physikalische Rotation der Stäbe. Shannons Aufgabe bestand darin, Gastwissenschaftlern zu helfen, ihre Probleme auf dem Analysator zu programmieren, indem sie die mechanischen Verbindungen zwischen den Stäben neu anordneten, damit ihre Bewegungen den entsprechenden mathematischen Gleichungen entsprachen.

Shannon hätte sich keinen Job wünschen können, der seiner Vorliebe für lustige Bewegungen besser entsprach. Besonders angezogen hat ihn der wunderbar komplizierte Steuerkreis des Analysators, der aus etwa hundert Relais-Schaltern bestand, die von einem Elektromagneten automatisch geöffnet und geschlossen werden konnten. Was ihn jedoch besonders faszinierte, war, wie sehr die Funktionsweise der Relais der Funktionsweise der symbolischen Logik ähnelte, ein Thema, das er gerade in seinem Abschlussjahr in Michigan studiert hatte. Jeder Schalter war entweder geschlossen oder offen – eine entsprechende Wahl
genau auf die binäre Wahl in der Logik, bei der eine Aussage entweder wahr oder falsch war. Darüber hinaus erkannte Shannon schnell, dass in Schaltkreisen kombinierte Schalter Standardoperationen der symbolischen Logik ausführen können. Die Analogie war offenbar noch nie zuvor erkannt worden. Shannon machte es also zum Thema seiner Masterarbeit und verbrachte den größten Teil des Jahres 1937 damit, die Implikationen auszuarbeiten. Später erzählte er einem Interviewer, dass ihm das mehr Spaß gemacht habe als alles andere in meinem Leben.

Richtig oder falsch?

Seine Dissertation, A Symbolic Analysis of Relay and Switching Circuits, ist sicherlich eine fesselnde Lektüre – insbesondere angesichts dessen, was in den über 60 Jahren seit ihrer Entstehung passiert ist. Als Randnotiz zum Schluss wies beispielsweise Shannon darauf hin, dass die logischen Werte wahr und falsch gleichermaßen mit den Ziffern 1 und 0 bezeichnet werden könnten. Diese Erkenntnis bedeutete, dass die Relais die damals obskuren Operationen der binären Arithmetik ausführen könnten . So, so schrieb Shannon, sei es möglich, komplexe mathematische Operationen mit Hilfe von Relaisschaltungen durchzuführen. Zur Veranschaulichung zeigte Shannon den Entwurf einer Schaltung, die Binärzahlen addieren kann.

Vor allem aber erkannte Shannon, dass eine solche Schaltung auch Vergleiche anstellen kann. Er sah die Möglichkeit eines Geräts, das je nach den Umständen alternative Vorgehensweisen einschlagen könnte – wie in: Wenn die Zahl X gleich der Zahl Y ist, dann führe die Operation A aus. Shannon illustrierte diese Möglichkeit in seiner Dissertation einfach, indem er zeigte, wie Relais Schalter könnten so angeordnet werden, dass sie ein Schloss erzeugen, das sich öffnete, wenn und nur wenn eine Reihe von Knöpfen in der richtigen Reihenfolge gedrückt wurde.

Die Implikationen waren tiefgreifend: Ein Schaltkreis konnte entscheiden – eine Fähigkeit, die einst Lebewesen einzigartig erschienen war. In den kommenden Jahren sollte die Aussicht auf Entscheidungsmaschinen das gesamte Feld der künstlichen Intelligenz beflügeln, den Versuch, das menschliche Denken per Computer zu modellieren. Und vielleicht war es kein Zufall, dass dieses Gebiet Claude Shannon für den Rest seines Lebens faszinieren würde.

Von einem unmittelbareren Standpunkt aus war jedoch die Entscheidungsfähigkeit eines Schaltkreises das, was die digitalen Computer, die nach dem Zweiten Weltkrieg auftauchten, zu etwas grundlegend Neuem machen würde. Es waren nicht ihre mathematischen Fähigkeiten an sich, die die Zeitgenossen so verblüffend fanden (obwohl die Maschinen sicherlich sehr schnell waren); Schon in den 1940er Jahren war die Welt voll von elektromechanischen Tischrechnern, die einfache Additionen und Subtraktionen ausführen konnten. Das Erstaunliche daran war die Fähigkeit der neuen Computer, unter der Kontrolle eines internen Programms zu arbeiten, zwischen verschiedenen Alternativen zu entscheiden und komplexe Befehlsfolgen selbstständig auszuführen.

Aus diesem Grund gilt A Symbolic Analysis of Relay and Switching Circuits, erschienen 1938, als die bedeutendste Masterarbeit des 20. Jahrhunderts. Claude Shannon hatte mit Anfang 20 die für die Organisation des internen Betriebs eines modernen Computers entscheidenden Einsichten – fast ein Jahrzehnt bevor solche Computer überhaupt existierten. In der Zwischenzeit hat sich die Schalttechnologie von elektromechanischen Relais zu mikroskopischen Transistoren entwickelt, die auf Silizium geätzt sind. Aber bis heute sprechen und denken Mikrochip-Designer immer noch in Bezug auf die interne Logik ihrer Chips – ein Konzept, das größtenteils von Shannons Arbeit getragen wird.

Perfekte Informationen

dna wird im gespeichert

Auf Anregung von Vannevar Bush beschloss Shannon, nach seinem Master-Abschluss in Mathematik zu promovieren – eine Aufgabe, die er in nur anderthalb Jahren absolvierte. Nicht lange nach seinem Abschluss im Frühjahr 1940 wechselte er zu Bell Labs. Da der Eintritt der USA in den Zweiten Weltkrieg eindeutig nur eine Frage der Zeit war, begann Shannon sofort mit der Arbeit an militärischen Projekten wie der Flugabwehr-Feuerkontrolle und der Kryptographie (Codeherstellung und -knacken).

Nichtsdestotrotz fand Shannon immer wieder Zeit, sich mit der grundlegenden Kommunikationstheorie zu beschäftigen, ein Thema, das bereits einige Jahre zuvor sein Interesse geweckt hatte. Ab und zu hatte Shannon Bush im Februar 1939 in einem Brief geschrieben, der jetzt in den Archiven der Library of Congress aufbewahrt wird. Radio, Fernsehen, Telegrafie usw. Um diesem Ziel näher zu kommen, brauchte er eine Möglichkeit zu spezifizieren, was während des Kommunikationsaktes übertragen wurde.

Aufbauend auf der Arbeit des Bell Labs-Ingenieurs Ralph Hartley formulierte Shannon einen strengen mathematischen Ausdruck für den Informationsbegriff. Zumindest in den einfachsten Fällen, so Shannon, sei der Informationsgehalt einer Nachricht die Anzahl der binären Einsen und Nullen, die für ihre Codierung erforderlich seien. Wenn Sie im Voraus wussten, dass eine Nachricht eine einfache Wahl vermitteln würde – ja oder nein, wahr oder falsch –, dann würde eine Binärziffer ausreichen: Eine einzelne Eins oder eine einzelne Null sagten Ihnen alles, was Sie wissen mussten. Die Nachricht würde somit so definiert, dass sie eine Informationseinheit hat. Andererseits würde eine kompliziertere Nachricht mehr Ziffern zum Kodieren erfordern und würde so viel mehr Informationen enthalten; Denken Sie an die Tausenden oder Millionen von Einsen und Nullen, aus denen eine Textverarbeitungsdatei besteht.

Wie Shannon erkannte, hatte diese Definition ihre perversen Aspekte. Eine Nachricht könnte nur eine binäre Informationseinheit enthalten – Ja – aber eine Welt voller Bedeutung – wie in: Ja, ich werde dich heiraten. Aber die Aufgabe der Ingenieure bestand darin, die Daten, unabhängig von ihrem Inhalt, möglichst verzerrungsfrei von hier nach dort zu bringen. Und dafür war die digitale Definition von Informationen ideal, weil sie eine präzise mathematische Analyse ermöglichte. Wo sind die Kapazitätsgrenzen eines Kommunikationskanals? Wie viel davon können Sie in der Praxis nutzen? Was sind die effizientesten Methoden, um Informationen für die Übertragung bei unvermeidlichem Rauschen zu codieren?

Nach seinen Kommentaren viele Jahre später zu urteilen, hatte Shannon 1943 seine Antworten auf solche Fragen skizziert. einige seiner engsten Mitarbeiter schwören damals, sie hätten keine Ahnung, dass er an Informationstheorie arbeitete. Er hatte es auch nicht eilig, zu veröffentlichen und sich damit die Anerkennung für das Werk zu sichern. Mich motivierte eher die Neugier, erklärte er in seinem Interview von 1987 und fügte hinzu, dass der Prozess des Schreibens für die Veröffentlichung schmerzhaft war. Letztendlich überwand Shannon jedoch seine Zurückhaltung. Das Ergebnis: das bahnbrechende Papier A Mathematical Theory of Communication, das in den Juli- und Oktober-Ausgaben 1948 der Bell System Fachzeitschrift .

Shannons Ideen explodierten mit der Wucht einer Bombe. Es war wie ein Blitz aus heiterem Himmel, erinnert sich John Pierce, der einer von Shannons besten Freunden bei Bell Labs war und dennoch von Shannons Zeitung so überrascht war wie jeder andere. Ich kenne keine andere Theorie, die in einer solchen vollständigen Form mit sehr wenigen Vorläufern oder Geschichte auftauchte. Tatsächlich hatte diese Vorstellung, Informationen zu quantifizieren, etwas an sich, das die Vorstellungskraft der Menschen beflügelte. Es war eine Offenbarung, sagt Oliver Selfridge, der damals Doktorand am MIT war. Um das MIT herum war die Reaktion: Brilliant! Warum habe ich nicht daran gedacht?’

Ein Großteil der Kraft von Shannons Idee lag in der Vereinheitlichung einer Vielzahl von Technologien. Bis dahin war Kommunikation keine einheitliche Wissenschaft, sagt Gallager vom MIT. Es gab ein Medium für die Sprachübertragung, ein anderes Medium für den Rundfunk, noch andere für Daten. Claude zeigte, dass alle Kommunikation im Grunde gleich ist – und außerdem, dass man jede Quelle nehmen und durch digitale Daten darstellen kann.

Allein diese Erkenntnis hätte Shannons Arbeit zu einer der großen analytischen Errungenschaften des 20. Jahrhunderts gemacht. Aber da war noch mehr. Angenommen, Sie möchten beispielsweise einen Geburtstagsgruß über eine Telegrafenleitung, über eine drahtlose Verbindung oder sogar per US-Post senden. Shannon konnte zeigen, dass jeder dieser Kommunikationskanäle eine Geschwindigkeitsbegrenzung hat, die in Binärziffern pro Sekunde gemessen wird. Die schlechte Nachricht war, dass oberhalb dieser Geschwindigkeitsbegrenzung keine perfekte Wiedergabetreue möglich war: Egal wie geschickt Sie Ihre Nachricht verschlüsselt und komprimiert haben, Sie konnten sie einfach nicht beschleunigen, ohne einige Informationen wegzuwerfen.

Die überwältigende gute Nachricht war jedoch, dass die Übertragung unterhalb dieser Geschwindigkeitsbegrenzung potenziell perfekt war. Nicht nur sehr gut: perfekt. Shannon lieferte einen mathematischen Beweis dafür, dass es Codes geben musste, die einen bis ans Limit bringen, ohne irgendwelche Informationen zu verlieren. Darüber hinaus demonstrierte er, dass eine perfekte Übertragung möglich ist, egal wie viel Rauschen und Verzerrungen im Kommunikationskanal vorhanden sind und egal wie schwach das Signal sein mag. Natürlich müssen Sie möglicherweise jeden Buchstaben oder jedes Pixel mit einer großen Anzahl von Bits codieren, um sicherzustellen, dass genug davon durchkommen. Und Sie müssen möglicherweise alle möglichen ausgefallenen Fehlerkorrekturschemata entwickeln, damit beschädigte Teile der Nachricht am anderen Ende rekonstruiert werden können. Und ja, in der Praxis würden die Codes irgendwann so lang und die Kommunikation so langsam, dass man aufgeben und den Lärm gewinnen lassen müsste. Aber im Prinzip können Sie die Fehlerwahrscheinlichkeit beliebig nahe Null setzen.

Dieses fundamentale Theorem der Informationstheorie, wie Shannon es nannte, hatte selbst ihn überrascht, als er es entdeckte. Die Eroberung des Lärms schien jeden gesunden Menschenverstand zu verletzen. Aber für seine Zeitgenossen im Jahr 1948, als sie das Theorem zum ersten Mal sahen, war die Wirkung elektrisierend. Um die Fehlerwahrscheinlichkeit so gering wie möglich zu halten? Daran habe noch nie jemand gedacht, staunt Robert Fano vom MIT, der in den 1950er Jahren selbst ein führender Informationstheoretiker wurde – und in seinem Büro noch immer ein ehrfürchtiges Foto von Shannon hängt. Wie er zu dieser Einsicht kam, wie er überhaupt dazu kam, so etwas zu glauben, weiß ich nicht. Aber fast alle moderne Nachrichtentechnik basiert auf dieser Arbeit.

Shannons Arbeit hängt von allem, was wir tun, ab, stimmt Robert Lucky, Corporate Vice President of Applied Research bei Telcordia, dem Spin-off von Bell Labs, das früher als Bellcore bekannt war, zu. Tatsächlich sei Shannons Fundamentaltheorem ein Ideal und eine Herausforderung für nachfolgende Generationen gewesen. Seit 50 Jahren haben die Leute daran gearbeitet, die Kanalkapazität zu erreichen, die er für möglich hielt. Erst vor kurzem sind wir uns näher gekommen. Sein Einfluss war tiefgreifend.

Und Lucky fügt hinzu, dass Shannons Arbeit die Entwicklung all unserer modernen Fehlerkorrekturcodes und Datenkomprimierungsalgorithmen inspiriert hat. Mit anderen Worten: kein Shannon, kein Napster.

Shannons Theorem erklärt, wie wir Compact Discs so beiläufig herumwerfen können, wie es sich bei langspielenden Schallplatten niemand getraut hätte: Diese fehlerkorrigierenden Codes ermöglichen es dem CD-Player, Geräusche durch Kratzer und Fingerabdrücke praktisch zu eliminieren, bevor wir sie hören . Das Theorem von Shannon erklärt ebenfalls, wie Computermodems komprimierte Daten mit Zehntausenden von Bits pro Sekunde über normale, rauschbehaftete Telefonleitungen übertragen können. Es erklärt, wie NASA-Wissenschaftler Bilder des Planeten Neptun über drei Milliarden Kilometer interplanetaren Raums zur Erde zurückbringen konnten. Und es erklärt wesentlich, warum das Wort digital zum Synonym für höchstmögliche Datenqualität geworden ist.

Ausschalten

Die Auszeichnungen für Shannons Arbeit ließen schnell auf sich warten. Warren Weaver, Direktor der Abteilung für Naturwissenschaften der Rockefeller Foundation, erklärte, dass die Informationstheorie alle Verfahren umfasst, durch die ein Geist einen anderen beeinflussen kann, einschließlich nicht nur schriftlicher und mündlicher Sprache, sondern auch Musik, bildende Künste, Theater, Ballett , und eigentlich alles menschliche Verhalten. Das Magazin Fortune konnte seinen Enthusiasmus kaum zügeln und bezeichnete die Informationstheorie als eine der stolzesten und seltensten Schöpfungen der Menschheit, eine großartige wissenschaftliche Theorie, die die Sicht der Menschen auf die Welt tiefgreifend und schnell verändern könnte. Shannon selbst musste bald einen ganzen Raum in seinem Haus zur Seite stellen, nur um all seine Zitate, Plaketten und Zeugnisse aufzunehmen.

Innerhalb von ein oder zwei Jahren nach der Veröffentlichung seines Artikels stellte Shannon jedoch mit Entsetzen fest, dass die Informationstheorie – nun ja – populär wurde. Die Leute sagten lächerliche Dinge über die Menge an Informationen, die von der Sonne ausgingen, oder sogar über den Informationsgehalt von Lärm. Wissenschaftler reichten Förderanträge ein, die sich auf die Informationstheorie bezogen, unabhängig davon, ob ihre Vorschläge etwas damit zu tun hatten oder nicht. Informationstheorie wurde zu einem Schlagwort, ähnlich wie in den 1980er und 1990er Jahren künstliche Intelligenz, Chaos und Komplexität. Und Shannon hasste es. In einem 1956 erschienenen Artikel mit dem Titel The Bandwagon in der Zeitschrift Transaktionen zur Informationstheorie , erklärte er, dass die Informationstheorie stark überverkauft sei. Es hat vielleicht eine Bedeutung gewonnen, die über seine tatsächlichen Leistungen hinausgeht, schrieb er.

Anstatt weiter einen verlorenen Kampf zu führen, schied Shannon aus. Obwohl er eine Zeitlang seine Forschungen zur Informationstheorie fortsetzte, lehnte er fast alle endlosen Einladungen zu Vorträgen oder Zeitungsinterviews ab; Er wollte keine Berühmtheit sein. Er hat auch aufgehört, auf viele seiner Post zu antworten. Die Korrespondenz von bedeutenden Persönlichkeiten aus Wissenschaft und Regierung landete vergessen und unbeantwortet in einem Aktenordner, den er als Briefe bezeichnete, die ich zu lange aufgeschoben habe. Im Laufe der Jahre zog sich Shannon tatsächlich nicht nur aus der Öffentlichkeit, sondern auch aus der Forschungsgemeinschaft zurück – eine Haltung, die seine Kollegen am MIT beunruhigte, die ihn 1958 bei Bell Labs eingestellt hatten. als er schrieb, sagte Fano vom MIT. Und er hielt schöne Vorträge – wenn er einen Vortrag hielt. Aber er hasste es, es zu tun.

Von Zeit zu Zeit veröffentlichte Shannon weiter. Ein bemerkenswertes Beispiel, bevor er von seiner Berühmtheit zu entsetzt wurde und sich vollständiger zurückzog, war ein bahnbrechender Artikel von 1950 für Wissenschaftlicher Amerikaner beschreibt, wie ein Computer zum Schachspielen programmiert werden könnte. Aber er verschwand langsam aus der akademischen Szene, erinnert sich Peter Elias, ein weiterer Leiter der MIT-Informationstheorie-Gruppe. Claudes Vision des Lehrens war es, eine Reihe von Vorträgen über Forschung zu halten, von denen sonst niemand wusste. Aber dieses Tempo war sehr anspruchsvoll; Tatsächlich erstellte er jede Woche eine Forschungsarbeit. Mitte der 1960er Jahre, erinnert sich Elias, hatte Shannon aufgehört zu unterrichten.

Nach seiner offiziellen Pensionierung im Jahr 1978 zog sich Shannon im Alter von 62 Jahren glücklich in sein Haus im Bostoner Vorort Winchester, MA, zurück. Geld spielte keine Rolle; Dank seiner Kenntnisse der High-Tech-Industrien, die rund um die Bostoner Route 128 entstanden, hatte er einige clevere Investitionen an der Börse getätigt. Auch schien sein Einfallsreichtum nicht nachgelassen zu haben. Er hat immer noch Dinge gebaut! erinnert sich Betty Shannon lachend. Eine war eine ... Figur von W. C. Fields, die drei Bälle auf einem Trommelfell abprallen ließ. Es hat einen verdammten Lärm gemacht, lass es mich dir sagen!
Trotzdem kam es um 1985 herum, als er und Betty anfingen, gewisse Fehler zu bemerken. Er würde eine Fahrt machen und vergessen, wie man nach Hause kommt. Als das Institute of Electrical and Electronics Engineers 1992 die Veröffentlichung seiner gesammelten Arbeiten vorbereitete, stellte Shannon beunruhigt fest, dass er sich nicht erinnern konnte, viele davon geschrieben zu haben. Und Mitte 1993, als sein Zustand allen klar wurde, bestätigte die Familie, was viele vermuteten: Claude Shannon litt an der Alzheimer-Krankheit. Später in diesem Jahr brachte ihn seine Familie widerstrebend in ein Pflegeheim.

Als seine Heimatstadt Gaylord, MI, 1998 den 50. Jahrestag der Informationstheorie feierte, indem sie eine Büste ihres Schöpfers in einem Stadtpark enthüllte, dankte Betty Shannon der Stadt an seiner Stelle. Körperlich, sagt sie, ging es ihm fast bis zum Schluss gut, als alles auf einmal zusammenzubrechen schien. Doch am 24. Februar, nur zwei Monate vor Shannons 85. Geburtstag, war es soweit. Die Reaktion auf seinen Tod sei überwältigend, sagt sie. Ich glaube, es hätte ihn erstaunt.

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen