Computer, die Ihre Sprache sprechen

IwantoflyfromBostontoMilwaukeenext
Samstagformyschwestern
Geburtstagundichwill nicht aufhören
ChicagoandIdontwantto
mehr als vierhundert Dollar bezahlen
und die Party beginnt um drei Uhr soI
müssen vorher da sein.

Sagen Sie das einem menschlichen Airline-Agenten freundlich, und er oder sie wird Ihre Worte schnell entwirren und Flüge finden, die Ihren Kriterien entsprechen. Sagen Sie es jedoch zur automatischen Reservierungsleitung der Fluggesellschaft, und Sie werden wahrscheinlich nur eine fröhliche digitale Stimme bekommen, die antont: Entschuldigung, das habe ich nicht verstanden.

Gib der Stimme keine Vorwürfe. Selbst unter der Annahme, dass die Computer der Fluggesellschaft die verstümmelten Wörter, Hintergrundgeräusche und den Boston-Akzent überwunden haben, um die Anfrage in einen korrekten Text umzuwandeln, verfügt kein Sprachverarbeitungssystem über die Rechenleistung, um Ihre Preis- und Streckenbeschränkungen zu verstehen. Ignorieren Sie Belanglosigkeiten wie die Tatsache, dass Samstag Geburtstag Ihrer Schwester ist, und verstehen Sie, dass Sie, wenn die Party um 15:00 Uhr beginnt, nicht an Flügen interessiert sind, die um 16:00 Uhr in Milwaukee ankommen.



Wenn Computer könnten Wenn Sie solche routinemäßigen Anfragen in natürlicher Sprache verstehen und darauf reagieren, wäre das Ergebnis für beide Seiten eine Win-Win-Situation: Fluggesellschaften müssten nicht so viele Agenten einstellen und Verbraucher müssten nicht mit der Verwirrung der Touch-Tone-Schnittstellen kämpfen, die sie wütend machen Tippen Sie auf die 0-Taste und versuchen Sie vergeblich, einen Live-Operator zu erreichen.

Futuristen stellen sich eine solche Welt mindestens seit 1968 vor, als 2001: Odyssee im Weltraum HAL 9000 wurde zum archetypischen sprachinteraktiven Computer. Ebenso lange tüfteln Wissenschaftler und Unternehmensforscher, fasziniert von der schlichten Coolness der Idee, an Systemen zur Erkennung und Reaktion auf menschliche Sprache. Aber Technologien setzen sich nicht durch, weil sie cool sind: Sie brauchen einen geschäftlichen Imperativ. Bei der Sprachverarbeitung ist es der enorme Aufwand für den Live-Kundenservice, der die Technologien endgültig aus dem Labor vertreibt. Einfaches Drücken oder Sagen von Telefonbäumen geht schnell auf den Müll, da Unternehmen wie Nuance Communications und SpeechWorks zuvor konkurrierende Strategien in Software verschmelzen, die die Absicht hinter den natürlich gesprochenen oder schriftlichen Anfragen der Menschen ableitet. Große Fluggesellschaften, Banken und Konsumgüterunternehmen nutzen die Systeme bereits, und obwohl die Technologie das Ende eines Gesprächs noch nicht aufhalten kann, hilft sie Anrufern mit einfachen Fragen, lange Warteschlangen zu vermeiden – und entlastet menschliche Agenten. komplexere Anfragen.

Solche Verbesserungen haben natürliche Sprachsysteme für ein explosives Wachstum geschaffen: 43 Prozent der nordamerikanischen Unternehmen haben entweder interaktive Sprachausgabesoftware für ihre Callcenter gekauft oder führen Pilotstudien durch, so Forrester Research, ein Technologieanalyseunternehmen. Da immer mehr Unternehmen ihre alten Telefonmenüs mit Tonwahl ersetzen, wird der heutige 500-Millionen-Dollar-Markt für telefonbasierte Sprachanwendungen bis 2007 auf 3,5 Milliarden US-Dollar anwachsen, so Steve McClure, Vizepräsident der Softwareforschungsgruppe beim Marktanalyseunternehmen IDC. Ende 2002 beispielsweise installierte Bell Canada ein 4,5 Millionen Dollar teures Sprachausgabesystem, das von Nuance in Menlo Park, Kalifornien, gebaut wurde. Basierend auf den Ergebnissen, die wir sehen, wird der tatsächliche Return on Investment nur etwa 10 Monate dauern, sagt Belinda Banks, Associate Director of Customer Care bei Bell Canada. Insgesamt rechnet das Unternehmen damit, allein in diesem Jahr 5,3 Millionen US-Dollar an Kundenservicekosten einzusparen.

Und dies ist nur die erste Phase des Einsatzes von Sprachverarbeitungssystemen. Unternehmen wie Nuance und SpeechWorks aus Boston, die beiden Marktführer bei interaktiven Sprachausgabesystemen, sind zum Teil erfolgreich, weil sie ihre Technologien auf enge Bereiche wie Reiseinformationen zugeschnitten haben, in denen der Wortschatz und die Konzepte, die sie beherrschen müssen, begrenzt sind. Auch wenn solche Systeme die Nische im Kundenservice übernehmen, verfolgen andere Unternehmen immer noch die Herausforderung eines echten natürlichen Sprachverständnisses. Wenn Forschungsbemühungen beispielsweise bei IBM und dem Palo Alto Research Center (PARC) Früchte tragen, könnten Computer bald fast jede Konversation interpretieren oder fast alle Informationen abrufen, die ein Webnutzer will, selbst wenn sie in einem Videodatei oder eine Fremdsprache eröffnende Märkte überall dort, wo Menschen Wissen über Computernetzwerke suchen. Sagt McClure von IDC voraus, während die GUI [grafische Benutzeroberfläche] die Benutzeroberfläche für die 1990er Jahre war, wird die NUI oder natürliche Benutzeroberfläche die Benutzeroberfläche für dieses Jahrzehnt sein.

dwave quantencomputer preis

Sag was?

Der Aufbau eines wirklich interaktiven Kundenservicesystems wie das von Nuance erfordert Lösungen für jede der großen Herausforderungen bei der Verarbeitung natürlicher Sprache: die genaue Umwandlung von menschlicher Sprache in maschinenlesbaren Text; Analyse des Wortschatzes und der Struktur des Textes, um die Bedeutung zu extrahieren; Erzeugen einer vernünftigen Reaktion; und antwortet mit einer menschlich klingenden Stimme.

Wissenschaftler des MIT, der Carnegie Mellon University und anderer Universitäten sowie Forscher von Unternehmen wie IBM, AT&T und dem Stanford Research Institute (jetzt SRI International) haben jahrzehntelang mit dem ersten Teil des Problems zu kämpfen: das gesprochene Wort zu wenden in etwas, mit dem Computer arbeiten können. Die ersten praktischen Produkte kamen in den frühen 1990er Jahren in Form von Spracherkennungsprogrammen für Verbraucher – wie dem Voice Type von IBM –, die Diktate aufnahmen, die Benutzer jedoch zwangen, nach jedem Wort zu pausieren, was die Akzeptanz einschränkte. Bis Mitte der 1990er Jahre war die Technologie fortgeschritten und führte zu Diktiersystemen wie NaturallySpeaking von Dragon Systems und ViaVoice von IBM, die ununterbrochene Sprache mit einer Genauigkeit von bis zu 99 Prozent transkribieren können.

Etwa zur gleichen Zeit lösten sich einige Wissenschaftler aus akademischen und Unternehmenslaboren, um Start-ups zu gründen, die sich den noch komplexeren Problemen – und größeren potenziellen Märkten – des zweiten Bereichs der Sprachverarbeitung, dem sogenannten Sprachverständnis, annehmen sollten. Es sind vor allem Fortschritte in diesem Bereich, die das Feld für seinen wahren Wachstumsschub positioniert haben. Diese Fortschritte beruhen auf zwei wichtigen Erkenntnissen, so SpeechWorks Chief Technology Officer Michael Phillips, ein ehemaliger Forscher am MIT-Labor für Informatik. Der erste war, dass es wenig Sinn macht, nach dem Mond zu greifen – dem jahrzehntealten Traum von Systemen, die zu einer HAL-ähnlichen allgemeinen Konversation fähig sind. Es gibt einen Mythos, dass Menschen mit Maschinen genauso sprechen wollen wie mit Menschen, sagt Phillips. Die Leute wollen eine effiziente, freundliche und hilfsbereite Maschine – nicht etwas, das ihnen vorgaukelt, dass sie ein Gespräch mit einem Menschen führen. Diese Annahme vereinfacht den Aufbau und das Training eines natürlichsprachlichen Systems erheblich.

der erste Quantencomputer

Die zweite Erkenntnis war, dass es an der Zeit war, Philosophien zu vereinen, die lange Zeit rivalisierende Fraktionen in der Sprachverarbeitungsgemeinschaft vertreten hatten. Eine Philosophie besagt im Wesentlichen, dass das Verstehen von Sprache eine Frage des Erkennens ihrer grammatikalischen Struktur ist, während die andere davon ausgeht, dass die statistische Analyse – das Abgleichen von Wörtern oder Phrasen mit einer historischen Datenbank mit Sprachbeispielen – ein effizienteres Werkzeug ist, um die Bedeutung eines Satzes zu erraten. Hybridsysteme, die beide Methoden verwenden, haben die Startups gelernt, sind genauer als beide Ansätze allein.

Aber diese Erkenntnis kam nicht über Nacht. Am MIT hatte Phillips geholfen, experimentelle Software zu entwickeln, die Sprache erkennen und basierend auf seinem Verständnis der Grammatik eine Anfrage verstehen und logisch beantworten konnte. Wie andere grammatikalische Systeme zerlegte es einen Satz in seine syntaktischen Komponenten wie Subjekt, Verb und Objekt. Das System ordnete diese Komponenten dann in baumartigen Diagrammen an, die den semantischen Inhalt eines Satzes oder die interne Logik darstellten – wer hat was mit wem wann gemacht. Die Software war darauf beschränkt, Benutzern zu helfen, sich in Cambridge, MA, zurechtzufinden, erklärt Phillips. Du würdest sagen, wo ist das nächste Restaurant?’ und es würde sagen, was für ein Restaurant möchtest du?’ Du würdest sagen, chinesisch’ und es würde einen Platz finden.

Kurz nachdem Phillips die Technologie 1994 vom MIT lizenziert und SpeechWorks gegründet hatte, erkannten sowohl er als auch die Forscher des Konkurrenten Nuance, dass eine ihrer Zielanwendungen, die Anrufsteuerung, etwas mehr erforderte. Es gibt Unternehmen, die 300 verschiedene 800-Nummern haben, erklärt Phillips. Der Kunde versteht die Struktur der Organisation nicht – er weiß nur, welches Problem er hat. Stellen Sie am besten eine Frage wie: Was ist das Problem, das Sie haben?‘ Aber im Vergleich zu einer Anfrage nach einem chinesischen Restaurant in der Nähe sind solche Fragen gefährlich offen.

Offizielle Website des städtischen Wörterbuchs

Das Problem wird noch schwieriger, wenn man bedenkt, dass die Mehrdeutigkeit vieler menschlicher Sprache – denken Sie an einen Satz, wie er das Mädchen mit dem Teleskop gesehen hat – bedeutet, dass viele Anfragen für mehrere Interpretationen offen sind. Es gibt so viele verschiedene Möglichkeiten, mit dem System zu sprechen, dass der Versuch, all das in Grammatiken abzudecken, unerschwinglich ist, sagt John Shea, Vizepräsident für Marketing und Produktmanagement bei Nuance.

SpeechWorks fand schließlich im Jahr 2000 eine praktikable Lösung, als es die MIT-Software mit einer statistischen Sprachverarbeitungstechnologie verband, die bei AT&T Labs-Research in Florham Park, NJ, entwickelt wurde. Das System von AT&T basiert auf einer Datenbank gängiger Satzfragmente aus Zehntausenden aufgezeichneter Telefongespräche, die sowohl die Mensch-zu-Mensch- als auch die Mensch-Maschine-Kommunikation beinhalten. Jedes Fragment in der Datenbank wird nach seiner statistischen Zuordnung zu einem bestimmten Thema bewertet und entsprechend klassifiziert. Ein Fragment wie Anrufe, die ich nicht getätigt habe, könnte beispielsweise stark mit dem Thema Abrechnungsanfragen zu unbekannten Nummern korrelieren, und das System würde den Anruf an einen Agenten weiterleiten, der dem Konto des Anrufers eine Gutschrift ermöglicht. Wenn sich das System bei seiner Wahl nicht sicher ist, fordert es den Anrufer mithilfe der Sprachsynthesetechnologie auf, weitere Informationen zu erhalten. Am Ende leitet das System laut AT&T mehr als 90 Prozent der Anrufe korrekt weiter – eine weitaus höhere Erfolgsquote als bei Anrufern, die allein durch altmodische Telefonbäume navigieren.

Nuance hat ein ähnliches System entwickelt, das auf der Technologie von SRI basiert und entweder grammatikalische oder statistische Methoden oder beides verwenden kann, um die Bedeutung der Sprache eines Anrufers zu extrahieren. Wir verwenden je nach Kundenwunsch unterschiedliche Ansätze, sagt Felix Gofman, Produktmarketing-Manager bei Nuance. Sie können mischen und kombinieren. In einem bestimmten Bereich, beispielsweise im Bankwesen, sind die Themen und das Vokabular der Anruferfragen begrenzt, und das System kann ausschließlich mit vordefinierten Listen mit Kundenkommentaren arbeiten. Für neue oder weitreichendere Bereiche wie die Bestellung von Telefondiensten speichert das System jede gehörte Frage in einer Datenbank und verwendet dann statistische Techniken, um neue Fragen mit alten Einträgen bei der Suche nach wahrscheinlichen Übereinstimmungen zu vergleichen, wodurch die Genauigkeit im Laufe der Zeit verbessert wird.

Die Callcenter-Technologie von SpeechWorks wird von so unterschiedlichen Unternehmen wie Office Depot, dem U.S. Postal Service, Thrifty Car Rental und United Airlines verwendet. Aber das Unternehmen, das die Technologie am nächsten an ihre Grenzen bringt, ist Amtrak. Reisende, die das automatische Telefonsystem von Amtrak anrufen, können nicht nur Zugfahrpläne abrufen, sondern auch Reservierungen buchen und ihre Kreditkarten mit Tickets belasten. Als wir anfingen, bestand das Hauptziel darin, die Kundenzufriedenheit zu erhöhen, sagt Matt Hardison, der Leiter für Verkauf, Vertrieb und Kundenservice der Eisenbahn. Aber als Bonus, sagt er, haben die Einsparungen bei den Arbeitskosten die 4 Millionen US-Dollar-Investition von Amtrak in die Technologie innerhalb von 18 Monaten zurückgezahlt.

Nuance hat inzwischen große Kunden in der Finanz- und Telekommunikationsbranche, darunter Schwab, Sprint PCS und Bell Canada. British Airways teilte dem Unternehmen mit, dass die durchschnittlichen Kosten pro Kundenanruf nach der Einführung von Nuance-Spracherkennungssystemen im letzten Jahr von 3,00 USD auf 0,16 USD gesunken sind. Und laut den Banken von Bell Canada haben 40 Prozent der Kunden beim Navigieren durch den Tastenbaum des Unternehmens auf Null gesetzt oder einen Live-Operator angefordert. Zwischen der Einführung des Systems im Dezember 2002 durch das Unternehmen und dem März 2003 sei diese Zahl auf 15 Prozent gesunken, sagt Banks.

Ein tieferes Verständnis

Bei allem Erfolg verstehen diese Systeme jedoch in keiner Weise wirklich, was sie hören. Sie befassen sich nur mit Grammatikregeln, Wahrscheinlichkeiten und gespeicherten Beispielen. Tatsächlich zeichnen sie sich gerade dadurch aus, dass ihre Macher sich von der Suche nach einem System abgewandt haben, das intelligent genug ist, um ein Buch zu lesen und zusammenzufassen oder ein allgemeines Gespräch zu führen.

Andere Forscher behalten jedoch einen breiteren Blick auf die Möglichkeiten der Verarbeitung natürlicher Sprache. Wie Ron Kaplan, ein Forschungsstipendiat am PARC, der einen Großteil der grundlegenden grammatikalischen Theorie hinter vielen der heutigen natürlichsprachlichen Systeme entwickelt hat, entwickeln sie Software, die mit einer viel größeren Vielfalt von Eingaben fertig wird – von Zeitungsartikeln bis hin zu der unorganisierten Masse von Multimedia Informationen im Web. Kaplan kritisiert, was er die flachen Methoden nennt, die für Nischenanwendungen wie Call Steering verwendet werden. Verglichen mit der Alternative – einen kostspieligen Mitarbeiterstab menschlicher Kundenbetreuer zu unterhalten – seien sie eigentlich nicht schlecht, sagt er. Aber verglichen mit dem, was Sie gerne hätten, stinken sie. Eine effektivere Schnittstelle in natürlicher Sprache, so Kaplan, würde die Notwendigkeit einer sorgfältigen Anpassung der Systeme beseitigen und den Benutzern ermöglichen, frei zu sprechen oder zu schreiben.

Zwei Probleme, die diese Vision nach Ansicht von Kaplan behindern, bestehen darin, dass die Datenbanken mit Sprachproben, auf die einfachere Systeme zurückgreifen, zu klein sind und die statistischen Algorithmen, die sie verwenden, darauf ausgelegt sind, die Mehrdeutigkeit in vielen Aussagen der Leute zu beseitigen, und zwar so schnell wie in der wahrscheinlichsten Bedeutung möglich. Kaplan glaubt, dass die korrekte Bedeutung einer Äußerung – insbesondere eines langen oder komplexen Satzes – verloren gehen kann, wenn diese Mehrdeutigkeit zu früh beseitigt wird. Also hat er das letzte Jahrzehnt damit verbracht, an einem grammatikgesteuerten System namens Xerox Linguistic Environment zu arbeiten, das tatsächlich versucht, bewahren Mehrdeutigkeit. Das System parst eine Äußerung in jedes mögliche Satzdiagramm, das unter einem Satz von 314 Regeln erlaubt ist, die die Beziehungen zwischen verschiedenen Wortarten regeln (PARC-Forscher stellten die Regeln über drei Jahre manuell zusammen). Ein komplexer Satz mit 40 oder mehr Wörtern kann beispielsweise auf bis zu 1.000 verschiedene Arten interpretiert werden.

Die Grammatikanalyse des Systems ist so gründlich, dass es im Durchschnitt 75 Prozent der logischen Beziehungen in einem Satz korrekt erfasst – was im Vergleich zu den meisten statistischen Methoden tatsächlich sehr hoch ist, sagt Kaplan. Diese Genauigkeitsrate kann auf etwa 80 Prozent gesteigert werden, wenn die Software diese statistischen Methoden nutzt und jede mögliche Interpretation mit ähnlichen Diagrammen in einer trainierten Datenbank vergleicht – im Fall der PARC-Software ein Speicher von Hunderttausenden von genauen Diagrammen gezeichneter Sätze von Wallstreet Journal Artikel.

Kaplan plant, das System zunächst auf der riesigen digitalen Wissensdatenbank von Xerox zu Kopiererreparaturtechniken einzusetzen, die ständig von den Außendiensttechnikern des Unternehmens konsultiert und aktualisiert wird. Dort vergleicht es Tausende von Einzeleinträgen, um Redundanzen und Widersprüche auszusortieren. Es könnte sein, dass viele Techniker die gleiche Lösung für ein häufiges Problem gefunden haben, beispielsweise den Austausch einer Kopierertrommel, erklärt Kaplan. Sie erhalten eine Reihe von Einträgen, die dasselbe sagen, nur auf unterschiedliche Weise. Das automatische Auffinden und Beseitigen solcher Redundanzen, fügt er hinzu, kann den Technikern helfen, weniger Zeit mit dem Durchsuchen von Optionen zu verbringen. Die Software könnte schließlich auch zum Kern eines fortschrittlichen Systems zur Übersetzung von Dokumenten in verschiedene Sprachen werden - eine Aufgabe, die besonders von Mehrdeutigkeiten geplagt ist ( siehe Die Übersetzungsherausforderung ).

Bevor ein Computer gespeicherte Informationen in natürlicher Sprache verstehen oder übersetzen kann, muss er sie jedoch finden. Das wird mit der Erweiterung des digitalen Universums immer schwieriger. Aus diesem Grund verfolgt IBM ein ehrgeiziges Projekt, um die Verarbeitung natürlicher Sprache bei der Verwaltung unstrukturierter Informationen, der in Computernetzwerken gespeicherten Masse an digitalem Text, Bildern, Video und Audio, einzusetzen. Ein Großteil des Geschäfts von IBM beruht auf seinem Datenbankprodukt DB2, aber eine herkömmliche Datenbank kann nur Informationen abrufen, die bereits organisiert und indiziert wurden. IBM möchte Geschäftsanwendern und Verbrauchern sofortigen Zugriff auf die nicht indizierten Daten geben, die auf Millionen von Festplatten auf der ganzen Welt schmachten, und seine Dominanz im strukturierten Datenmanagement effektiv auf den Bereich unstrukturierter Informationen ausdehnen. Um dorthin zu gelangen, verfolgt das Unternehmen eine Initiative, die verschiedene Ansätze der Sprachverarbeitung in einer leistungsstarken Software zusammenführt, die all diese Daten intelligent durchsuchen, organisieren und übersetzen kann. Das Projekt mit dem Namen Unstructured Information Management Architecture könnte das Geschäft des Unternehmens bis weit in das Internetzeitalter hinein voranbringen. Für die Forschung ist dies ein großes Thema, sagt Alfred Spector, Senior Vice President der Division.

Übersetzungssoftware und andere Produkte, die die neue Architektur verwenden, befinden sich noch im Prototypenstadium. Aber letztendlich, sagt David Ferrucci, der leitende Softwarearchitekt des Projekts, wird die Architektur IBM dabei helfen, Systeme zu bauen, die die neuesten Informationen, die ein Benutzer aus jeder digitalen Quelle möchte, in jeder Sprache abrufen und in organisierter Form bereitstellen. Laut der Giga Information Group in Cambridge, MA, geben US-Unternehmen bereits 900 Millionen US-Dollar pro Jahr für Unternehmensinformationsportale aus, die Mitarbeitern helfen, die benötigten Datensätze zu finden dass sich Informationen ansammeln. Der Umgang mit unstrukturierten Daten ist jetzt eindeutig betriebswirtschaftlich begründet, so Spector abschließend.

ist die Schwerkraft eine veränderbare Kraft

Wenn die Bemühungen, mit Mehrdeutigkeiten, unstrukturierten Informationen und anderen sprachlichen Komplexitäten umzugehen, erfolgreich sind, könnten wir letztendlich aufhören, Computer wie Kleinkinder zu behandeln, und alles, was wir sagen, so vereinfachen, dass es ihrem unreifen Verständnis der Welt entspricht. Wenn dieser Tag kommt, und er könnte bald kommen, können Verbraucher erwarten, an jeder Ecke automatisierte Sprachschnittstellen zu finden, die es ihnen ermöglichen, einfaches Englisch (oder Französisch oder Chinesisch) zu verwenden, um mit allem zu interagieren, von Webarchiven bis hin zu Geräten und Autos.

Und das wäre wirklich ein Gesprächsthema.

Babel . von Language Processing BEGLEITUNG TECHNOLOGIE LAGE AT&T Automatisierte Spracherkennung; natürlich klingende Sprachsynthese
New York, NY Geplänkel Automatisierte E-Mail-Klassifizierung und -Beantwortung San Francisco, CA, und Jerusalem, Israel IBM Automatisierte Spracherkennung;
Übersetzung; Standardarchitekturen für die Verwaltung unstrukturierter Informationen Armonk, NY Intel Audiovisuelle Spracherkennung Santa Clara, CA Inxight Software zum Auffinden, Durchsuchen und Kategorisieren von Textdaten in Unternehmensnetzwerken Sunnyvale, CA iPhrase-Technologien Textsuche in natürlicher Sprache auf Unternehmenswebsites Cambridge, MA Microsoft Grammatikprüfung; Abfrageschnittstellen; Übersetzung Redmond, WA Nuance-Kommunikation Interaktive Sprachausgabesysteme für den telefonischen Kundenservice Menlo Park, CA Palo Alto Forschungszentrum Verbesserte Algorithmen zum Extrahieren von Bedeutungen aus geschriebenem Text Palo Alto, CA SpeechWorks Interaktive Sprachausgabesysteme für den telefonischen Kundenservice Boston, MA StreamSage Natürlichsprachliche Suche und Indexierung von Video- und Audiomaterial Washington, DC

verbergen

Tatsächliche Technologien

Kategorie

Unkategorisiert

Technologie

Biotechnologie

Technologierichtlinie

Klimawandel

Mensch Und Technik

Silicon Valley

Computer

Mit News Magazine

Künstliche Intelligenz

Platz

Intelligente Städte

Blockchain

Reportage

Alumni-Profil

Alumni-Verbindung

Mit News Feature

1865

Meine Sicht

77 Mass Avenue

Treffen Sie Den Autor

Profile In Großzügigkeit

Auf Dem Campus Gesehen

Lerne Den Autor Kennen

Alumni-Briefe

Nicht Kategorisiert

77 Massenallee

Rechnen

Tech-Richtlinie

Lernen Sie Den Autor Kennen

Nachrichten

Wahl 2020

Mit Index

Unter Der Kuppel

Feuerwehrschlauch

Unendliche Geschichten

Pandemie-Technologieprojekt

Vom Präsidenten

Titelstory

Fotogallerie

Empfohlen