Tensor Processing Unit 23.05.2016, 09:26 Uhr

Googles smarter Prozessor macht Apps noch schlauer

Auf der Entwicklerkonferenz I/O stellte Google seinen neuen Superchip vor - die Tensor Processing Unit (TPU). Der KI-optimierte Prozessor macht smarte Assistenten und Ratgeber-Chatbots noch schlauer.
(Quelle: Google)
Im Geheimen hat Google einen eigenen Chip entwickelt und in eigenen Rechenzentren getestet. Die Info liess Google-Chef Sundar Pichai auf der Entwicklerkonferenz I/O quasi in einer Nebenbemerkung fallen.
AlphaGo: Google nutzte diese Server-Racks mit TPUs im Go-Spiel gegen Lee Sedol.
Quelle: Google
Die sogenannte Tensor Processing Unit (TPU) ist auf Machine Learning und Künstliche Intelligenz (KI) optimiert. Sie soll herkömmliche Prozessoren von Intel oder AMD in Sachen Performance um ein Vielfaches schlagen. Schneller heisst auch schlauer. Vor gut einem Jahr hat die Google-Software AlphaGO den damals besten Go-Spieler Lee Sedol bezwungen. Auch dort soll die TPU eine entscheidende Rolle gespielt haben. Nur wusste das damals noch keiner.

Smartere Apps dank Google-Superchip

Google hat auf der I/O smarte Assistenten wie die Messenger-App Allo und den Google Translator mit über 100 Sprachen vorgestellt. Die treibende Engine hinter solchen Anwendungen ist KI/Machine Learning. Unter strenger Geheimhaltung hat Google in den letzten Jahren die neue KI-TPU entwickelt. TPUs (wenn in Boards verbaut) könnten wie Festplatten in Server eingesetzt werden, sagte der Schweizer Google-Manager Urs Hölzle. Damit liesse sich die Rechenleistung einfach und schnell erweitern.
Der neue Prozessor sei auf Machine-Learning-Applikationen optimiert, schreibt Norm Jouppi, Hardware-Ingenieur bei Google, in einem Blogeintrag . Der Chip akzeptiert Unschärfen, ist also fehlertoleranter als die herkömmlichen CPUs, und benötigt daher weniger Transistoren pro Operation.

Googles TPUs sollen Intel und AMD Jahre voraus sein

"Wir arbeiten mit den neuen TPUs in unseren eigenen Rechenzentren seit über einem Jahr und haben herausgefunden, dass die Prozessoren die Rechenleistung pro Watt um Längen in die Höhe schrauben", schreibt der Google-Ingenieur. Der Performance-Gewinn entspricht etwa drei herkömmlichen Chip-Generationen nach Moore's Law. Google rechnet sich daher einen Innovationsvorsprung gegenüber Intel oder AMD von etwa sieben Jahren aus.
Seine Stärken spielt der Prozessor bei Machine-Learning-Anwendungen aus. Google hat damit zum Beispiel sein Street View und die Relevanz der Ergebnisse seiner Suchmaschine optimiert.

Chip-Architektur unbekannt

Währenddessen wird in den Blogs darüber spekuliert, wie Googles auf KI optimierte Chip-Architektur denn aussehen könnte. Diese Katze hat der Internetkonzern auf der I/O noch nicht aus dem Sack gelassen. Einer der Blog-Teilnehmer wirft ein, dass die heutigen GPUs (Graphical Processing Units) auch bereits mit Unschärfe (lower precision) arbeiteten. Googles Innovationsvorsprung wäre dann nicht gar so gross, wie dargestellt.
Tensoren, nach denen Google den neuen Chip benannt hat, sind mathematische Objekte aus der Linearen Algebra und Differenzialgeometrie. Sie werden auch heute noch von Ingenieuren dazu verwendet, um zum Beispiel mehrdimensionale Räume (in der Informatik n-dimensionale Arrays) detaillierter abzubilden. Eine weitere Anwendung ist Einsteins Relativitätstheorie.




Das könnte Sie auch interessieren