Der KI-Beschleuniger für den Einsatz in LG-Fabriken

Google bringt TPU für Inferenz-Rechner heraus

| Redakteur: Ulrike Ostler

Google bringt einen eigenen KI-ASIC sowie ein Referenzdesign für das Edge-Computing heraus.
Google bringt einen eigenen KI-ASIC sowie ein Referenzdesign für das Edge-Computing heraus. (Bild: Google)

Google hat eine „Edge Tensor Processing Unit“ (TPU) für das Edge-Computing angekündigt. Die Application-Specific Integrated Circuits (ASICs) eignen sich für Inferenz-Workloads – nicht für das KI-Training – auf „Tensorflow Lite“, einer Low-Overhead-Version von „Tensorflow“, „Tensorflow Lite“.

Wie Google erläutert, sind nicht alle Ingredienzien der Edge TPU auf dem eigenen Mist gewachsen, vielmehr haben Hersteller wie ARM, Harting, Hitachi Vantara, Nexcom, Nokia und NXP für die Entwicklung der Kits mit Google zusammengearbeitet. Doch nun soll es schon bald soweit sein: Im Oktober werden die Edge TPUs auf einer modularen Referenzplatine veröffentlicht, die aus dem ASIC, einer CPU von NXP und einem Wi-Fi-Modul besteht.

Die ASICs für die Inferenz-Maschinen sind nicht so leistungsfähig wie die neuesten flüssigkeitsgekühlten TPUs von Google, doch sollen sie die Arbeitslast reduzieren, die in die Cloud geschickt wird. Injong Rhee, Google Vice President für IoT, sagte während der Konferenz „Cloud Next“, die in der vergangenen Woche in San Francisco stattfand: „Die Edge TPU bringt ein Gehirn zu den Edge-Geräten.“ Bevor Rhee im Februar zu Google stieß, war er als CTO bei Samsung tätig.

Einer der ersten Kunden wird jedoch LG sein. Die neuen Geräte sollen zur Überprüfung der Glasqualität von LCD-Panels eingesetzt werden.

Die Performance-Features der Google Edge TPU
Die Performance-Features der Google Edge TPU (Bild: Google)

Google ist nicht der einzige Anbieter von KI-Akzeleratoren. Anfang des Jahres kündigte etwa Microsoft das „Project Brainwave“ an, das auf FPGAs beim Edge-Computing setzt und ebenfalls in ersten Kundenprojekten im Fertigungsbereich eingesetzt wird. Weitere Konkurrenz kommt von Intel, Nvidia und Xilinx.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45423148 / Künstliche Intelligenz)