ND108T PICO-ITX: mit Raspberry-Pi-kompatiblem Header (Bild: ICP)
Embedded Board

Industrielle Raspberry-Pi-Alternative

Entwickler, die ihre Anwendungen auf Basis eines Raspberry Pi entworfen haben, stehen oft vor dem Problem, wie sie ihr Projekt ins industrielle Umfeld übertragen können. Dieses Dilemma lässt sich mit einem Industrieboard umgehen, das kompatibel zum Raspberry Pi ist.

Weiterlesen

Anbieter zum Thema

0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist PaLM (Pathways Language Model)?

Das Pathways Language Model (PaLM) ist ein von Google 2022 vorgestelltes Sprachmodell. Es hat 540 Milliarden Parameter und erzielt in verschiedenen NLP-Benchmarks beeindruckende Ergebnisse. In einigen Bereichen soll es mit menschlichen Leistungen vergleichbar sein. PaLM nutzt die multitaskingfähige Pathways-KI-Architektur. Trainiert wurde das Sprachmodell per Few-Shot Learning auf dem Pathways-System mit 6.144 TPU-v4-Chips.

Weiterlesen
Der Autor: Etay Maor ist Senior Director of Security Strategy bei Cato Networks (Bild: Claudio Goncalves - Out of Frame Prod)
Kommentar von Etay Maor, Cato Networks

ChatGPT und Cybersicherheit – positive und negative Aspekte

Ein neuer generativer Chatbot auf Basis von Künstlicher Intelligenz und von OpenAI frei zur Verfügung gestellt, verspricht die Art und Weise zu revolutionieren, wie wir nach Informationen suchen, mit Maschinen interagieren und eine Vielzahl von Aufgaben automatisieren. Wie bei anderen Neuheiten halten sich Euphorie und Bedenken auch bei ChatGPT die Waage: Der Chatbot hat seine positiven und negativen Seiten, insbesondere was die Cybersicherheit anbelangt.

Weiterlesen
0102192446 (Bild: © aga7ta - stock.adobe.com)
Definition

Was ist das Generalist Language Model (GLaM)?

Das Generalist Language Model ist ein riesiges KI-Sprachmodell von Google. Es wurde 2021 vorgestellt und hat 1,2 Billionen Parameter. GLaM zeichnet sich durch einen geringen Energieverbrauch und eine hohe NLP-Leistung aus. Im Vergleich zu GPT-3 ist es siebenmal größer, verbraucht aber beim Training nur rund ein Drittel der Energie von GPT-3. Das Sprachmodell hat eine Mixture-of-Experts-Architektur (MoE) mit 32 MoE-Schichten und jeweils 64 Experten-Netzen.

Weiterlesen