Nico Litzel ♥ BigData-Insider

Nico Litzel

Chefredakteur BigData-Insider
Vogel IT-Medien

- Volontär IT-BUSINESS & eGovernment Computing von 2002 bis Juni 2004
- Redakteur eGovernment Computing von 2004 bis 2007
- Redakteur SearchStorage von 2007 bis 2013
- Redakteur Storage-Insider von 2013 bis 2014
- Seit 2014 Chefredakteur BigData-Insider

Meine Themenschwerpunkte sind (Big Data) Analytics, IoT, Business Intelligence, Künstliche Intelligenz und Industrie 4.0.

Artikel des Autors

Breaking Data – der Podcast von BigData-Insider (Bild: Vogel IT-Medien)
Podcast

Breaking Data #4 – Künstliche Intelligenz und Recht

„Breaking Data“ – der Podcast zu Datenanalyse und AI. In der vierten Folge sprechen wir über Künstliche Intelligenz und Recht. Zu Gast ist Prof. Dr. Renate Schaub, Inhaberin des Lehrstuhls für Bürgerliches Recht, Internationales Privatrecht und Rechtsvergleichung, Handels- und Wirtschaftsrecht an der Ruhr-Universität Bochum.

Weiterlesen
Breaking Data – der Podcast von BigData-Insider (Bild: Vogel IT-Medien)
Podcast

Breaking Data #3 – KI im Ingenieurwesen

„Breaking Data“ – der Podcast zu Datenanalyse und AI. In der dritten Folge sprechen wir über Künstliche Intelligenz im Ingenieurwesen. Zu Gast ist Dieter Westerkamp, Mitglied der Geschäftsführung beim VDI sowie Bereichsleiter Technik und Gesellschaft.

Weiterlesen
Breaking Data – der Podcast von BigData-Insider (Bild: Vogel IT-Medien)
Podcast

Breaking Data #1 – KI und Ethik

„Breaking Data“ – der Podcast zu Datenanalyse und AI. In der ersten Folge sprechen wir über Künstliche Intelligenz (KI) und Ethik. Zu Gast ist Dr. Christian Müller vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI).

Weiterlesen
Dr. Carsten Bange, Gründer und Geschäftsführer des Business Application Research Center (BARC) (Knud Dobberke)
DATA Storage & Analytics Technology Conference 2020 – Interview mit Dr. Carsten Bange

„Die Nutzer rücken weiter in den Mittelpunkt“

Die DATA Storage & Analytics Technology Conference 2020, die am 17. September in Würzburg und am 24. September in Neuss stattfindet, verspricht spannende Keynotes. BigData-Insider hat als Mitveranstalter und Medienpartner die Keynote-Speaker im Vorfeld um eine Preview gebeten. Hier im Interview: Dr. Carsten Bange, Gründer und Geschäftsführer des Business Application Research Center (BARC).

Weiterlesen
Dr. Carsten Bange, Gründer und Geschäftsführer des Business Application Research Center (BARC) (Knud Dobberke)
DATA Storage & Analytics Technology Conference 2020 – Interview mit Dr. Carsten Bange

„Die Nutzer rücken weiter in den Mittelpunkt“

Die DATA Storage & Analytics Technology Conference 2020, die aufgrund der Coronakrise am 30. April und 12. Mai dieses Jahres online sowie am 17. September in Würzburg und am 24. September in Neuss stattfindet, verspricht spannende „Keynotes“. BigData-Insider hat als Mitveranstalter und Medienpartner die Keynote-Speaker im Vorfeld um eine Preview gebeten. Hier im Interview: Dr. Carsten Bange, Gründer und Geschäftsführer des Business Application Research Center (BARC).

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Digitalisierung?

Digitalisierung bezeichnet im ursprünglichen Sinn das Umwandeln von analogen Werten in digitale Formate. Diese Daten lassen sich informationstechnisch verarbeiten. Oft steht der Begriff Digitalisierung aber auch für die digitale Revolution oder die digitale Transformation.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist SAP BW?

SAP BW ist ein Business-Intelligence-Paket von SAP und ermöglicht umfangreiche Auswertungen und Reports auf Basis von unterschiedlichsten Unternehmensdaten. Es besteht aus einer Kombination von Datenbanken, Datenbankmanagement-Tools sowie Analyse und Reporting-Anwendungen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist das Internet of Things?

Im Internet der Dinge (Englisch: Internet of Things, IoT) bekommen Gegenstände eine eindeutige Identität und können miteinander kommunizieren oder Befehle entgegennehmen. Mit dem Internet of Things lassen sich Anwendungen automatisieren und Aufgaben ohne Eingriff von außen erledigen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Machine Learning?

Machine Learning, im Deutschen maschinelles Lernen, ist ein Teilgebiet der künstlichen Intelligenz. Durch das Erkennen von Mustern in vorliegenden Datenbeständen sind IT-Systeme in der Lage, eigenständig Lösungen für Probleme zu finden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Natural Language Processing?

Die Abkürzung NLP steht für Natural Language Processing und beschreibt Techniken und Methoden zur maschinellen Verarbeitung natürlicher Sprache. Ziel ist eine direkte Kommunikation zwischen Mensch und Computer auf Basis der natürlichen Sprache.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Neuronales Netz?

Künstliche Neuronale Netze (KNN) sind inspiriert durch das menschliche Gehirn und lassen sich für maschinelles Lernen und die Künstliche Intelligenz einsetzen. Es lassen sich mit diesen Netzen verschiedene Problemstellungen computerbasiert lösen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Data Warehouse?

Das Data Warehouse stellt ein zentrales Datenbanksystem dar, das zu Analysezwecken im Unternehmen einsetzbar ist. Das System extrahiert, sammelt und sichert relevante Daten aus verschiedenen heterogenen Datenquellen und versorgt nachgelagerte Systeme.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist CRISP-DM?

CRISP-DM (Cross Industry Standard Process for Data Mining) ist ein von der EU gefördertes, branchenübergreifendes Standardmodell für das Data Mining. Es wurde 1996 unter Mitarbeit zahlreicher namhafter Konzerne entwickelt und definiert insgesamt sechs verschiedene Prozessphasen. CRISP-DM ist anwendungsneutral und in beliebigen Bereichen einsetzbar.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Deep Learning?

Deep Learning ist ein Teilbereich des Machine Learnings und nutzt neuronale Netze sowie große Datenmengen. Die Lernmethoden richten sich nach der Funktionsweise des menschlichen Gehirns und resultieren in der Fähigkeit eigener Prognosen oder Entscheidungen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Big Data?

Der im Internet und in den Unternehmen verfügbare Datenberg – diese Tatsache wird als Big Data umschrieben – wird immer größer, unübersichtlicher und lässt sich nur schwer verarbeiten. Immer technologisch anspruchsvollere Tools und Programme sollen die Datenflut zähmen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine relationale Datenbank?

Relationale Datenbanken ist das am weitesten verbreitete Datenbankmodell. Es setzt auf das relationale Datenbankmodell, das auf der Speicherung von Informationen in verschiedenen Tabellen basiert, die untereinander über Beziehungen (Relationen) verknüpft sind.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Cyber-physisches System (CPS)?

In einem Cyber-physischen System (cyber-physical system, CPS) sind mechanische Komponenten über Netzwerke und moderne Informationstechnik miteinander verbunden. Sie ermöglichen die Steuerung und die Kontrolle von komplexen Systemen und Infrastrukturen. Für die Industrie 4.0 spielen Cyber-physische Systeme eine zentrale Rolle.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Chatbot?

Bei einem Chatbot handelt es sich um ein technisches Dialogsystem, mit dem per Texteingabe oder Sprache kommuniziert werden kann. Chatbots werden häufig eingesetzt, um Anfragen automatisiert und ohne direkten menschlichen Eingriff zu beantworten oder zu bearbeiten.

Weiterlesen
Der Autor: Frank Moritz ist Chief Customer Officer bei der Alexander Thamm GmbH sowie Leiter der Data Academy (Alexander Thamm GmbH)
Kommentar von Frank Moritz, Alexander Thamm GmbH

Darauf kommt es bei Weiterbildungen im Bereich Data Science und KI an

Die Nutzbarmachung von Daten, etwa mittels Künstlicher Intelligenz (KI), ist eine der Herausforderungen aber vor allem auch Chance der Gegenwart. Für Unternehmen ist es von strategischer Bedeutung, genügend gut ausgebildete Mitarbeiterinnen und Mitarbeiter zu beschäftigen. Nicht alle bringen jedoch die erforderlichen Kenntnisse aus ihrer Ausbildung mit. Deswegen ist die nebenberufliche Weiterbildung ein wichtiger Hebel.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Data Mining?

Data Mining ist die systematische Anwendung computergestützter Methoden, um in vorhandenen Datenbeständen Muster, Trends oder Zusammenhänge zu finden. Zur Wissensentdeckung eingesetzte Algorithmen basieren unter anderem auf statistischen Methoden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Datenbankmanagementsystem?

Das Datenbankmanagementsystem, abgekürzt DBMS, ist neben den eigentlichen Daten der wichtigste Bestandteil einer jeden Datenbank. Es übernimmt die Aufgabe der Organisation und Strukturierung der Daten. Gleichzeitig kontrolliert es lesende und schreibende Zugriffe.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Hadoop?

Bei Hadoop handelt es sich um ein auf Java basierendes Software Framework. Mit ihm lassen sich große Datenmengen auf verteilten Systemen in hoher Geschwindigkeit verarbeiten. Es ist zur Bewältigung der Datenverarbeitung im Big-Data-Umfeld geeignet.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist NoSQL?

NoSQL steht für „Not only SQL“ und bezeichnet Datenbanksysteme, die einen nicht-relationalen Ansatz verfolgen. Diese Datenbanken, denen verschiedene Datenbankmodelle zugrunde liegen können, sind horizontal skalierbar und lassen sich für Big-Data-Anwendungen einsetzen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Predictive Maintenance?

Predictive Maintenance verfolgt als eine der Kernkomponenten von Industrie 4.0 einen vorausschauenden Ansatz und wartet Maschinen und Anlagen proaktiv, um Ausfallzeiten niedrig zu halten. Das Verfahren nutzt hierfür von Sensoren erfasste Messwerte und Daten.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Data Lake?

Beim Data Lake handelt es sich um einen sehr großen Datenspeicher, der die Daten aus den unterschiedlichsten Quellen in ihrem Rohformat aufnimmt. Er kann sowohl unstrukturierte als auch strukturierte Daten enthalten und lässt sich für Big-Data-Analysen einsetzen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Entität?

Eine Entität in der Informatik ist ein einzelnes, eindeutig identifizierbares Informationsobjekt. Es kann sich sowohl um existierende als auch um abstrakte Objekte handeln. Entitäten sind zusammen mit den Entitätstypen und Attributen sowie den Beziehungen zwischen den Entitäten wesentliche Elemente der Datenmodellierung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ACID?

Der Begriff ACID (Atomicity, Consistency, Isolation, Durability) beschreibt Regeln und Eigenschaften zur Durchführung von Transaktionen in Datenbankmanagementsystemen (DBMS). Hält die Transaktion das ACID-Prinzip ein, gelten die Informationen in den Datenbanksystemen als verlässlich und konsistent.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Validierung?

Datenvalidierung prüft Daten auf Einhaltung bestimmter Validierungsregeln. Diese wurden zuvor aufgestellt und beinhalten beispielsweise Vorgaben zu Wertebereichen oder Formaten. Die Datenvalidierung verbessert die Ergebnisse der Datenverarbeitung und Datenanalyse. Sie kann bei der Eingabe der Daten, direkt vor dem Start oder während der Datenverarbeitung stattfinden.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Apache Kafka?

Apache Kafka ist eine Open Source Software, die die Speicherung und Verarbeitung von Datenströmen über eine verteilte Streaming-Plattform ermöglicht. Sie stellt verschiedene Schnittstellen bereit, um Daten in Kafka-Cluster zu schreiben, Daten zu lesen oder in und aus Drittsysteme zu importieren und zu exportieren.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ODBC?

Bei ODBC (Open Database Connectivity) handelt es sich um eine standardisierte, offene Schnittstelle für den Zugriff auf unterschiedliche Datenbankmanagementsysteme. Über ODBC-Treiber können Anwendungen direkt Anweisungen an Datenbanken erteilen oder Abfragen ausführen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Digitaler Zwilling?

Ein Digitaler Zwilling repräsentiert ein reales Objekt in der digitalen Welt. Es kann sich um materielle oder immaterielle Objekte handeln. Die Digitalen Zwillinge sind aus Daten und Algorithmen aufgebaut und können über Sensoren mit der realen Welt gekoppelt sein. Für die Prozesse der Industrie 4.0 stellen Digitale Zwillinge die Basis dar.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Big Data Analytics?

Big Data Analytics ermöglicht es, große Datenmengen aus unterschiedlichen Quellen zu analysieren. Die gewonnenen Informationen oder erkannten Muster lassen sich einsetzen, um beispielsweise Unternehmensprozesse zu optimieren.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Normalisierung?

Die Normalisierung findet bei relationalen Datenbankschemata statt und hat zum Ziel, Redundanzen, Inkonsistenzen und Anomalien zu vermeiden und zu beseitigen. Zur Durchführung kommen bis zu fünf verschiedene aufeinander aufbauende Normalformen zum Einsatz. Normalisierte Datenbanken folgen einem klar strukturierten Modell.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was sind unstrukturierte Daten?

Unstrukturierte Daten sind Informationen, die in einer nicht identifizierbaren und nicht normalisierten Datenstruktur vorliegen. Es kann sich beispielsweise um Texte, Bilder oder Audio- und Videodateien handeln. Im Big-Data-Umfeld haben unstrukturierte Daten eine große Bedeutung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist das Industrial Internet of Things (IIoT)?

Das Industrial Internet of Things (IIoT) stellt die industrielle Ausprägung des Internet of Things (IoT) dar. Es repräsentiert im Gegensatz zum IoT nicht die verbraucherorientierten Konzepte, sondern konzentriert sich auf die Anwendung des Internets der Dinge im produzierenden und industriellen Umfeld.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ETL (Extract, Transform, Load)?

Beim ETL-Prozess handelt es sich um mehrere Einzelschritte, durch die sich Daten aus verschiedenen Datenquellen per Extrahieren und Aufbereiten in ein Data Warehouse integrieren lassen. Der Prozess kommt häufig zur Verarbeitung großer Datenmengen im Big-Data- und Business-Intelligence-Umfeld zum Einsatz.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Smart City?

In einer Smart City werden moderne Technologien aus den Bereichen Energie, Mobilität, Stadtplanung, Verwaltung und Kommunikation so miteinander vernetzt, dass sich die Lebensqualität für die Bewohner steigert. Gleichzeitig profitiert die Nachhaltigkeit der Stadt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Smart Factory?

Die Smart Factory steht im Zentrum der sogenannten Industrie 4.0. Sie stellt eine Produktionsumgebung zur Verfügung, die sich im Idealfall ohne menschlichen Eingriff selbst organisiert. Dazu zählen Fertigungsanlagen und Logistiksysteme. Kernkomponenten sind cyber-physische Systeme und die intelligente Vernetzung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein BLOB?

Ein BLOB (Binary Large Object ) ist ein großes binäres Datenobjekt, das von Datenbanken meist in besonderer Form verarbeitet und gespeichert wird. Typische BLOBs sind Dateien wie Video-, Audio- oder Bilddateien

Weiterlesen
Cassandra Enterprise umfasst zahlreiche Leistungsmerkmale, die für Unternehmensnutzer wichtig sind. (Datastax)
NoSQL

NoSQL-Datenbanken im Vergleich

NoSQL-Datenbanken wurden aus der Notwendigkeit heraus entwickelt, große, unterschiedliche Mengen von Dimensionen wie Raum, Zeit und Lokation auf möglichst effiziente Weise zu speichern und zu verarbeiten. Mittlerweile sind sie die unabdingbare Alternative zu relationalen SQL-basierten Datenbanken. Doch nicht jede NoSQL-Datenbank eignet sich für jeden Zweck. Tatsächlich sind die meisten sogar recht spezialisiert.

Weiterlesen
Messpunkte und deren Abstand von einer nach der Methode der kleinsten Quadrate bestimmten Funktion. Hier wurde eine logistische Funktion als Modellkurve gewählt. (gemeinfrei)
Grundlagen Statistik & Algorithmen, Teil 11

Methoden der Linearen Regressionsanalyse

Regressionsanalysen dienen dazu, Prognosen zu erstellen und Abhängigkeiten in Beziehungen aufzudecken. Will ein Smartphone-Hersteller herausfinden, mit welchem Preis er in welchem Kundenkreis welchen Umsatz erzielen kann, so kennt er nur eine Variable – den Preis – aber nicht die anderen Variablen. Heute gibt es eine große Zahl solcher Verfahren, denn sie werden für zahlreiche Zwecke benötigt, etwa in der Epidemiologie.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Random Forest?

Random Forest ist ein Algorithmus, der sich für Klassifizierungs- und Regressionsaufgaben nutzen lässt. Er kombiniert die Ergebnisse vieler verschiedener Entscheidungsbäume, um bestmögliche Entscheidungen zu treffen. Der Lernalgorithmus gehört zu den Verfahren des überwachten Lernens und ist im Machine Learning einsetzbar. Das Verfahren ist relativ einfach und bietet kurze Trainingszeiten.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist OPC UA?

OPC UA (Open Platform Communications Unified Architecture) ist eine Sammlung von Standards für die Kommunikation und den Datenaustausch im Umfeld der Industrieautomation. Mithilfe von OPC UA werden sowohl der Transport von Machine-to-Machine-Daten als auch Schnittstellen und die Semantik von Daten beschrieben. Die komplette Architektur ist serviceorientiert aufgebaut.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Convolutional Neural Network?

Das Convolutional Neural Network ist eine besondere Form des künstlichen neuronalen Netzwerks. Es besitzt mehrere Faltungsschichten und ist für maschinelles Lernen und Anwendungen mit Künstlicher Intelligenz (KI) im Bereich Bild- und Spracherkennung sehr gut geeignet.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist XGBoost?

XGBoost ist eine frei verfügbare Bibliothek mit Open-Source-Lizenz. Sie ermöglicht überwachtes maschinelles Lernen mit dem Boosted-Tree-Algorithmus, einem Baumalgorithmus mit Gradient Boosting. Die Bibliothek ist für Betriebssysteme wie Linux, Windows oder macOS verfügbar und arbeitet mit Programmiersprachen wie C++, Java, Python, R und Julia.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist ein Management-Informationssystem (MIS)?

Bei einem Management-Informationssystem (MIS) handelt es sich um ein computerunterstütztes Informationssystem, das wichtige Unternehmensinformationen für die Führungsebene sammelt und aufbereitet. Auf Basis der Informationen lassen sich Analysen durchführen, Probleme lösen oder strategische Entscheidungen treffen.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Python?

Python ist eine Programmiersprache, die dank ihrer klaren Syntax und einfachen Lesbarkeit leicht zu erlernen ist und sich sehr vielseitig einsetzen lässt. Für die gängigen Betriebssysteme ist Python frei verfügbar. Die üblichen Programmierparadigmen wie die objektorientierte oder funktionale Programmierung werden unterstützt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Support Vector Machine?

Die Support Vector Machine (SVM) ist eine mathematische Methode, die im Umfeld des maschinellen Lernens zum Einsatz kommt. Sie gestattet das Klassifizieren von Objekten und ist vielfältig nutzbar. Unterstützt werden die lineare und die nicht-lineare Objektklassifizierung. Typische Anwendungsbereiche sind die Bild-, Text- oder Handschrifterkennung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist eine Pivot-Tabelle?

Eine Pivot-Tabelle strukturiert in Tabellenform vorliegende Daten, fasst sie zusammen und ermöglicht ihre Auswertung. Die Tabellenart gehört zu den Grundfunktionen aller gängigen Tabellenkalkulationsanwendungen. Für die Erstellung einer Pivot-Tabelle sind nur wenige Grundbedingungen zu erfüllen. Komplexe Formeln oder das Anwenden von SQL-Datenbankabfragen sind dank Pivot-Tabellen zum Teil überflüssig.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Data Literacy?

Data Literacy oder Datenkompetenz beschreibt die Fähigkeit, mit Daten kompetent umzugehen. Sie umfasst verschiedene Einzelkompetenzen, um Daten zu erfassen, anzupassen, zu verändern, zu interpretieren und zu präsentieren. Die Datenkompetenz ist Grundlage und wichtiger Skill der Digitalisierung.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist Data Quality?

Die Data Quality bestimmt, wie gut sich Datenbestände für vorgesehene Aufgaben eignen. Das können beispielsweise Anwendungen aus dem Business-Intelligence-Umfeld sein. Es existieren zahlreiche Kriterien, anhand derer sich die Data Quality bewerten lässt.

Weiterlesen
 (© aga7ta - stock.adobe.com)
Definition

Was ist CUDA?

CUDA ist eine von NVIDIA entwickelte Technologie und Programmierschnittstelle, mit der sich die Rechenleistung von Grafikprozessoren (GPUs) für Anwendungen nutzen lässt. Aufgrund der hohen Rechenleistung und parallelen Arbeitsweise der GPUs sind bei bestimmten Anwendungen enorme Performancegewinne erzielbar.

Weiterlesen