Bei der Analyse von Daten spielt die Visualisierung eine wichtige Rolle. Mit Datawrapper Core gibt es einen kostenlosen Dienst, der bei der Visualisierung von analysierten Daten wertvolle Hilfe bieten kann.
Mit Kajero erhalten Data Scientists eine Open-Source-Notebook-Lösung auf Basis von Javascript. Die Einträge können über GitHub weitergegeben werden. Kajero bietet die Unterstützung für zahlreiche Graphen, D3, NVD3 und Jutsu.
Im Fokus von R steht die Analyse von Daten. Dazu werden mithilfe von Operatoren und Funktionen selbstredend auch Berechnungen durchgeführt. In diesem Beitrag geben wir einen ersten Einstieg zu diesem Bereich in R.
Die Open Source Software PSPP stellt einen kompatiblen Ersatz für die Analyse-Software SPSS dar. Die Funktionen sind zwar etwas eingeschränkt, aber die Datenbasis ist identisch.
Um Daten mit R zu analysieren, mussten die Daten früher extra aus der Datenbank exportiert und in R importiert werden. Seit Microsoft SQL Server 2016 lassen sich R-Skripte aber direkt auf dem Datenbankserver ausführen.
Im Bereich IoT lassen sich KI und Blockchain durchaus gemeinsam betreiben, um Smarte Geräte und vor allem Mikro-Transaktionen einfacher zu verwalten. Die drei Bereich IoT, KI und Blockchain arbeiten dazu perfekt zusammen.
Unternehmen, die auf künstliche Intelligenz (KI) und Machine-Learning (ML) im Netzwerk setzen, müssen darauf achten, dass die eingesetzte Storage-Lösung schnell genug ist, um die Daten für Lösungen im KI-/ML-Bereich zur Verfügung zu stellen. Auch die Kapazität spielt eine Rolle.
Das kleine Tool SOFA kann dabei helfen, Daten einfacher zu analysieren. Das Tool steht kostenlos zur Verfügung und kann auch ungeübten Anwendern ermöglichen, Daten einfacher und schneller zu analysieren.
Die Big-Data-Cloud-Lösung Qubole ist in der Lage, sehr effektiv große und auch unstrukturierte Datenströme von verschiedenen Quellen zusammenzufassen und zu analysieren. Der Dienst steht auch Azure, Google Cloud und AWS zur Verfügung.
Auf Kaggle lassen sich Jupyter Notebook ohne Einrichtung online erstellen. Mittlerweile gehört Kaggle zu Google. Im Fokus stehen Dienstleistungen rund um das Thema Big Data, Machine Learning und Data Mining.
Die Datenmenge, die Unternehmen speichern müssen, steigt immer weiter an. Herkömmliche Dateisysteme wie extX, NTFS oder ReFS sind von der Leistung kaum mehr in der Lage, solche riesigen Datenmengen zu speichern. Wir geben einen Überblick, welche Dateisysteme das besser können.
Apache Phoenix dient als Schnittstelle für relationale Datenbanken auf Basis von HBase. Phoenix kann SQL-Abfragen durchführen und HBase-Tabellen verwalten. Wir zeigen, was die Software kann.
Apache Griffin kann die Datenqualität in Big-Data-Umgebungen verbessern. Das Open Source Tool unterstützt die Batch-Verarbeitung und den Streaming-Modus. Wir geben einen Überblick.
Mit der neuen Version 4.2 stellen die Entwickler von MongoDB die neue Version der NoSQL-Datenbank zur Verfügung. Verbessert werden zum Beispiel Indizes und die Verschlüsselung.
Mit Reveal hat Infragistics eine Embedded-Analytics- und -Dashboard-Plattform angekündigt. Im Fokus der neuen Lösung soll die einfachere Integration von Business Analytics in Anwendungen stehen.
Mit Windows 10 IoT Core stellt Microsoft eine Windows-10-Version zur Verfügung, die für Geräte ohne Monitor entwickelt wurde. Da auch diese Version die Universal Windows Platform nutzt, ist deren Einsatzgebiet sehr flexibel.
Apache SAMOA ist eine Plattform für das Mining großer Datenströme. Die Lösung bietet eine Sammlung von verteilten Streaming-Algorithmen für die gängigsten Data-Mining- und Machine-Learning-Aufgaben.
Lösungen im Bereich Big Data sind grundsätzlich auch in vielen Fällen dazu geeignet im Security-Bereich Einsatz zu finden. Apache Metron ist eine solche Lösung, die generell durchaus sinnvoll eingesetzt werden kann, wenn ein SIEM-System aufgebaut werden soll.
Das Apache-Toplevel-Projekt Zeppelin bietet ein Notizbuch für Daten aus anderen Systemen, mit denen Anwender diese effektiv analysieren können. Zeppelin arbeitet dazu eng mit Spark, Flink und Hadoop zusammen.
Google stattet das Cloud IoT Device SDK for Embedded C mit Funktionen zum Verwalten und Verwenden von IoT-Geräten aus. Dadurch sollen sich Low-End-Geräte besser mit der Cloud verbinden lassen.
Die Eclipse Foundation will die kommerzielle Nutzung des Internet of Things voranbringen. Open-Source-Technologien sollen aus der Eclipse IoT-Initiative und der Eclipse IoT Working Group heraus entstehen.
Microsoft stellt mit Azure Databricks eine Analyseplattform in Microsoft Azure zur Verfügung, die auf der bekannten Analysesoftware Apache Spark aufbaut. Bei der Entwicklung der Plattform haben die Entwickler von Spark mitgearbeitet.
Data-Science-Projekte sind in vielen Unternehmen eine wichtige Grundlage zur Analyse der Daten. Damit die Projekte erfolgreich durchgeführt werden können, muss ein Team effektiv zusammenarbeiten und über das notwendige Know-how verfügen.
Das Apache HAWQ-Projekt ist zu einem Top-Level-Projekt innerhalb der Apache Software Foundation geworden. Apache HAWQ ist eine Enterprise SQL-on-Hadoop Query Engine und Analysedatenbank, die erstmals im September 2015 in die Inkubationsphase der Stiftung eingetreten ist.
Bei der Verarbeitung von Daten in den Bereichen Big Data und Machine Learning spielt die Leistung eine wesentliche Rolle. Intel unterstützt Entwickler hier mit der kostenlosen Data Analytics Acceleration Library (DAAL).
Vespa wurde von Verizon, dem Eigentümer von Yahoo, als Open-Source-Lösung zur Verfügung gestellt. Damit haben Unternehmen die Möglichkeit, Flickr-Technologien auch für eigene Daten einzusetzen.
Immer mehr Maschinen und Geräte sind direkt mit dem Internet verbunden. Dadurch entstehen neue Sicherheitsgefahren, mit denen sich Unternehmen auseinandersetzen müssen.
IOTA ist eine Kryptowährung, die vor allem für automatisierte Bezahlvorgänge zwischen Maschinen im Internet of Things konzipiert ist. Dadurch werden Bezahlvorgänge einfacher und effektiver. Der Rechenaufwand soll, so die Entwickler, genauso sinken wie die Kosten.
Bei der Analyse von Daten spielt die Visualisierung eine wichtige Rolle. Mit Datawrapper Core gibt es einen kostenlosen Dienst, der bei der Visualisierung von analysierten Daten wertvolle Hilfe bieten kann.
Mit Windows 10 IoT Core stellt Microsoft eine Windows-10-Version zur Verfügung, die für Geräte ohne Monitor entwickelt wurde. Da auch diese Version die Universal Windows Platform nutzt, ist deren Einsatzgebiet sehr flexibel.
Bei Big Data spielen Open-Source-Lösungen eine besondere Rolle. Das liegt unter anderem daran, dass große Unternehmen Big-Data-Lösungen entwickeln und dann der Community zur Verfügung stellen, um diese zu verbessern.
Auf den meisten Webseiten wird auf Google Analytics gesetzt, um die Besucher und Zugriffsdaten zu analysieren. Es gibt allerdings durchaus interessante Alternativen zum Marktführer.
Mit Kajero erhalten Data Scientists eine Open-Source-Notebook-Lösung auf Basis von Javascript. Die Einträge können über GitHub weitergegeben werden. Kajero bietet die Unterstützung für zahlreiche Graphen, D3, NVD3 und Jutsu.
Die Open Source Software PSPP stellt einen kompatiblen Ersatz für die Analyse-Software SPSS dar. Die Funktionen sind zwar etwas eingeschränkt, aber die Datenbasis ist identisch.
Das Apache-Toplevel-Projekt Zeppelin bietet ein Notizbuch für Daten aus anderen Systemen, mit denen Anwender diese effektiv analysieren können. Zeppelin arbeitet dazu eng mit Spark, Flink und Hadoop zusammen.
Big Data erfordert leistungsfähige Server und Anwendungen, die eine große Menge an Daten effizient verarbeiten können. Dafür eignen sich Cloud-Dienste wie die Google Cloud Platform hervorragend.
Bei der Datenverarbeitung von Big Data spielen vor allem NoSQL-Datenbanken eine wichtige Rolle. Diese können im Vergleich zu relationalen Datenbanken große Datenmengen oft schneller verarbeiten. Aber auch relationale Datenbanken bieten Möglichkeiten. Wir zeigen, worauf Unternehmen achten sollten.
Mit Apache Storm lassen sich Daten in Big-Data-Systemen in Echtzeit verarbeiten. Das Tool arbeitet mit verschiedenen Datenquellen zusammen und fügt sich optimal in Hadoop-Umgebungen ein.
Damit die enormen Datenmengen in Big-Data-Umgebungen optimal und vor allem verlässlich verarbeitet werden können, muss sichergestellt sein, dass die Daten belastbar, verlässlich und vor allem auch aussagekräftig sind.
Microsoft stellt mit Azure Databricks eine Analyseplattform in Microsoft Azure zur Verfügung, die auf der bekannten Analysesoftware Apache Spark aufbaut. Bei der Entwicklung der Plattform haben die Entwickler von Spark mitgearbeitet.
Das kleine Tool SOFA kann dabei helfen, Daten einfacher zu analysieren. Das Tool steht kostenlos zur Verfügung und kann auch ungeübten Anwendern ermöglichen, Daten einfacher und schneller zu analysieren.
Microsoft bietet mit seinem Cloud-Dienst Azure eine ideale Plattform für zahlreiche Cloud-Dienste. Interessant wird Azure etwa in Kombination mit der Open-Source-Lösung Apache Spark, mit der Unternehmen interaktive Analysen mit In-Memory-Technik durchführen können.
Google bietet mit seinem neuen Data Studio ein Webtool an, das verschiedene Datenquellen anbinden kann, um Berichte zu erstellen und Daten zu visualisieren.
Microsoft hat in Office 365 einige Funktionen integriert, mit denen sich Business-Intelligence-Funktionen umfassend nutzen lassen. Als Datenspeicher lassen sich Cloud-Server, Microsoft Azure, oder lokale Server nutzen.
Auf Kaggle lassen sich Jupyter Notebook ohne Einrichtung online erstellen. Mittlerweile gehört Kaggle zu Google. Im Fokus stehen Dienstleistungen rund um das Thema Big Data, Machine Learning und Data Mining.
Unternehmen, die auf künstliche Intelligenz (KI) und Machine-Learning (ML) im Netzwerk setzen, müssen darauf achten, dass die eingesetzte Storage-Lösung schnell genug ist, um die Daten für Lösungen im KI-/ML-Bereich zur Verfügung zu stellen. Auch die Kapazität spielt eine Rolle.