Mit der vor wenigen Tagen an den Start gegangen „Prinergy Cloud“ stellt Kodak Kunden eine Cloud-Plattform mit Analytik-Funktionen zur Verfügung. Die Entscheidungsanalytik der Prinergy Cloud wurde in Partnerschaft mit dem BI-Spezialisten Yellowfin entwickelt.
Das Unternehmen Kii, spezialisiert auf Cloud-basierte IoT-Plattformen, stellt auf dem momentan laufenden Mobile World Congress in Barcelona mit „Kii Solution Accelerators“ Entwicklertools für die hauseigene IoT-Plattform Kii Cloud vor.
Google hat die erste stabile Version 1.0 seines Machine-Learning-Framework TensorFlow freigegeben. Version 1.0 bringt neben einem überarbeiteten Python-API (noch) experimentelle Unterstützung für Java- und Go.
Yahoo hat den Quellcode für TensorFlowOnSpark unter eine Open-Source-Lizenz gestellt. TensorFlowOnSpark schlägt eine Brücke zwischen den Machine-Learning-Fähigkeiten von TensorFlow und Apache Spark.
Microsoft hat die Graph Engine für die Analyse großer Datenmengen unter eine Open-Source-Lizenz zum Download bereit gestellt, einschließlich eines SDK für das eigene Visual Studio.
Ein von Professor Roberto Zicari von der Goethe Universität Frankfurt Ende 2015 in Form eines offenen Briefes online gestellter Appell „Big Data zum Schutz von Mensch und Umwelt sowie für Frieden und Gerechtigkeit“, hat nun den 1000. Unterzeichner gefunden.
Pivotal hat Version 1.5 von Spring Boot mit zahlreichen Upgrades und neuen Funktionen ausgestattet, darunter native Unterstützung von Apache Kafka, Cloud Foundry und Spring Data „Ingalls“. Zudem gibt es zahlreiche neue Endpoints.
Die Entwickler des Lucene-Projekts haben Apache Lucene und Apache Solr auf die Version 6.4 aktualisiert. Lucene bringt vor allem eine verbesserte Textanalyse und Solr beherrscht jetzt den Learning-To-Rank-Algorithmus.
Die Apache Software Foundation hat Beam und Eagle zu neuen Toplevel-Projekten befördert. Apache Beam eignet sich als Fundament für parallele Datenverarbeitung und bei Eagle handelt es sich um ein Projekt, das große Cluster überwachen kann.
Red Hat hat eine „Ansible Tower 3-App für „Splunk“ vorgestellt. Die neue Applikation integriert die Ansible-Technik mit „Splunk Enterprise“ und „Splunk Cloud“.
Unter dem Motto „einfacher, schneller, smarter“ haben die Databricks-Entwickler die finale Version 2 des populären In-Memory-Frameworks Spark veröffentlicht, dessen Code-Basis bei der Apache Software Foundation beheimatet ist.
Auch wenn zahlreiche namhafte Unternehmen wie Twitter, Netflix oder das NASA-Projekt JPL das bereits seit 2009 entwickelte freie Cluster-Framework Mesos schon länger produktiv nutzen, haben die Entwickler erst jetzt die erste Hauptversion 1.0 veröffentlicht. Diese wartet unter anderem mit einer neuen HTTP-API sowie einem vereinheitlichten Containerizer auf.
Seit 2014 ist das maßgeblich von Databricks entwickelte Spark ein Top Level Project der Apache Software Foundation. Spark wird inzwischen von zahlreichen namhaften Unternehmen wie Amazon, IBM oder Samsung als Basis-Umgebung für Cluster-Computing eingesetzt und soll in der kommenden Version einfacher, schneller und vor allem intelligenter werden.
Die auf Open-Source-Komponenten rund um PostgreSQL basierende EnterpriseDB-Plattform des gleichnamigen Herstellers (EDB) aus Massachusetts soll ein föderiertes Enterprise Data Management ermöglichen. Dazu integriert das Projekt PostgreSQL mit MongoDB und Hadoop, verbessert DevOps und bietet Database-as-a-Service mit OpenStack sowie Multi Cloud Support.
Dell hat eine neue Version der Replizierungs- und Datenintegrations-Lösung SharePlex vorgestellt, die neben Oracle-Datenbanken nun auch mit SAP HANA, Teradata und EnterpriseDB Postgres zusammenarbeitet.
Hadoop, das fast schon synonym für Big Data genannte Framework zum Verarbeiten großer Datenmangen, feiert in diesem Jahr seinen zehnten Geburtstag. BigData-Insider blickt gemeinsam mit dem Hadoop-Erfinder Doug Cutting auf die vergangenen zehn Jahre zurück und befragt ihn nach seiner Einschätzung zur Zukunft von Big Data und Hadoop.
Storm, das Apache-Projekt zur Echtzeitverarbeitung von Streaming-Daten, hat die symbolträchtige Version 1.0 erreicht. Die jüngste Version eines der ersten Hadoop-unabhängigen Big-Data-Frameworks, das auf YARN portiert wurde, verspricht neben vielen Neuerungen auch eine diesem Release-Stand angemessene Stabilität.
Der IoT-Markt ist noch jung und bis dato kann noch kein Backend-Anbieter restlos überzeugen. Viele Entscheider in Unternehmen tun sich daher schwer mit der Planung, Konzeption und Umsetzung von IoT- und Industrie-4.0-Projekten. Das „Crisp Vendor Universe“ will hierbei unterstützen, indem es die im deutschen Markt aktiven IoT-Backend-Anbieter porträtiert und ihre Stärken und Schwächen herausarbeitet.
MapR hat seine konvergente Dataplattform um Funktionen für mehr Sicherheit und Data Governance erweitert. Darüber hinaus hat das Unternehmen die Performance verbessert und sie für den Einsatz von Containern optimiert.
Google hat in San Francisco eine Cloud-Plattform für Machine Learning vorgestellt. Diese soll es Entwicklern erleichtern, Machine-Learning-Modelle für ihre Anwendungen zu verwenden. Auch Googles eigene Dienste nutzen bereits vortrainierte Modelle der Plattform.
Wer in Zukunft in einem Hilton-Hotel nächtigt, bekommt es möglicherweise beim Check-in mit einem Roboter zu tun. In Kürze soll ein erster Test in der US-Stadt McLean anlaufen.
Suse hat eine aktualisierte Version des „Suse Linux Enterprise Server for SAP Applications“ veröffentlicht. Das jüngste Release setzt auf Suse Linux Enterprise (SLE) 12 SP1 auf und enthält viele Neuerungen, etwa Verbesserungen bei den Hochverfügbarkeitsfunktionen und weitere Optimierungen für SAP HANA.
Die IBM hat drei neue sowie erweiterte kognitive APIs für ihre Business Intelligence Suite vorgestellt, die die „emotionalen“ und visuellen Fähigkeiten von Watson erweitern sollen.
Talend erweitert das Portfolio an Integrationssoftware für Big Data um die Self-service-App „Talend Data Preparation“. Unternehmen können mit ihr die zumeist zeitaufwendige Datenkonsolidierung im Vorfeld von Analytics-Anwendungen vereinfachen und beschleunigen.
41 Prozent der Daten in Unternehmen sind veraltet. Zu diesem Ergebnis kommt der „Veritas Data Genomics Index“, eine Analyse des auf Informationsmanagement spezialisierten Unternehmens Veritas.
Die Fraunhofer Academy hat in wissenschaftlicher Kooperation mit der Fraunhofer-Allianz Big Data ein neues dreistufiges Zertifikatsprogramm „Data Scientist“ entwickelt, das sie auf der CeBIT 2016 erstmals vorstellen wird. Es bietet Interessierten die Möglichkeiten, sich mit ihrem interdisziplinären Fachwissen als Data Scientists zu qualifizieren.
Der von der Hochschule Karlsruhe veranstaltete Business Analytics Day bietet Anwendern, Wissenschaftlern und Beratern eine Plattform, um exemplarische Lösungen, Best Practices, Trends und offene Probleme von Business Analytics und Data Mining im Unternehmenseinsatz zu diskutieren.
Microsofts Internet-of-Things-Dienst „Microsoft Azure IoT Hub“, ein Cloud-Backbone, der das Aggregieren von Daten von Millionen Sensoren und Geräten erlaubt, ist laut einer Mitteilung der Redmonder ab sofort offiziell verfügbar.
Tragbare elektronische Geräte, sogenannte Wearables, boomen. Das Marktforschungsunternehmen Gartner geht in seiner aktuellen Marktanalyse davon aus, dass in diesem Jahr weltweit etwa 275 Millionen Geräte verkauft werden. Das entspricht einem Plus von 18,4 Prozent im Vergleich zu 2015. Smartwatches liegen dabei besonders hoch in der der Käufergunst: Ihr Absatz soll sich bis 2017 im Vergleich zu 2015 verdoppeln.
Bis 2019 werden nach Einschätzung von Gartner 90 Prozent aller Großunternehmen über einen Chief Data Officer (CDO) verfügen. Allerdings werden nur wenige von ihnen erfolgreich sein, weil sich Chief Information Officers (CIOs) offenbar von der Rolle des Chief Digital Officer bedroht fühlen.
Die NoSQL-Datenbank Cassandra ist als skalierbares, ausfallsicheres System für den Umgang mit großen Datenmengen auf verteilten Systemen (Clustern) konzipiert. Im dritten Teil geht es um das Arbeiten mit Cassandra.
Cassandra zählt, neben MongoDB, zu den derzeit populärsten NoSQL-Datenbanken. Cassandra ist als skalierbares, ausfallsicheres System für den Umgang mit großen Datenmengen auf verteilten Systemen (Clustern) konzipiert. In drei Teilen erläutert BigData-Insider die architektonischen Merkmale von Cassandra, erklärt die Inbetriebnahme sowie grundlegende Prinzipien und illustriert erste Schritte mit der Abfragesprache Cassandra Query Language (CQL).
Die Big-Data-Analyse im Betriebsmodell Cloud Computing eröffnet auch kleinen Unternehmen die Chance, von Big Data zu profitieren. Mehr und mehr Anbieter verknüpfen Schlüsseltechnologien wie Hadoop mit sehr individuellen Big-Data-Lösungen und Frameworks auf Cloud-Basis.
Microsoft hat für Ende Juli die generelle Verfügbarkeit von Power BI angekündigt, eines Cloud-basierten Werkzeugs zur Datenauswertung und -visualisierung. Die wichtigste Neuerung von Power BI besteht darin, dass Microsoft das Visualisierungs-Framework sowie die Visuals von Power BI über Github als Open Source anbietet.
Die Apache Software Foundation (ASF) hat das das Open-Source-Projekt Parquet, ein spaltenorientiertes Speicherformat für das Hadoop-Ökosystem, zum Top-Level Projekt befördert.
Dass Barack Obama Mitt Romney bei der letzten Präsidentschaftswahl klar besiegte, lag nicht nur an den rhetorischen Fähigkeiten Obamas, dem Klima in der US-Gesellschaft oder seinem politischen Programm. Es gab noch einen weiteren Unterschied.
Yahoo hat den Quellcode für TensorFlowOnSpark unter eine Open-Source-Lizenz gestellt. TensorFlowOnSpark schlägt eine Brücke zwischen den Machine-Learning-Fähigkeiten von TensorFlow und Apache Spark.
Die Entwickler von MariaDB haben einen quelloffenen, datenbankorientierten Proxy mit dem Namen MaxScale entwickelt, der mit allen relationalen Datenbanken aus dem MariaDB-/MySQL-Ökosystem funktioniert und Datenbank-Architekten und -Nutzern eine einfache Möglichkeit an die Hand gibt, ihre Datenbank-Umgebungen flexibler aufbauen und besser anpassen zu können.
Big Data im kundenzentrierten Management („Customer Centricity Management“) raubt über 70 Prozent der deutschen CIOs den Schlaf. Zu diesem Ergebnis kommt eine Studie von Sopra Steria Consulting.
Mit der Übernahme von Onyara, dem Unternehmen hinter Apache NiFi, erschließen sich Hortonworks weit reichende neue Möglichkeiten im Zusammenhang mit Big Data und dem Internet of Things, denn die Datenflusssteuerung stellt nach Ansicht von Hortonworks eine der wichtigsten Herausforderungen der Zukunft dar.
Mindbreeze, europäischer Anbieter von Software für Enterprise Search, Big Data und Wissensmanagement, hat die aus seiner Sicht wichtigsten Themen zusammengefasst, die 2016 den Markt beherrschen werden.
Die von der Postgres-Community veröffentlichte Version 9.5 von PostgreSQL bietet eine verbesserte Datenbankintegration und Skalierbarkeit und soll die Produktivität bei der Datenanalytik verbessern.
Talend erweitert das Portfolio an Integrationssoftware für Big Data um die Self-service-App „Talend Data Preparation“. Unternehmen können mit ihr die zumeist zeitaufwendige Datenkonsolidierung im Vorfeld von Analytics-Anwendungen vereinfachen und beschleunigen.
Der IoT-Markt ist noch jung und bis dato kann noch kein Backend-Anbieter restlos überzeugen. Viele Entscheider in Unternehmen tun sich daher schwer mit der Planung, Konzeption und Umsetzung von IoT- und Industrie-4.0-Projekten. Das „Crisp Vendor Universe“ will hierbei unterstützen, indem es die im deutschen Markt aktiven IoT-Backend-Anbieter porträtiert und ihre Stärken und Schwächen herausarbeitet.
Entwickler von Streamanalyse-Anwendungen können nun auch Flink als Plattform zum Ausführen von Dataflow-Pipelines in Googles Dataflow-Dienst nutzen. Einen solchen Runner für Googles Datenanalyse-Dienst gab es bisher nur für Apache Spark.
Im Kontext des Internets of Things, in dem Big Data eine wichtige Rolle im Zusammenhang mit der flächendeckenden Vernetzung von Milliarden von Geräten zukommt, wird es immer wichtiger, Daten so früh wie möglich zu filtern.
Big Data wird nach Ansicht der Analysten der Experton Group mittelfristig ganz normales Projektgeschäft sein, so wie es E-Commerce heute im Vergleich zur Situation vor zehn Jahren ist. Der „Vendor Benchmark Big Data 2016“ des Beratungsunternehmens kommt aber vorerst auch zu dem Ergebnis, dass Anwendern heute noch die passenden datengetriebenen Geschäftsmodelle fehlen.
Nur eine Randnotiz, aber aus Sicht von Big Data interessant: Auf dem populären Chaos Congress des Chaos Computer Clubs waren auch Mitarbeiter der Deutschen Bahn zugegen. Ein Indiz dafür, dass es dem Staatskonzern mit seinem Bekenntnis zu Open Data ernst zu sein scheint.
Amazon hat im Oktober vergangenen Jahres auf der „AWS re:Invent“ in Las Vegas erstmals „AWS IoT“ vorgestellt. Nach erfolgreich beendeter Beta-Phase ist der Cloud-Service für das Internet der Dinge jetzt allgemein verfügbar.