Mehr als 30 Jahre Erfahrung als Fachautorin für Informationstechnik, Digitalisierung und CIO-Themen; langfährige Ressortleiterin ("Software" und "IT-Strategie") bei der COMPUTERWOCHE
Die Cloud hat das Thema Machine Learning auch für weniger finanzstarke Unternehmen erschwinglich gemacht. Und der Löwenanteil des Cloud-KI-Marktes entfällt laut Gartner auf Amazon Web Services (AWS). Da nimmt es kaum Wunder, dass der Provider dem Thema Machine Learning auf seiner – in diesem Jahr virtuellen – Mega-Konferenz „re:Invent“ eine eigene Keynote widmete. Swami Sivasubramanian, Vice President Machine Learning, kündigte dort eine ganze Reihe von neuen Produkten an – sowohl für ML-Entwickler als auch für Datenanalytiker sowie industrielle Anwender.
Anwenderkonferenz im Zeichen der Covid-19-Pandemie: Amazon Web Services lud in diesem Jahr zum virtuellen „AWS Summit EMEA“ – ohne Lightshow und Musik und ohne Marketing-Geschrei. Die Botschaft lautete: Die Cloud lohnt sich umso mehr, wenn man nicht nur die Infrastruktur, sondern auch die Services des Anbieters in Anspruch nimmt.
Daten, Prozesse und Menschen sind die Säulen, auf die der Datenspezialist Alteryx sein Konzept APA (Analytic Process Automation) baut. Es soll vor allem mittelgroßen Unternehmen helfen, eine datengestützte digitale Transformation umzusetzen. Dank Automatisierung und Self-Service-Funktionen verringert es den Bedarf an teuren Data Scientists. Zudem offeriert Alteryx derzeit zusammen mit der Online-Akademie Udacity kostenlose Datenanalyse-Schulungen für Kurzarbeiter.
Viele Maßnahmen zur Bekämpfung des neuartigen Corona-Virus muten wie Trial and Error an, weil Virologen und Politiker wenig über das Virus und seine Ausbreitung wissen.
Low-Code-Plattformen in Verbindung mit Robotic Process Automation, kurz RPA, können laut Gartner die „digitale Gewandtheit“ im Unternehmen steigern. Appian trägt dieser Empfehlung offenbar Rechnung: Version 20.1 seiner „Appian Platform“ schließt RPA-Funktionen ein.
Wer Oracle zum ersten Mal auf der „OpenWorld“ in London begegnet wäre, nähme wohl an, das Unternehmen hätte seine Software immer nur aus der Cloud vermarktet. Die Wolke war omnipräsent. Aktuell angekündigt wurden ein OCI-Azure-Interconnect-Zentrum in Amsterdam, eine Partnerschaft mit dem Colocation-Anbieter Equinix sowie eine in die OCI integrierte Infrastruktur für Data Scientists.
Während Unternehmen wie Google oder LinkedIn ihr komplettes Geschäft auf Graph-Datenbanken aufgebaut haben, benötigen andere ein solches Werkzeug nur selten. An diese Kunden richtet sich das jüngste Angebot des kalifornischen Softwareunternehmens TigerGraph: Unter der Bezeichnung „TigerGraph Cloud“ bietet es seine Software „as a Service“ an – wenn es denn sein soll, auch nur für eine Stunde
Welchen Sinn haben die Daten in den Unternehmen, wenn man sie nicht für Machine Learning nutzt? Diese rhetorische Frage stellt David Wyatt, Vice President Europe von Databricks. Als Haupttreiber des Apache-Spark-Projekts stellt das Unternehmen eine Cloud-Plattform bereit, die Data Engineers und Data Scientist zusammenbringen soll. Diese „Unified Analytics Platform“ wird derzeit um zwei Komponenten erweitert: das Projekt „Delta Lake“ zur Aufbereitung von Data Lakes und den Machine-Learning-Katalog „ML Flow“.
Wissen Sie, was „Triple A S“ bedeutet? Vermutlich nicht, weshalb wir vorsichtshalber schon einmal Titelschutz dafür beantragen. Ausgeschrieben als „Analytics as a Service“, handelt es sich um das jüngste Geschäftsmodell von Teradata. Es bedeutet, dass sich der Kunde um die Administration seiner Daten nicht mehr selbst kümmern muss, auch wenn die Analyse über unterschiedliche Deployments und Produkte reicht.
Mit Cloudera und Hortonworks haben sich die beiden größten Anbieter im Hadoop-Umfeld zusammengeschlossen. Beide schreiben bislang rote Zahlen. Wolfgang Huber, Senior Regional Sales Director Benelux, Central and Eastern Europe, erläutert im Gespräch mit BigData-Insider, wie aus zwei defizitären Unternehmen ein auch finanziell erfolgreicher Konzern werden soll.
Der Vorteil von Machine-Learning- und Deep-Learning-Anwendungen schwindet, wenn jedes Team das Rad neu erfindet. So die Überzeugung von Kshitij Kumar, Leiter des Zalando-Bereichs Data Infrastructure. Deshalb steht sein Team dem gesamten „Zalando Fashion Store“ als zentrale Instanz für Data-Warehouse- und „KI“-Applikationen zu Verfügung. Benötigt nun aber eine Geschäftseinheit partout etwa Eigenes, so fungieren die „Data-Infras“ als Consulting- und Servicegruppe.
Die kürzlich vorgestellte Autonomous Datenbank ist an die neue Cloud-Infrastruktur der Oracle Corp. („Gen 2“) gekoppelt. Kritiker des Datenbankriesen sehen darin den Versuch, die Anwender an die hauseigenen Systeme zu fesseln. Oracle kontert damit, dass die Datenbanktechnik für die „Exadata“-Maschinen optimiert sei und in anderen Cloud-Umgebungen ihre Vorteile einbüße.
Der Analytics-Spezialist Teradata hat dem deutschen Markt einen eigenen Country Manager spendiert. Bisher hatte Sascha Puljic diese Aufgabe erfüllt – zusätzlich zu seinen Pflichten als Manager für Zentraleuropa, Großbritannien und Irland (CEUKI). Jetzt kümmert sich der langjährige Teradata-Executive Thomas Timm exklusiv um die deutschen Kunden. Hier verrät er, was ihm dabei wichtig ist.
Wenn nachts die Alarmanlage unseres Autos losheult, sind wir in Nullkommanichts auf den Beinen. Oft genug ist es falscher Alarm, aber deswegen werden wir ihn noch lange nicht ignorieren. Auch IT-Systeme sind sich oft nicht sicher, ob sie tatsächlich bedroht werden. Analytics-Systeme mit selbstlernenden Funktionen helfen ihnen bei der Entscheidung.
Unter der Bezeichnung „Vantage“ hat die Teradata Corp. ein „Ökosystem“ auf den Markt gebracht, das Datenanalysen über heterogene Systeme ermöglichen soll, ohne dass der Anwender zu tief in die Technik einsteigen muss. Die Produkte QueryGrid und 4D Analytics sind darin integriert.
Im Herbst 2017 auf der „OpenWorld“ angekündigt, hat Oracle die „Autonomous Database“ jetzt freigegeben – allerdings nicht für den Do-it-yourself-Betrieb. Die Datenbank-Software, die sich selbst administrieren soll, läuft entweder im Rechenzentrum des Anbieters oder als von Oracle gemanagte Lösung beim Kunden („Oracle at Customer“). Der Service für Data Warehouse Workloads ist laut Oracle der erste in einer ganzen Reihe weiterer „autonomer“ Dienste.
Im Herbst 2017 auf der „OpenWorld“ angekündigt, hat Oracle die „Autonomous Database“ jetzt freigegeben – allerdings nicht für den Do-it-yourself-Betrieb. Die Datenbank-Software, die sich selbst administrieren soll, läuft entweder im Rechenzentrum des Anbieters oder als von Oracle gemanagte Lösung beim Kunden („Oracle at Customer“). Der Service für Data Warehouse Workloads ist laut Oracle der erste in einer ganzen Reihe weiterer „autonomer“ Dienste.
Wie jede fortgeschrittene Technik ist die Künstliche Intelligenz (KI) für Außenstehende schwer durchschaubarbar. Aber deswegen ist sie noch kein Hexenwerk – und auch keine eierlegende Wollmilchsau. Selbstlernende Systeme können die Genauigkeit von Analysen und Vorhersagen enorm steigern, haben aber durchaus ihre Grenzen. Zu diesem Fazit kam eine Expertenrunde, zu der Teradata anlässlich der TDWI-Konferenz in München eingeladen hatte.
Ein neues „Major Release“ seiner Datenplattform MapR hat der gleichnamige Softwareanbieter aus Santa Clara, Kalifornien, für den kommenden Herbst in Aussicht gestellt: MapR 6.1 ist unter anderem dafür ausgelegt, die Datenanalyse für KI-Anwendungen zu beschleunigen und die Betriebskosten zu senken.
Das Thema der diesjährigen „Teradata Universe“ lautete: Analytics in der Cloud. Wie bitte? Cloud ist doch längst ein „Nobrainer“, wie es im Business-Deutsch heißt. Aber nicht im Analytics-Umfeld, kontert Oliver Ratzesberger, Chief Operations Officer (COO) der Teradata Corp., San Diego. Eine durchgängige Analytics-Umgebung, die on premise und mit derselben Lizenz auch in diversen Cloud-Umgebungen laufe, die mit fremden Tools integrierbar und vor allem skalierbar sei – das habe es bislang nicht gegeben.
Jedes Jahr ein deutsches Start-up aus dem Umfeld der Künstlichen Intelligenz (KI) in die internationalen Top-100-Listen bringen – so lautet eines der Ziele, das sich die Initiative „AppliedAI“ auf die Fahne geschrieben hat. Unter der Ägide der Bayerischen Staatsregierung und mit Unterstützung der Technischen Universität München kooperieren 26 Forschungseinrichtungen und Konzerne.
Kurz vor der europäischen „Universe“-Konferenz Ende April hat der Analytics-Spezialist Teradata einige signifikante Ankündigungen gemacht. Sie indizieren einen Trend: raus aus der „Splendid Isolation“, rein in sinnvolle Partnerschaften, zum Beispiel mit Cisco und NVIDIA. Auf der Produktseite stellt der Anbieter zudem eine Software vor, welche die Analyse von Sensordaten „on the edge“ vereinfachen soll.
Mehr als die Hälfte der deutschen Unternehmen planen für das laufende Jahr die Einführung von IoT-Plattformen. Das legt die Studie „Internet of Things in Deutschland 2018“ nahe, für die das Marktforschungsunternehmen IDC im Januar 2018 insgesamt 444 Organisationen mit mehr 100 Mitarbeitern befragte. Viele der Umfrageteilnehmer wollen demnach auch neue Techniken wie Blockchain und Datenanalyse „at the edge“ nutzen.
Der Operational-Database-Spezialist Datastax will sich künftig noch mehr darauf konzentrieren, sein Kernprodukt „Datastax Enterprise“ (DSE) einfacher und anwenderfreundlicher zu gestalten – unter anderem durch einen Upgrade-Service. Aktuell hat das Venture-Capital-finanzierte Unternehmen aus dem texanischen Austin Microsoft als Reseller seiner Managed Services gewonnen.
Nach dem Experiment mit Marketing-Tools aus der Cloud und der erfolgreichen Integration des Beratungsunternehmens „Think Big Analytics“ sucht Teradata nun seine Rolle als Architekt und Baustofflieferant für Analytics, Machine Learning und Neuronale Netze.
Auf der obersten Unternehmensebene gibt es eine neue Verantwortlichkeit: Immer mehr Betriebe engagieren einen Daten- oder Analytikchef. Richtig so, findet das Marktforschungs- und Beratungsunternehmen Gartner.
Die Cloud hat das Thema Machine Learning auch für weniger finanzstarke Unternehmen erschwinglich gemacht. Und der Löwenanteil des Cloud-KI-Marktes entfällt laut Gartner auf Amazon Web Services (AWS). Da nimmt es kaum Wunder, dass der Provider dem Thema Machine Learning auf seiner – in diesem Jahr virtuellen – Mega-Konferenz „re:Invent“ eine eigene Keynote widmete. Swami Sivasubramanian, Vice President Machine Learning, kündigte dort eine ganze Reihe von neuen Produkten an – sowohl für ML-Entwickler als auch für Datenanalytiker sowie industrielle Anwender.
Während Unternehmen wie Google oder LinkedIn ihr komplettes Geschäft auf Graph-Datenbanken aufgebaut haben, benötigen andere ein solches Werkzeug nur selten. An diese Kunden richtet sich das jüngste Angebot des kalifornischen Softwareunternehmens TigerGraph: Unter der Bezeichnung „TigerGraph Cloud“ bietet es seine Software „as a Service“ an – wenn es denn sein soll, auch nur für eine Stunde
Anwenderkonferenz im Zeichen der Covid-19-Pandemie: Amazon Web Services lud in diesem Jahr zum virtuellen „AWS Summit EMEA“ – ohne Lightshow und Musik und ohne Marketing-Geschrei. Die Botschaft lautete: Die Cloud lohnt sich umso mehr, wenn man nicht nur die Infrastruktur, sondern auch die Services des Anbieters in Anspruch nimmt.
Wer Oracle zum ersten Mal auf der „OpenWorld“ in London begegnet wäre, nähme wohl an, das Unternehmen hätte seine Software immer nur aus der Cloud vermarktet. Die Wolke war omnipräsent. Aktuell angekündigt wurden ein OCI-Azure-Interconnect-Zentrum in Amsterdam, eine Partnerschaft mit dem Colocation-Anbieter Equinix sowie eine in die OCI integrierte Infrastruktur für Data Scientists.
Daten, Prozesse und Menschen sind die Säulen, auf die der Datenspezialist Alteryx sein Konzept APA (Analytic Process Automation) baut. Es soll vor allem mittelgroßen Unternehmen helfen, eine datengestützte digitale Transformation umzusetzen. Dank Automatisierung und Self-Service-Funktionen verringert es den Bedarf an teuren Data Scientists. Zudem offeriert Alteryx derzeit zusammen mit der Online-Akademie Udacity kostenlose Datenanalyse-Schulungen für Kurzarbeiter.
Mit Cloudera und Hortonworks haben sich die beiden größten Anbieter im Hadoop-Umfeld zusammengeschlossen. Beide schreiben bislang rote Zahlen. Wolfgang Huber, Senior Regional Sales Director Benelux, Central and Eastern Europe, erläutert im Gespräch mit BigData-Insider, wie aus zwei defizitären Unternehmen ein auch finanziell erfolgreicher Konzern werden soll.
Low-Code-Plattformen in Verbindung mit Robotic Process Automation, kurz RPA, können laut Gartner die „digitale Gewandtheit“ im Unternehmen steigern. Appian trägt dieser Empfehlung offenbar Rechnung: Version 20.1 seiner „Appian Platform“ schließt RPA-Funktionen ein.
Auf der obersten Unternehmensebene gibt es eine neue Verantwortlichkeit: Immer mehr Betriebe engagieren einen Daten- oder Analytikchef. Richtig so, findet das Marktforschungs- und Beratungsunternehmen Gartner.
Mehr als die Hälfte der deutschen Unternehmen planen für das laufende Jahr die Einführung von IoT-Plattformen. Das legt die Studie „Internet of Things in Deutschland 2018“ nahe, für die das Marktforschungsunternehmen IDC im Januar 2018 insgesamt 444 Organisationen mit mehr 100 Mitarbeitern befragte. Viele der Umfrageteilnehmer wollen demnach auch neue Techniken wie Blockchain und Datenanalyse „at the edge“ nutzen.
Wie jede fortgeschrittene Technik ist die Künstliche Intelligenz (KI) für Außenstehende schwer durchschaubarbar. Aber deswegen ist sie noch kein Hexenwerk – und auch keine eierlegende Wollmilchsau. Selbstlernende Systeme können die Genauigkeit von Analysen und Vorhersagen enorm steigern, haben aber durchaus ihre Grenzen. Zu diesem Fazit kam eine Expertenrunde, zu der Teradata anlässlich der TDWI-Konferenz in München eingeladen hatte.
Der Analytics-Spezialist Teradata hat dem deutschen Markt einen eigenen Country Manager spendiert. Bisher hatte Sascha Puljic diese Aufgabe erfüllt – zusätzlich zu seinen Pflichten als Manager für Zentraleuropa, Großbritannien und Irland (CEUKI). Jetzt kümmert sich der langjährige Teradata-Executive Thomas Timm exklusiv um die deutschen Kunden. Hier verrät er, was ihm dabei wichtig ist.
Der Vorteil von Machine-Learning- und Deep-Learning-Anwendungen schwindet, wenn jedes Team das Rad neu erfindet. So die Überzeugung von Kshitij Kumar, Leiter des Zalando-Bereichs Data Infrastructure. Deshalb steht sein Team dem gesamten „Zalando Fashion Store“ als zentrale Instanz für Data-Warehouse- und „KI“-Applikationen zu Verfügung. Benötigt nun aber eine Geschäftseinheit partout etwa Eigenes, so fungieren die „Data-Infras“ als Consulting- und Servicegruppe.
Welchen Sinn haben die Daten in den Unternehmen, wenn man sie nicht für Machine Learning nutzt? Diese rhetorische Frage stellt David Wyatt, Vice President Europe von Databricks. Als Haupttreiber des Apache-Spark-Projekts stellt das Unternehmen eine Cloud-Plattform bereit, die Data Engineers und Data Scientist zusammenbringen soll. Diese „Unified Analytics Platform“ wird derzeit um zwei Komponenten erweitert: das Projekt „Delta Lake“ zur Aufbereitung von Data Lakes und den Machine-Learning-Katalog „ML Flow“.
Nach dem Experiment mit Marketing-Tools aus der Cloud und der erfolgreichen Integration des Beratungsunternehmens „Think Big Analytics“ sucht Teradata nun seine Rolle als Architekt und Baustofflieferant für Analytics, Machine Learning und Neuronale Netze.
Jedes Jahr ein deutsches Start-up aus dem Umfeld der Künstlichen Intelligenz (KI) in die internationalen Top-100-Listen bringen – so lautet eines der Ziele, das sich die Initiative „AppliedAI“ auf die Fahne geschrieben hat. Unter der Ägide der Bayerischen Staatsregierung und mit Unterstützung der Technischen Universität München kooperieren 26 Forschungseinrichtungen und Konzerne.
Kurz vor der europäischen „Universe“-Konferenz Ende April hat der Analytics-Spezialist Teradata einige signifikante Ankündigungen gemacht. Sie indizieren einen Trend: raus aus der „Splendid Isolation“, rein in sinnvolle Partnerschaften, zum Beispiel mit Cisco und NVIDIA. Auf der Produktseite stellt der Anbieter zudem eine Software vor, welche die Analyse von Sensordaten „on the edge“ vereinfachen soll.
Das Thema der diesjährigen „Teradata Universe“ lautete: Analytics in der Cloud. Wie bitte? Cloud ist doch längst ein „Nobrainer“, wie es im Business-Deutsch heißt. Aber nicht im Analytics-Umfeld, kontert Oliver Ratzesberger, Chief Operations Officer (COO) der Teradata Corp., San Diego. Eine durchgängige Analytics-Umgebung, die on premise und mit derselben Lizenz auch in diversen Cloud-Umgebungen laufe, die mit fremden Tools integrierbar und vor allem skalierbar sei – das habe es bislang nicht gegeben.
Ein neues „Major Release“ seiner Datenplattform MapR hat der gleichnamige Softwareanbieter aus Santa Clara, Kalifornien, für den kommenden Herbst in Aussicht gestellt: MapR 6.1 ist unter anderem dafür ausgelegt, die Datenanalyse für KI-Anwendungen zu beschleunigen und die Betriebskosten zu senken.
Unter der Bezeichnung „Vantage“ hat die Teradata Corp. ein „Ökosystem“ auf den Markt gebracht, das Datenanalysen über heterogene Systeme ermöglichen soll, ohne dass der Anwender zu tief in die Technik einsteigen muss. Die Produkte QueryGrid und 4D Analytics sind darin integriert.
Wissen Sie, was „Triple A S“ bedeutet? Vermutlich nicht, weshalb wir vorsichtshalber schon einmal Titelschutz dafür beantragen. Ausgeschrieben als „Analytics as a Service“, handelt es sich um das jüngste Geschäftsmodell von Teradata. Es bedeutet, dass sich der Kunde um die Administration seiner Daten nicht mehr selbst kümmern muss, auch wenn die Analyse über unterschiedliche Deployments und Produkte reicht.