Databricks, ein US-Start-up im Bereich Datenanalyse, kündigt an, seine Technologie Lakehouse jetzt auch auf der Google Cloud Platform (GCP) bereitzustellen. Die Lakehouse-Technologie vereinigt Eigenschaften strukturierter mit denen für unstrukturierte Datenspeicherung. Die Technologie soll den Parallelbetrieb von Datalakes und Data Warehouses in vielen Fällen überflüssig machen. „Das hat den Vorteil, dass alle, die Daten analysieren, auf einer einzigen Plattform arbeiten und dieselbe Datenqualität nutzen“, erklärt Joel Minnick, Vice President Marketing des Unternehmens.
Wie riskant ist der Einsatz von Künstlicher Intelligenz (KI, engl. Artificial Intelligence, AI) im beruflichen Umfeld wirklich? Und welche Risiken ergeben sich genau? Mit solchen Fragen befassen sich zwei Veröffentlichungen des Projekts ExamAI – KI Testing and Auditing.
Geht es um die bessere Nutzung von Daten für das Business, steht häufig die Vorstellung disruptiver Geschäftsprozesse und völlig neuer Geschäftsmodelle im Vordergrund. Doch auch ohne solche Quantensprünge können neuartige Tools sehr viel Nutzen stiften. Das zeigt das Beispiel Siemens Energy.
Im September 2018 setzte der Bundestag eine Enquete-Kommission zur Künstlichen Intelligenz (KI) ein. Nun liegt deren Abschlussbericht vor. Das umfangreiche Werk befasst sich mit allen Aspekten rund um KI und ihren Einsatz. Fazit: Der Nutzen ist groß, aber man braucht Regeln und Regulierung.
Was KI Mittelständlern bringen kann und wie sinnvolle KI-Konzepte und -Ideen für mittelständische Anwender aussehen, damit befasste sich eine Sitzung während der Jubiläumstagung der Gesellschaft für Informatik, Informatik 2020.
Noch vor wenigen Jahren beäugte SAS kritisch die allgemeine Cloudifizierung. Jetzt stellt der BI- und Analytik-Spezialist innerhalb eines Jahres seine Plattform Viya auf Cloud-native um. Das wurde auf dem SAS Forum verkündet. Und auch das Corona-Virus hinterließ dort deutliche Spuren.
Der KI-Markt boomt, Corona-Krise hin oder her. Doch wer sind die jungen Firmen, denen die größten Chancen zugebilligt werden? Eine Liste des Marktforschungsunternehmens CB Insights gibt Auskunft.
Ethik-Papiere für Künstliche Intelligenz (KI) und maschinelles Lernen (ML) gibt es mittlerweile viele. Doch wie man sie praktisch umsetzen kann, daran hapert es. Und auch dabei, wie man als Konsument erkennt, ob ein Algorithmus bestimmten ethischen Standards genügt. Eine Expertengruppe hat jetzt konkrete Lösungsvorschläge entwickelt.
Das Marktforschungsinstitut CB Insights hat anhand von Daten aus vielen Quellen wichtige KI-Trends für das Jahr 2020 herausdestilliert. Sie sind zum Teil spannend und stimmen optimistisch. Der hohe Energieverbrauch der Künstlichen Intelligenz muss sich allerdings ändern.
Daten sind Quellcode! Der Umgang mit ihnen erfordert neue Arten zu denken – und das ist zentral für die Entwicklung von KI-Applikationen. Das ist zumindest die These von Alexander Waldmann, Operative & Technology Director von appliedAI.
Europa hängt bei der Entwicklung digitaler Dienste den USA, aber auch einzelnen europäischen Ländern wie Estland, weit hinterher. Das Projekt Gaia-X, das zum Digitalgipfel 2019 offiziell angekündigt wurde, soll das ändern. Sein Ziel: Digitale Entwicklung ohne Preisgabe europäischer Werte und Rechtsvorstellungen.
In Deutschlands Industrie erhofft man sich von KI/ML-getriebenen neuen Geschäftsmodellen und Prozessen viel. Die produzierenden Unternehmen, die das Herz des wirtschaftlichen Erfolgs dieses Landes bilden, sollen damit ihre weltweit führende Rolle auf vielen Gebieten trotz Konkurrenz aus den USA und Fernost weiterspielen können. Wie das mithilfe von Microsoft gelingen könnte, darum ging es beim Microsoft Envision Forum: Manufacturing im November in München.
KI (Künstliche Intelligenz) und ML (Maschinelles Lernen) beflügeln nicht nur in den USA eine junge Gründergeneration. Das Gleiche gilt für Deutschland. Viele Ideen zielen darauf, industrielle Prozesse effektiver zu machen.
UiPath ist eigenen Angaben zufolge laut Forrester Wave zum Thema RPA aus dem 2. Quartal 2018 weltweit führend auf dem Markt der Robotic Process Automation. In Deutschland ist das Unternehmen seit zwei Jahren mit inzwischen fünf Niederlassungen und derzeit ungefähr hundert Mitarbeitern vertreten. Zur Region Zentraleuropa gehört neben Deutschland, Österreich und der Schweiz auch noch Polen.
RPA (Robotic Process Automation) ist ein wichtiges Einsatzfeld von KI- und ML-Algorithmen. Einer der großen Anbieter auf diesem Gebiet ist Automation Anywhere. Vom Wettbewerb differenziert sich der Anbieter durch eine besonders enge Integration seiner modularen Plattform.
Ende November 2018 kaufte Hewlett Packard Enterprise (HPE) den Künstliche-Intelligenz-, Machine-Learning- und Big-Data-Analytics-Spezialisten Bluedata und damit dessen Plattform Epic. Den Preis gab HPE nicht bekannt. Storage-Insider-Autorin Ariane Rüdiger sprach mit Patrick Osborne, weltweiter Vice President für Big Data und Secondary Storage bei HPE, über die Hintergründe des Deals.
Big Data schafft Möglichkeiten, die im geltenden Recht auf allen Ebenen nicht mit bedacht wurden. Was das grundsätzlich und für einzelne Rechtsgebiete bedeutet, damit befasst sich ein Buch aus dem Nomos-Verlag.
Prof. Dr. Uwe Kanning, Professor für Wirtschaftspsychologie an der Hochschule Osnabrück, beschäftigt sich seit Jahren wissenschaftlich mit dem Thema Personalmanagement. BigData-Insider sprach mit ihm über den Einsatz algorithmischer Methoden im Personalmanagement und besonders bei der Personalakquise.
Analysen der aktuellen Situation, Forderungen für die Zukunft sowie eine ganze Reihe von Anwendungen und jungen Firmen aus dem Sektor Künstliche Intelligenz (KI) und maschinelles Lernen (ML): All das gab es auf dem KI-Summit 2019 in München.
Das Datenwachstum kennt laut IDC keine Grenzen, auch nicht in Europa. Die Gründe: Immer mehr Daten entstehen am Edge oder werden für analytische Zwecke generiert. Produktive Zwecke gewinnen gegenüber Unterhaltung an Gewicht. Seagate brachte die neuen Zahlen zu seiner aktuellen Produktpräsentation vor der Presse mit.
Data Lake oder Data Warehouse? So schien lange Zeit die Alternative für Unternehmen zu lauten. Doch wie so oft gibt es in der betrieblichen IT kein Entweder-oder, sondern beide Infrastrukturen tauchen zunehmend gemeinsam auf.
Die durch die Digitalisierung und das Internet of Things entstehenden Datenmassen können mit konventionellen Mitteln relationaler Datenbanken nicht mehr bewältigt werden. Dazu braucht es andere Mittel und Methoden. Das Buch „Big Data“ beschreibt sie.
IT-Spezialisten haben über Jahrzehnte SQL-Know-how aufgebaut, doch das IoT-Zeitalter erfordert die massenweise Verarbeitung von Echtzeit-Datenstreams, die von Sensoren erzeugt werden. Crate.io vereinigt beide Welten.
Künstliche Intelligenz (KI) und maschinelles Lernen entwickeln sich rasant weiter. An Universitäten und anderen Instituten werden fortwährend neue Algorithmen entwickelt. Einen Einblick in die vorderste Linie der KI-Forschung eröffnete der auf der AWS-Tagung re:Invent stattfindende AI Summit.
Anlässlich der Fachmesse Electronica gab Gartner einen Ausblick auf die durch Künstliche Intelligenz (KI) und Deep Learning ausgelösten Entwicklungen auf dem Hardwaremarkt. Fazit: Eine neue Gründungswelle kommt ins Rollen, denn der Standard-Prozessorchip hat auf diesem Gebiet ausgedient.
Auf der AWS re:invent gehörten Machine Learning und Künstliche Intelligenz (KI) zu den wichtigsten Themen. Der Public-Cloud-Provider tut einiges dafür, seinen Kunden den Einsatz von KI-Algorithmen einfacher zu machen.
Relationale Datenbanken stoßen in vielen Anwendungsbereichen an ihre Leistungsgrenzen. Einer davon ist die biomedizinische Forschung. Neuere Ansätze wie Graphdatenbanken können helfen, neue Zusammenhänge in höchst heterogenen Datenbeständen zu entdecken.
Deep Learning ist in aller Munde. Doch wie es wirklich funktioniert, das wissen nur wenige genau. Eine Einführung in das Thema versucht jetzt damit aufzuräumen und gleichzeitig erste Ansätze für eine praktische Umsetzung der Konzepte mit der Keras-Bibliothek zu liefern.
Künstliche Intelligenz ist im Moment eines der intensiv diskutierten IT-Themen. Für viele grundlegende, nicht technische Fragen ist es schwierig, Antworten zu finden. Genau das versucht eine neue Einführung in die Technologie.
Der Cloud-Provider Alibaba möchte in Deutschland und Europa bekannter werden und gleichzeitig neue KI-Algorithmen generieren. Nun läuft ein Programmierwettbewerb an, der den Gewinnern den Zugang zum chinesischen Markt eröffnen könnte.
Geht es um die bessere Nutzung von Daten für das Business, steht häufig die Vorstellung disruptiver Geschäftsprozesse und völlig neuer Geschäftsmodelle im Vordergrund. Doch auch ohne solche Quantensprünge können neuartige Tools sehr viel Nutzen stiften. Das zeigt das Beispiel Siemens Energy.
Wie riskant ist der Einsatz von Künstlicher Intelligenz (KI, engl. Artificial Intelligence, AI) im beruflichen Umfeld wirklich? Und welche Risiken ergeben sich genau? Mit solchen Fragen befassen sich zwei Veröffentlichungen des Projekts ExamAI – KI Testing and Auditing.
Databricks, ein US-Start-up im Bereich Datenanalyse, kündigt an, seine Technologie Lakehouse jetzt auch auf der Google Cloud Platform (GCP) bereitzustellen. Die Lakehouse-Technologie vereinigt Eigenschaften strukturierter mit denen für unstrukturierte Datenspeicherung. Die Technologie soll den Parallelbetrieb von Datalakes und Data Warehouses in vielen Fällen überflüssig machen. „Das hat den Vorteil, dass alle, die Daten analysieren, auf einer einzigen Plattform arbeiten und dieselbe Datenqualität nutzen“, erklärt Joel Minnick, Vice President Marketing des Unternehmens.
Ethik-Papiere für Künstliche Intelligenz (KI) und maschinelles Lernen (ML) gibt es mittlerweile viele. Doch wie man sie praktisch umsetzen kann, daran hapert es. Und auch dabei, wie man als Konsument erkennt, ob ein Algorithmus bestimmten ethischen Standards genügt. Eine Expertengruppe hat jetzt konkrete Lösungsvorschläge entwickelt.
UiPath ist eigenen Angaben zufolge laut Forrester Wave zum Thema RPA aus dem 2. Quartal 2018 weltweit führend auf dem Markt der Robotic Process Automation. In Deutschland ist das Unternehmen seit zwei Jahren mit inzwischen fünf Niederlassungen und derzeit ungefähr hundert Mitarbeitern vertreten. Zur Region Zentraleuropa gehört neben Deutschland, Österreich und der Schweiz auch noch Polen.
Gartner bezeichnet Daten als die „am wenigsten genutzte Ressource in Unternehmen“. Kaum ein Unternehmen kennt den materiellen Wert seiner Datenfriedhöfe. Das soll sich nach Meinung des Marktforschungsinstitutes ändern. Deshalb hat es sich jetzt ausgedacht, wie man den Finanzwert von Daten berechnen könnte.
Proprietäre Softwareproduzenten bekommen immer mehr Konkurrenz durch reine Open Source Player. Doch wie kann man als Open-Source-Anbieter dauerhaft Geld verdienen? Über sein Geschäftsmodell sprach Ariane Rüdiger für BigData-Insider mit Shaun Conolly, Vice President Corporate Strategy beim Big-Data-Spezialisten Hortonworks.
Europa hängt bei der Entwicklung digitaler Dienste den USA, aber auch einzelnen europäischen Ländern wie Estland, weit hinterher. Das Projekt Gaia-X, das zum Digitalgipfel 2019 offiziell angekündigt wurde, soll das ändern. Sein Ziel: Digitale Entwicklung ohne Preisgabe europäischer Werte und Rechtsvorstellungen.
Was KI Mittelständlern bringen kann und wie sinnvolle KI-Konzepte und -Ideen für mittelständische Anwender aussehen, damit befasste sich eine Sitzung während der Jubiläumstagung der Gesellschaft für Informatik, Informatik 2020.
Neue Analysetechniken und neue Bezugsmodelle für IT scheinen sich gegenseitig zu fördern – das ist eines der überraschenderen Ergebnisse der jüngsten Hybrid-Cloud-Studie von IDC.
Das Marktforschungsinstitut CB Insights hat anhand von Daten aus vielen Quellen wichtige KI-Trends für das Jahr 2020 herausdestilliert. Sie sind zum Teil spannend und stimmen optimistisch. Der hohe Energieverbrauch der Künstlichen Intelligenz muss sich allerdings ändern.
Daten sind Quellcode! Der Umgang mit ihnen erfordert neue Arten zu denken – und das ist zentral für die Entwicklung von KI-Applikationen. Das ist zumindest die These von Alexander Waldmann, Operative & Technology Director von appliedAI.
Noch vor wenigen Jahren beäugte SAS kritisch die allgemeine Cloudifizierung. Jetzt stellt der BI- und Analytik-Spezialist innerhalb eines Jahres seine Plattform Viya auf Cloud-native um. Das wurde auf dem SAS Forum verkündet. Und auch das Corona-Virus hinterließ dort deutliche Spuren.
Im September 2018 setzte der Bundestag eine Enquete-Kommission zur Künstlichen Intelligenz (KI) ein. Nun liegt deren Abschlussbericht vor. Das umfangreiche Werk befasst sich mit allen Aspekten rund um KI und ihren Einsatz. Fazit: Der Nutzen ist groß, aber man braucht Regeln und Regulierung.
Wer Visualisierungstools für die Datenanalyse wie Tableau und Qlik nutzt, wird Alteryx möglicherweise schon kennen. Die Umgebung für das Sammeln, Aufarbeiten und Analysieren von Daten liegt häufig unter den hübschen Bildern. Nun will der Anbieter seine Werkzeuge auch direkt in Deutschland offerieren.
Prof. Dr. Uwe Kanning, Professor für Wirtschaftspsychologie an der Hochschule Osnabrück, beschäftigt sich seit Jahren wissenschaftlich mit dem Thema Personalmanagement. BigData-Insider sprach mit ihm über den Einsatz algorithmischer Methoden im Personalmanagement und besonders bei der Personalakquise.
Der KI-Markt boomt, Corona-Krise hin oder her. Doch wer sind die jungen Firmen, denen die größten Chancen zugebilligt werden? Eine Liste des Marktforschungsunternehmens CB Insights gibt Auskunft.
Erst vor einigen Monaten brachte Splunk, spezialisiert auf die Analyse von Maschinendaten, die Version 7.0 seiner Enterprise-Software auf den Markt. Auf der Konferenz SplunkLive! in München zeigten einige Beispiele, was man mit dieser Lösung anfangen kann.
General Electric will das Geschäft mit dem IoT und Analytics über ganz Europa hinweg ausbauen und dem großen Rivalen Siemens Marktanteile abjagen. In Berlin gab der Hersteller einen Über- und Ausblick auf Projekte und Produkte.