Geoinformationssysteme ermöglichen immer bessere Sicherheits-Anwendungen. So lassen sich zum Beispiel Panik-Potenziale bei Menschenversammlungen frühzeitig erkennen. Dabei muss der Datenschutz beachtet werden. Das gelingt mit dynamischer Pseudonymisierung.
Dass Datenintegration ein Schlüsselthema für Unternehmen ist, hat sich nicht erst während der Corona-Krise gezeigt. Aber vielen Organisationen dürften erst der Lockdown die Vorteile von Datenmanagement vor Augen geführt haben, als hunderttausende von MitarbeiterInnen plötzlich von zu Hause aus arbeiteten.
Geoinformationssysteme ermöglichen immer bessere Sicherheits-Anwendungen. So lassen sich zum Beispiel Panik-Potenziale bei Menschenversammlungen frühzeitig erkennen. Dabei muss der Datenschutz beachtet werden. Das gelingt mit dynamischer Pseudonymisierung.
Das ursprünglich für März geplante Pentaho-Anwendertreffen musste aufgrund der Corona-Beschränkungen abgesagt werden. Der neue Termin ist der 24. September. Allerdings findet das treffen diesmal ausschließlich virtuell statt.
Data Vault ist eine Modellierungstechnik, mit der sich bestehende Data Warehouses (DWH) modernisieren und damit den aktuellen Anforderungen an Datenhaltung und Analytics anpassen lassen. DWH-Verantwortliche stehen unter immer größeren Druck, ihre Systeme anpassen zu müssen. Klassische DWH-Konzepte nach Inmon oder Kimball sind nicht dafür geeignet, weil sie schnell immer komplexer werden und sehr teuer sind.
Die IT-Novum GmbH hat das System-Management-Projekte „Open-IT-Cockpit“ gegründet, das auf „Naemon“ basiert. Die aktuelle Version 4.0 der Monitoring-Software wartet mit einem vollständig überarbeiteten Frontend und eigenem Monitoring-Agenten auf.
Der Cloud-Experte Snowflake und der Datenintegrationsspezialist IT-Novum haben eine Partnerschaft geschlossen. Im Mittelpunkt steht die schnelle und effiziente Datenaufbereitung für den Transfer in die Cloud.
Viele KI-Projekte scheitern aufgrund mangelnder Datenqualität. Unternehmen investieren zwar immer mehr in Machine Learning, vernachlässigen aber den Aspekt der Data Preparation: Die Qualität der Daten ist Grundvoraussetzung für den Erfolg eines Data-Science-Projekts.
Bei „Datenintegration“ denkt man oft an riesige Data Lakes, die kontinuierlich aus einer Vielzahl von Unternehmenssystemen gespeist werden. In manchen Unternehmen ist das auch nicht weit von der Realität entfernt. Aber sind diese Daten wirklich wertvoll?
Viele Produktionsunternehmen sind dabei, Fertigungsprozesse und ganze Wertschöpfungsketten zu digitalisieren. Für alle gilt: Es braucht ein tragfähiges Konzept für die Sammlung, Speicherung und Auswertung der vielen Daten, die im Zuge der Digitalisierung von Fertigungsprozessen anfallen.