Insbesondere für den Mittelstand eröffnen sich mit dem Einsatz von KI-Technologien große Chancen: intelligente Gestaltung entlang der gesamten Wertschöpfungskette, völlig neue Geschäftsmodelle und als Hidden Champion von enormen Effizienzsteigerungen profitieren. Welche Herausforderungen und Barrieren sind zu überwinden?
Die KI-Technologien entwickeln sich sehr schnell und werden den nächsten großen Wandel in der IT gestalten. Doch auch sie selbst unterliegen dem Wandel und erleben verschiedene Herausforderungen und Veränderungen. Dazu gehören die Forderungen nach einer eindeutigeren Nachvollziehbarkeit sowie reduzierten Datenintensität.
IIoT-Lösungen, die auf einer Cloud-basierten Infrastruktur aufbauen, eröffnen die Möglichkeit, bestehende Geschäftsmodelle weiterzuentwickeln oder neue erfolgreich zu etablieren und die Wertschöpfung zu steigern. Die Anwender können zudem ihre Ressourcen auf die Verwendung der Lösung konzentrieren.
Künstliche Intelligenz (KI) befähigt Unternehmen, nicht nur ihre Prozesse zu optimieren, sondern auch Kunden besser zu bedienen und letztlich ihre Wettbewerbsfähigkeit zu verbessern. Mit welchen Herausforderungen müssen CIOs bei der praktischen Umsetzung rechnen?
Langwierige Analytics-Projekte bringen eher selten die erhofften Erkenntnisse. Wer nicht nur mehr datengetriebene Entscheidungen in seinem Unternehmen möchte, sondern auch die Sicherheit, dass die getroffenen Entscheidungen richtig sind, muss sich mit Augmented Analytics befassen.
Die beliebte Shazam-App erkennt musikalische Darbietungen, Fernsehprogramme sowie Werbung und bietet Usern weiterführende Informationen – nicht zuletzt auch über Augmented-Reality (AR). Doch das Prinzip „Shazamen“ werden wir schon bald für Datenlösungen in Unternehmen erleben.
Big Data und Analytics sind eine wichtige Ressource für Unternehmen, um in einem hart umkämpften Wettbewerbsumfeld zu bestehen. Folgende Big-Data-Trends werden sich in diesem Jahr auf die aktuellen IT-Landschaften auswirken.
Chirurgen mit 3D-Datenbrillen, individuell angepasste Therapien oder per Gentest identifizierte Krankheiten – alles noch Science-Fiction? Mit Big Data und lernfähigen Computerprogrammen wird das bald Realität werden.
Im Vergleich zu den Aktivitäten der US-Internetriesen und den massiven Förderungen des chinesischen Staates für Künstliche Intelligenz (KI) scheint es laut vieler Umfragen in Europa eher beschaulich zuzugehen. Spiegeln sie tatsächlich die Realität wider? Wir klären auf und differenzieren das Bild.
Die Blockchain und IOTA sind beide Distributed-Ledger-Anwendungen – und dennoch könnten sie kaum unterschiedlicher sein. Denn beide verfolgen nicht nur andere Ziele, sie sind auch noch von ihrer Struktur her vollkommen verschieden. Was sie jedoch vereint, ist ihr Potenzial.
Googles TensorFlow 2.0, eines der weltweit beliebtesten Open Source Frameworks für maschinelles Lernen, wurde unter anderem mit einer neuen Architektur, einfacherem Model Building mit Keras, vereinfachten API und neuer TF-Lite-1.0-Version umfassend aktualisiert.
Mithilfe Künstlicher Intelligenz (KI) treffen Maschinen bereits heute eigene Entscheidungen, die sogar viele Fachleute nicht mehr durchschauen können. Solche KI-Entscheidungen beeinflussen immer stärker auch das menschliche Leben. Droht ein Kontrollverlust? Sind Regeln ein Ausweg? Oder sind diese Bedenken einfach nur übertrieben
Beim Einsatz von Data Analytics kommen die Berater von McKinsey zu einem vernichtenden Urteil: Nur acht Prozent der Unternehmen können ihre Lösungen wirksam skalieren. Laut dem Befund der Berater liegen die Probleme nicht nur im technologischen, sondern auch im organisatorischen Bereich.
Die verteilte Streaming-Plattform Apache Kafka wurde für ein schnelles Verarbeiten und Speichern von Billionen von Datenströmen pro Tag entwickelt. Gleichzeitig stellt sie eine Schnittstelle zum Laden und Exportieren von Datenströmen zu Drittsystemen bereit.
Big-Data-Anwendungen basieren nicht auf einer einzigen Technologie, sondern sind im Grunde ein Zusammenspiel verschiedener Innovationen. Dafür reichen jedoch herkömmliche Technologien wie zum Beispiel klassische Datenbanken, Data Warehouse- oder Reporting-Lösungen bei weitem nicht aus.
Das Microsoft Cognitive Toolkit, vormals als Computational Network Toolkit (CNTK) bekannt, ist ein Deep Learning Framework für das Erstellen, Trainieren und Evaluieren von neuronalen Netzen. Im Vergleich zu Googles TensorFlow ist die Open-Source-Lösung von Microsoft eher auf Spracherkennung ausgelegt. Doch letztlich ähneln sich viele Algorithmen oder sind gar identisch.
Torch ist ein wissenschaftliches Deep Learning Framework mit beachtlichem Support an Algorithmen für das maschinelle Lernen. Auf Grund der einfachen Skriptsprache Lua und der C/CUDA-Implementierung ist das Open-Source-Paket sehr anwenderfreundlich und sorgt für beschleunigte Prozesse.
Das Deep Learning Framework Caffe ist auf Modularität, Skalierbarkeit und Schnelligkeit ausgelegt. Dadurch lassen sich unter anderem Modelle für Künstliche Intelligenz innerhalb nur weniger Stunden anstatt mehrerer Tage trainieren.
Das quelloffene TensorFlow von Google gehört mittlerweile zu den angesagtesten Frameworks für die Programmierung Neuronaler Netze, Deep-Learning-Modelle sowie andere Machine-Learning-Algorithmen. Wie gelingt der Einstieg mit TensorFlow und was leistet die jüngste Version 1.5?
Was passiert, wenn Qualität „Made in Germany“ mit japanischem Know-how kombiniert wird? Es entsteht der Qualitätsstandort von Fujitsu in Augsburg. Mit seiner „Smart Factory“ kann das Unternehmen jederzeit individuelle Kundenanfragen bedarfsgerecht erfüllen.
Googles TensorFlow bildet als Open-Source-Tool für verteilte Datenbanksysteme eine innovative Basis für neuronale Netze im Umfeld von Sprache und Bildverarbeitungsaufgaben. Damit setzt Google ein klares Signal, dass maschinelles Lernen nicht mehr nur als einer der vielen IT-Hypes stilisiert wird, sondern in der Realität angekommen ist. Und die Möglichkeiten sind gewaltig.
Insbesondere für den Mittelstand eröffnen sich mit dem Einsatz von KI-Technologien große Chancen: intelligente Gestaltung entlang der gesamten Wertschöpfungskette, völlig neue Geschäftsmodelle und als Hidden Champion von enormen Effizienzsteigerungen profitieren. Welche Herausforderungen und Barrieren sind zu überwinden?
Big-Data-Anwendungen basieren nicht auf einer einzigen Technologie, sondern sind im Grunde ein Zusammenspiel verschiedener Innovationen. Dafür reichen jedoch herkömmliche Technologien wie zum Beispiel klassische Datenbanken, Data Warehouse- oder Reporting-Lösungen bei weitem nicht aus.
Googles TensorFlow bildet als Open-Source-Tool für verteilte Datenbanksysteme eine innovative Basis für neuronale Netze im Umfeld von Sprache und Bildverarbeitungsaufgaben. Damit setzt Google ein klares Signal, dass maschinelles Lernen nicht mehr nur als einer der vielen IT-Hypes stilisiert wird, sondern in der Realität angekommen ist. Und die Möglichkeiten sind gewaltig.
Die KI-Technologien entwickeln sich sehr schnell und werden den nächsten großen Wandel in der IT gestalten. Doch auch sie selbst unterliegen dem Wandel und erleben verschiedene Herausforderungen und Veränderungen. Dazu gehören die Forderungen nach einer eindeutigeren Nachvollziehbarkeit sowie reduzierten Datenintensität.
Chirurgen mit 3D-Datenbrillen, individuell angepasste Therapien oder per Gentest identifizierte Krankheiten – alles noch Science-Fiction? Mit Big Data und lernfähigen Computerprogrammen wird das bald Realität werden.
Big Data und Analytics sind eine wichtige Ressource für Unternehmen, um in einem hart umkämpften Wettbewerbsumfeld zu bestehen. Folgende Big-Data-Trends werden sich in diesem Jahr auf die aktuellen IT-Landschaften auswirken.
Langwierige Analytics-Projekte bringen eher selten die erhofften Erkenntnisse. Wer nicht nur mehr datengetriebene Entscheidungen in seinem Unternehmen möchte, sondern auch die Sicherheit, dass die getroffenen Entscheidungen richtig sind, muss sich mit Augmented Analytics befassen.
IIoT-Lösungen, die auf einer Cloud-basierten Infrastruktur aufbauen, eröffnen die Möglichkeit, bestehende Geschäftsmodelle weiterzuentwickeln oder neue erfolgreich zu etablieren und die Wertschöpfung zu steigern. Die Anwender können zudem ihre Ressourcen auf die Verwendung der Lösung konzentrieren.
Das quelloffene TensorFlow von Google gehört mittlerweile zu den angesagtesten Frameworks für die Programmierung Neuronaler Netze, Deep-Learning-Modelle sowie andere Machine-Learning-Algorithmen. Wie gelingt der Einstieg mit TensorFlow und was leistet die jüngste Version 1.5?
Künstliche Intelligenz (KI) befähigt Unternehmen, nicht nur ihre Prozesse zu optimieren, sondern auch Kunden besser zu bedienen und letztlich ihre Wettbewerbsfähigkeit zu verbessern. Mit welchen Herausforderungen müssen CIOs bei der praktischen Umsetzung rechnen?
Im Vergleich zu den Aktivitäten der US-Internetriesen und den massiven Förderungen des chinesischen Staates für Künstliche Intelligenz (KI) scheint es laut vieler Umfragen in Europa eher beschaulich zuzugehen. Spiegeln sie tatsächlich die Realität wider? Wir klären auf und differenzieren das Bild.
Torch ist ein wissenschaftliches Deep Learning Framework mit beachtlichem Support an Algorithmen für das maschinelle Lernen. Auf Grund der einfachen Skriptsprache Lua und der C/CUDA-Implementierung ist das Open-Source-Paket sehr anwenderfreundlich und sorgt für beschleunigte Prozesse.
Die beliebte Shazam-App erkennt musikalische Darbietungen, Fernsehprogramme sowie Werbung und bietet Usern weiterführende Informationen – nicht zuletzt auch über Augmented-Reality (AR). Doch das Prinzip „Shazamen“ werden wir schon bald für Datenlösungen in Unternehmen erleben.
Die verteilte Streaming-Plattform Apache Kafka wurde für ein schnelles Verarbeiten und Speichern von Billionen von Datenströmen pro Tag entwickelt. Gleichzeitig stellt sie eine Schnittstelle zum Laden und Exportieren von Datenströmen zu Drittsystemen bereit.
Googles TensorFlow 2.0, eines der weltweit beliebtesten Open Source Frameworks für maschinelles Lernen, wurde unter anderem mit einer neuen Architektur, einfacherem Model Building mit Keras, vereinfachten API und neuer TF-Lite-1.0-Version umfassend aktualisiert.
Beim Einsatz von Data Analytics kommen die Berater von McKinsey zu einem vernichtenden Urteil: Nur acht Prozent der Unternehmen können ihre Lösungen wirksam skalieren. Laut dem Befund der Berater liegen die Probleme nicht nur im technologischen, sondern auch im organisatorischen Bereich.
Mithilfe Künstlicher Intelligenz (KI) treffen Maschinen bereits heute eigene Entscheidungen, die sogar viele Fachleute nicht mehr durchschauen können. Solche KI-Entscheidungen beeinflussen immer stärker auch das menschliche Leben. Droht ein Kontrollverlust? Sind Regeln ein Ausweg? Oder sind diese Bedenken einfach nur übertrieben
Das Microsoft Cognitive Toolkit, vormals als Computational Network Toolkit (CNTK) bekannt, ist ein Deep Learning Framework für das Erstellen, Trainieren und Evaluieren von neuronalen Netzen. Im Vergleich zu Googles TensorFlow ist die Open-Source-Lösung von Microsoft eher auf Spracherkennung ausgelegt. Doch letztlich ähneln sich viele Algorithmen oder sind gar identisch.
Das Deep Learning Framework Caffe ist auf Modularität, Skalierbarkeit und Schnelligkeit ausgelegt. Dadurch lassen sich unter anderem Modelle für Künstliche Intelligenz innerhalb nur weniger Stunden anstatt mehrerer Tage trainieren.
Die Blockchain und IOTA sind beide Distributed-Ledger-Anwendungen – und dennoch könnten sie kaum unterschiedlicher sein. Denn beide verfolgen nicht nur andere Ziele, sie sind auch noch von ihrer Struktur her vollkommen verschieden. Was sie jedoch vereint, ist ihr Potenzial.