Definition

Was ist Cognitive Computing?

| Autor / Redakteur: Stefan Luber / Nico Litzel

(Bild: © aga7ta - stock.adobe.com)

Cognitive Computing nutzt Technologien der Künstlichen Intelligenz, um menschliche Denkprozesse zu simulieren. Ziel ist es, auf Basis von Erfahrungen eigene Lösungen und Strategien zu entwickeln. Die Systeme interagieren in Echtzeit mit ihrem Umfeld und verarbeiten große Datenmengen.

Eine eindeutige und allgemeingültige Definition für Cognitive Computing existiert nicht. In der Regel versteht man unter Cognitive Computing Computermodelle oder Computersysteme, die Technologien der Künstlichen Intelligenz (KI) wie Deep Learning oder Data Mining nutzen, um menschliche Lern- und Denkprozesse zu simulieren. Kognitiv arbeitende Systeme sind im Vorfeld nicht auf konkrete Problemlösungen programmiert, sondern lernen selbstständig durch die gemachten Erfahrungen und gesammelten Daten. Sie entwickeln eigene Lösungen und Strategien durch die Analyse der Datenbasis. Die selbstlernenden IT-Systeme sind in der Lage, in Echtzeit mit Ihrem Umfeld zu interagieren und berücksichtigen die erhaltenen Informationen für ihre eigenständig entwickelten Erkenntnisse. Hierfür ist es erforderlich, große Datenmengen zu speichern und sie in hoher Geschwindigkeit zu verarbeiten und zu analysieren.

Da die Daten in vielen verschiedenen Formaten unstrukturiert vorliegen, kommen Techniken und Datenbanksysteme aus dem Big-Data-Umfeld zum Einsatz. Ziel des Cognitive Computing ist es, intelligente Computersysteme zu schaffen, die selbstständig, ohne menschliche Hilfe, Probleme lösen und Lösungsvorgänge automatisieren. Kernkomponenten des Cognitive Computing sind Algorithmen des maschinellen Lernens, die die vorliegenden Daten kontinuierlich nach Mustern untersuchen und ihre Analysemethoden ständig verfeinern.

Viele der Systeme nutzen die Spracherkennung für die direkte Kommunikation mit dem Menschen. Cognitive Computing kommt in verschiedenen Bereichen zum Einsatz und wird beispielsweise für die voraussehende Wartung (Predictive Maintenance) oder im E-Commerce-Umfeld für Produktempfehlungen verwendet. Weitere Anwendungsgebiete sind die Medizin, die Robotik oder die virtuelle Realität. Eine sehr bekannte Implementierung des Cognitive Computing ist das IBM-Computersystem „Watson“.

Die wichtigsten Voraussetzungen für kognitive Computersysteme

Wichtigste Voraussetzung für das Cognitive Computing ist die Fähigkeit, aus den gemachten Erfahrungen selbstständig zu lernen. Gleichzeitig sind die eigenen Lösungsansätze ständig zu reflektieren und zu hinterfragen. Damit die Systeme ähnlich dem menschlichen Gehirn arbeiten, sind weitere Voraussetzungen zu erfüllen. Die Kommunikation mit Menschen und dem Umfeld muss interaktiv und in Echtzeit erfolgen. Die kognitiven Systeme müssen zudem anpassungsfähig sein und berücksichtigen, dass sich Informationen ändern oder nicht eindeutig sind. Hierfür ist es erforderlich, Daten nahezu in Echtzeit zu verarbeiten.

Wichtig ist, dass beim Cognitive Computing sämtliche Informationen in ihrem Kontext wahrgenommen werden. Dazu gehören kontextbezogene Merkmale wie Zeit, Ort und Personen, die die Bedeutung von Informationen beeinflussen. Als Eingabe-Methoden sind text-, sprach- oder gestenbezogene Eingaben zu unterstützen.

Cognitive Computing und Big-Data-Technologien

Ein wesentliches Merkmal des Cognitive Computing ist, dass riesige Datenmengen unterschiedlichster Art gespeichert und binnen kürzester Zeit verarbeitet werden müssen. Da die Daten in der Regel in unstrukturierter Form vorliegen, lassen sich herkömmliche relational arbeitende, SQL-basierte Datenbanksysteme für Cognitive Computing nicht effizient einsetzen. Es kommen Techniken und Datenbanksysteme aus dem Big-Data-Umfeld zum Einsatz, die No-SQL-Ansätze verfolgen und große Datenmengen in nahezu Echtzeit verarbeiten. Nur so ist es den kognitiv arbeitenden Systemen möglich, die Daten schnell aufzubereiten, anzureichern und zu verstehen.

Anwendungsmöglichkeiten und Beispiele für Cognitive Computing

Für Cognitive Computing ergibt sich eine große Vielfalt verschiedener Anwendungsmöglichkeiten. Schon heute werden kognitive Systeme und Künstliche Intelligenz im Finanzwesen, in der Medizin, im Marketing oder in der Industrie und im Internet of Things (IoT) eingesetzt. Im E-Commerce ist Cognitive Computing in der Lage, auf Basis von analysiertem Kundenverhalten und Nutzerprofilen exakt passende Produktempfehlungen zu liefern. Sprachcomputer von Telefon-Hotlines erkennen mit kognitiven Methoden die Eingaben und Anliegen der Anrufer und liefern selbstständig geeignete Lösungen.

Suchmaschinenanbieter nutzen Cognitive Computing, um bessere Ergebnisse für unterschiedlichste Suchanfragen bereitzustellen. Es lassen sich komplexe, mehrstufige Suchanfragen besser verstehen und Ergebnisse mit höherer Relevanz liefern. In der Medizin ist es durch die Auswertung von Bildern und dem Vergleich mit anderen Aufnahmen möglich, Rückschlüsse auf Erkrankungen zu ziehen. Es existieren Systeme, die Radiologen bei ihrer Arbeit unterstützen und Röntgenbilder oder MRT-Befunde analysieren. Zweck dieser Systeme ist es, die Fehlerquote bei Diagnosen zu senken und das Übersehen von Krankheitsbildern zu verhindern.

Damit Cognitive Computing dies leisten kann, sind die Systeme mit einer Vielzahl an radiologischen Bildern auszustatten und mithilfe Künstlicher Intelligenz zu trainieren. Beim autonomen Fahren lernen kognitive Computersysteme mithilfe von Sensordaten, GPS-Informationen und den bereits gemachten Erfahrungen, Fahrzeuge selbstständig zu fahren und bei Eintritt bestimmter Ereignisse die richtigen Entscheidungen zu treffen. Weitere Anwendungsbereiche für Cognitive Computing sind die Gesichtserkennung oder das Kundenbeziehungsmanagement.

Cognitive Computing und das Computersystem Watson von IBM

Ein sehr bekanntes Beispiel für Cognitive Computing ist das von IBM entwickelte Computersystem Watson. Es ist eng mit dem Begriff Cognitive Computing verbunden und erlangte im Jahr 2011 weltweite Bekanntheit, als es in der englischen Quizshow „Jeopardy!“gegen Menschen antrat. Watson beantwortete Fragen selbstständig und sinnvoll. Selbst Dialekte und Zweideutigkeiten oder Wortwitze konnte das System erkennen. IBM sieht Watson als ein wichtiges Element seiner Strategie im Bereich KI und verfolgt das Ziel, Problemlösungsverfahren zu revolutionieren. Hierfür verwendet IBM evidenzbasiertes Lernen und die Deep-Content-Analyse.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Qlik setzt auf Augmented Intelligence und die Multi-Cloud

Nachbericht Qlik Data Revolution Tour 2019

Qlik setzt auf Augmented Intelligence und die Multi-Cloud

Auf der Kundenveranstaltung „Data Revolution Tour 2019“ zeigte der BI-Anbieter Qlik die breite Palette seiner Angebote in einer Multi-Cloud-Plattform. Sie werden u. a. bei Porsche AG genutzt. An Neuheiten stellte die Forschungsleitern Elif Tutuk „Qlik Insight Bot“ und „Qlik Insight Advisor“ mit Sprachunterstützung vor. lesen

So funktioniert Process Mining mit Microsoft Power BI

Kommentar von Nils Reger, AppSphere

So funktioniert Process Mining mit Microsoft Power BI

Die Analyse von Daten und insbesondere Prozessdaten wird zunehmend wichtiger. Der Begriff des sogenannten „Process Minings“ wurde unter anderem von Wil van der Aalst als Brücke zwischen der traditionellen, modellbasierten Prozessanalyse und datenzentrierten Analyseverfahren wie Machine Learning und Data-Mining-Techniken definiert. Das Ziel: prozessrelevante Informationen zu extrahieren, zu visualisieren und so Optimierungspotenziale in Prozessen aufzudecken. lesen

Cognitive Services und Content Analytics heben das Datengold

Kommentar von Dr. Gregor Joeris, SER Group

Cognitive Services und Content Analytics heben das Datengold

Für Künstliche Intelligenz (KI) eröffnet sich ein weites Einsatzfeld in Unternehmen – von der Automatisierung von Routinetätigkeiten bis zur Optimierung des Kundenservices. Allerdings muss die Qualität der Daten stimmen, mit denen die KI gefüttert wird. Neue Content-Services-Plattformen integrieren KI im Kern der Software und ermöglichen damit eine intelligente Analyse und Nutzung aller Daten über das ganze Unternehmen. lesen

Das war der IOT Solutions World Congress

Event

Das war der IOT Solutions World Congress

Ende Oktober fand in Barcelona mit dem IOTSWC eine der zentralen Veranstaltungen zum Thema Internet of Things statt. Im Mittelpunkt stand der Wert von Daten im Kontext der Transformation von ganzen Branchen und Geschäftsmodellen. lesen

Schenker stellt Systeme für lokales KI-Training vor

AI Station und AI Laptop

Schenker stellt Systeme für lokales KI-Training vor

Mit den neuen AI-Station- und AI-Laptop-Produktlinien bietet Hardware-Hersteller Schenker Systeme an, die auf das lokale Training von KIs spezialisiert sind. Sie basieren auf Ubuntu und bringen eine Vielzahl nötiger KI-Programmbibliotheken gleich mit. lesen

Was in Zukunft wichtig wird – Trends der Datenanalyse

Kommentar von Tom Becker, Alteryx

Was in Zukunft wichtig wird – Trends der Datenanalyse

Mittlerweile ist jedem klar geworden – Datenanalyse ist wichtig wie nie. Viele Unternehmen haben bereits begonnen, finanzielle und strategische Vorteile aus datenbasierten Entscheidungen zu ziehen. Kann man es sich also überhaupt noch leisten, zu warten? Welche Veränderungen sind bereits absehbar und was sind die großen Trends? lesen

Machine Learning ist auf dem Vormarsch

E-Book von BigData-Insider

Machine Learning ist auf dem Vormarsch

Seit 2017 das erste E-Book von BigData-Insider zu Cognitive Computing veröffentlicht wurde, hat die Technologie um Machine Learning einen rasanten Aufschwung erlebt. Kaum noch ein Anwendungsbereich, in dem noch keine Algorithmen in den Prozessen werkeln – von der Fabrik bis zur ISS-Raumstation lesen

Qlik erweitert Multi-Cloud- und Augmented-Intelligence-Angebot

Für nahtlose, KI-gestützte Analytics

Qlik erweitert Multi-Cloud- und Augmented-Intelligence-Angebot

Im Rahmen seines jährlichen Kunden- und Partnerevents Qonnections hat Qlik eine Reihe an Neuheiten rund um Multi-Cloud und Augmented Intelligence vorgestellt. lesen

Tools für Business Intelligence

E-Book von BigData-Insider

Tools für Business Intelligence

Der Wettbewerb in der Wirtschaft ist scharf und wird in der global vernetzten Wirtschaft zunehmend härter. Führungskräfte und Sachbearbeiter wollen schneller und genauer erfahren, wie leistungsfähig die operativen Systeme des eigenen Unternehmens sind und wie sie sich im wirtschaftlichen Umfeld noch besser durchsetzen können. Zudem wollen sie zusätzliche Geschäftsfelder erschließen und neue Businessmodelle entwickeln. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 44877401 / Definitionen)