Watson-APIs aus der Cloud

Kognitive API revolutioniert Bild- und Spracherkennung

| Autor / Redakteur: Thomas Drilling / Nico Litzel

IBM erweitert die kognitiven Fähigkeiten der BI-Lösung Watson.
IBM erweitert die kognitiven Fähigkeiten der BI-Lösung Watson. (Bild: IBM)

Die IBM hat drei neue sowie erweiterte kognitive APIs für ihre Business Intelligence Suite vorgestellt, die die „emotionalen“ und visuellen Fähigkeiten von Watson erweitern sollen.

Ab sofort sind die drei neuen Watson-APIs „Tone Analyzer“, „Emotion Analysis“ und „Visual Recognition“ in einer Beta-Version in IBMs Entwicklungsplattform Watson Developer Cloud auf Bluemix verfügbar.

Sie bauen auf die bereits existierenden Watson-APIs auf, die ihrerseits auf den Fortschritten in der natürlichen Sprachverarbeitung, dem maschinellen Lernen sowie Deep Learning basieren.

Ferner hat IBM die Text-to-Speech-API (TTS) überarbeitet und mit erweiterten emotionalen Fähigkeiten ausgestattet. Quasi „re-released“ ist TTS ab sofort in Form von Expressive TTS allgemein verfügbar.

Mithilfe dieser APIs interagieren Menschen, Maschinen und Sensoren miteinander. Sie versetzen Watson-Entwickler außerdem in die Lage, kognitive Technologien so einzubetten, dass die entstehenden Lösungen quasi denken, wahrnehmen und fühlen.

Mit den neuen APIs umfasst die offene Watson-Plattform nun mehr als 30 Watson-Dienste. Ergänzend zu den neuen APIs stellt IBM weitere Tools und Developing Kits wie iOS Swift, Node, Java, Python zur Verfügung, sodass Unternehmen mit Watson schnell und einfach kognitive Anwendungen entwickeln können.

Sprache und Bilder erkennen – und verstehen

Mit Tone Analyzer analysiert Watson nun auch Gefühle, wie Spaß, Freude, Traurigkeit, Angst oder Ablehnung genauso wie soziale Neigungen, wie Offenheit oder die gesamte emotionale Bandbreite. Mit der neuen Beta-Version analysiert Tone Analyzer zudem nicht mehr nur einzelne Wörter, sondern komplette Sequenzen.

Emotion Analysis dagegen nutzt eine ausgeklügelte Erkennungstechnik natürlicher Sprache zum Analysieren externen Contents, um die die Gefühle Dritter besser zu verstehen, während Visual Recognition Watson erweiterte visuelle Fähigkeiten verleiht und das System in die Lage versetzt, Bilder zu verstehen.

Schließlich stattet die Text-to-Speech-API das System quasi mit emotionaler Intelligenz aus. Expressive Text-to-Speech ist laut IBM das Ergebnis von zwölf Jahren Forschung und Entwicklung. Mit Expressive TTS sind kognitive Systeme erstmals in der Lage, auf einem erweiterten Level Gefühle in gesprochener Interaktion zu erkennen und zu erlernen.

Das bedeutet, dass Computer von nun an nicht mehr nur Gesprochenes erkennen, sondern im Kontext und anhand der Tonart“ tatsächlich verstehen und im angemessenen Tonfall antworten können.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43899283 / Analytics)