Definition

Was ist Natural Language Processing?

| Autor / Redakteur: Tutanch / Nico Litzel

(© aga7ta - Fotolia)

Die Abkürzung NLP steht für Natural Language Processing und beschreibt Techniken und Methoden zur maschinellen Verarbeitung natürlicher Sprache. Ziel ist eine direkte Kommunikation zwischen Mensch und Computer auf Basis der natürlichen Sprache.

Natural Language Processing (NLP) versucht, natürliche Sprache zu erfassen und mithilfe von Regeln und Algorithmen computerbasiert zu verarbeiten. NLP verwendet hierfür verschiedene Methoden und Ergebnisse aus den Sprachwissenschaften und kombiniert sie mit moderner Informatik und künstlicher Intelligenz. Ziel ist es, eine möglichst weitreichende Kommunikation zwischen Mensch und Computer per Sprache zu schaffen. Dadurch sollen sich sowohl Maschinen als auch Anwendungen per Sprache steuern und bedienen lassen.

NLP muss Lösungen schaffen, um sowohl gesprochene als auch geschriebene Sprache zu erkennen, zu analysieren und den Sinn zur weiteren Verarbeitung zu extrahieren. Hierfür ist ein Verständnis nicht nur von einzelnen Wörtern und Sätzen, sondern das Erfassen von kompletten Textzusammenhängen und Sachverhalten notwendig. Eine Herausforderung für das Natural Language Processing stellt die Komplexität der menschlichen Sprache und deren Mehrdeutigkeit dar. Da Computer nicht wie Menschen auf Erfahrungen zum besseren Verstehen von Sprache zurückgreifen können, müssen sie Algorithmen und Verfahren der künstlichen Intelligenz und des Machine Learnings anwenden.

Um Textbedeutungen ganzheitlich zu erkennen, ist es notwendig, im Vorfeld große Datenmengen zu erfassen und bereits erkannte Muster für die Sinnanalyse heranzuziehen. Neben künstlicher Intelligenz und Machine Learning spielen Big-Data-Techniken hierfür eine wichtige Rolle.

Die verschiedenen Teilbereiche des Natural Language Processings

Natural Language Processing muss Sprache in Form von Schall oder Zeichenketten erfassen und den Sinn extrahieren. Hierfür nutzt NLP verschiedene Methoden und Techniken, die schrittweise bis zur vollständigen Erfassung der Bedeutung eines Textes zu durchlaufen sind. Folgende Teilbereiche des Natural Language Processings finden hierfür Anwendung:

  • Spracherkennung
  • Segmentierung zuvor erfasster Sprache in einzelne Wörter und Sätze
  • Erkennen der Grundformen der Wörter und Erfassung grammatischer Informationen
  • Erkennen der Funktionen einzelner Wörter im Satz (Subjekt, Verb, Objekt, Artikel, etc.)
  • Extraktion der Bedeutung von Sätzen und Satzteilen
  • Erkennen von Satzzusammenhängen und Satzbeziehungen

Da menschliche Sprache oft mehrdeutig ist, kann selbst ein vollständiger Durchlauf der verschiedenen zuvor beschriebenen Schritte nicht immer ein eindeutiges Ergebnis liefern. Selbst moderne künstliche Intelligenz und maschinelles Lernen stoßen an ihre Grenzen, wenn in der zu analysierenden Sprache Stilmittel wie die rhetorische Frage, Ironie oder beispielsweise ein Paradoxon zum Einsatz kommen.

Typische Anwendungsbereiche von Natural Language Processing

Natural Language Processing kommt bereits heute in vielen Bereichen zum Einsatz. Gleichzeitig ist NLP Gegenstand aktueller Forschung und entwickelt sich ständig weiter. Zukünftig wird Natural Language Processing eine noch wichtigere Rolle für die Schnittstelle zwischen Mensch und Computer einnehmen. NLP wird heute genutzt, um beispielsweise Text aus eingescannten Dokumenten zu extrahieren, sprachgesteuerte Assistenten auf mobilen Endgeräten wie Smartphones zu realisieren oder geschriebene und gesprochene Sprache in Echtzeit zu übersetzen.

Bereits in den nächsten Jahren sind deutliche Fortschritte durch den Einsatz verbesserter künstlicher Intelligenz, die neuen Möglichkeiten des Machine Learnings und leistungsfähigere Hardware zu erwarten. Es ergeben sich Anwendungsbereiche im Alltag wie das sinnhafte Zusammenfassen von langen Texten, das automatisierte Schreiben von Texten, das Erkennen von Stimmungen des Sprechenden und das Erfassen von Stilmitteln wie Ironie, rhetorischen Fragen oder Sarkasmus.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Mit intelligenten Tools zum Predictive Enterprise

Kommentar von Ulrike Kogler, Mindbreeze

Mit intelligenten Tools zum Predictive Enterprise

Was wäre, wenn es möglich wäre, abzuschätzen, welche Produkte und Dienstleistungen Kunden in Zukunft wollen, noch bevor diese bewusst danach fragen? Dies ist keine Fiktion, sondern bereits heute Realität. lesen

IntraFind stellt Content Analytics Suite vor

Entlastung für Mitarbeiter

IntraFind stellt Content Analytics Suite vor

In seiner Content Analytics Suite setzt das Münchner Unternehmen IntraFind auf Machine und Deep Learning. Sie enthält einen kompletten, auf Künstlicher Intelligenz (KI) basierenden Technologie-Stack und soll Mitarbeiter von Standardaufgaben entlasten. lesen

Welche Analytics-Trends sind einsatzbereit?

Kommentar von Paul Bremhorst, Tableau Software

Welche Analytics-Trends sind einsatzbereit?

Business-Analytics-Anwendungen stehen auf dem Markt für Unternehmenssoftware weiterhin hoch im Kurs und stellen eine Kernkomponente bei der digitalen Transformation jeder Organisation dar. Neue Technologien, die zur Weiterentwicklung solcher Anwendungen dienen, sind jedoch noch nicht alle voll einsatzbereit. Technologieanbieter müssen deshalb in der Lage sein, ausgereifte Trends, die schon heute auf reale Geschäftsszenarien angewendet werden können, von Trends zu unterscheiden, die erst noch Gestalt annehmen müssen lesen

Erweiterungen für Webfocus und Omni-Gen

Neue Funktionen

Erweiterungen für Webfocus und Omni-Gen

Information Builders stellt Erweiterungen für seine BI- und Analyse-Plattform Webfocus sowie die Datenmanagement-Plattform Omni-Gen vor. lesen

Tibco will alles mit allem intelligent verbinden

Nachbericht Tibco Now 2017 in Berlin

Tibco will alles mit allem intelligent verbinden

Unter dem Begriff „Connected Intelligence“ hat der BI-Spezialist Tibco in Berlin eine Reihe von neuen Produkten vorgestellt, die IT-Anwendern helfen sollen, die Vorteile der Cloud und des Internets der Dinge (IoT) zu nutzen. lesen

Wie viel künstliche Intelligenz brauchen Chatbots?

Kommentar von Dr. Thomas Wilde, BIG Social Media

Wie viel künstliche Intelligenz brauchen Chatbots?

Watson gewinnt bei Schach, Jeopardy und Poker, Siri und Alexa verstehen uns aufs Wort. Möglich macht das künstliche Intelligenz (KI). Eine der Technologien, die dazu beiträgt, dass KI als die neue Wunderwaffe in der Dialogführung per Chatbot gilt, heißt Natural Language Processing. Bots, die Natural Language Processing einsetzen, können unstrukturierte, textliche Informationen verstehen und ebenfalls in natürlicher Sprache antworten. Echte Dialoge werden möglich. Dabei sind riesige KI-Ressourcen in den Clouds der diversen Anbieter – IBM Watson ist nur eine prominente Variante – verfügbar, skalierbar und erschwinglich. Das klingt gut? Ist es aber nicht in jedem Fall. lesen

Kognitive Suche – bringt sie den Durchbruch für Enterprise Search?

Big Data

Kognitive Suche – bringt sie den Durchbruch für Enterprise Search?

Im Zuge der Digitalisierung geht es für die Unternehmen vor allem darum, mehr aus ihren Daten herauszuholen. Eine der größten Herausforderungen dabei stellt die Auswertung von Text- bzw. von Menschen generierten Daten dar. Denn 80 bis 90 Prozent des Big-Data-Bestandes sind unstrukturiert. Eine neue Generation von Enterprise Search-Plattformen soll den Durchbruch bringen. lesen

Infosys stellt Nia vor, eine Plattform für Künstliche Intelligenz

Künstliche Intelligenz löst komplexe Geschäftsprobleme

Infosys stellt Nia vor, eine Plattform für Künstliche Intelligenz

„Infosys Nia“ folgt „Infosys Mana“und der Robotic-Process-Automation (RPA) „Assist Edge“ nach. Die beiden Produkte haben zusammen innerhalb eines Jahres über 150 Einsätze für mehr als 50 Kunden aus verschiedenen Branchen absolviert. lesen

Teradata rückt Beratung und Geschäftsnutzen stärker in den Vordergrund

Nachbericht Teradata Universe EMEA 2017

Teradata rückt Beratung und Geschäftsnutzen stärker in den Vordergrund

Teradata lud Anfang April ins südfranzösische Nizza zur europäischen Ausgabe der Hausmesse Teradata Universe ein. Rund 1.000 Teilnehmer ergriffen die Gelegenheit und informierten sich über aktuelle Analytics-Kundenprojekte. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44576499 / Definitionen)