Електронний багатомовний

термінологічний словник

Electronic Multilingual Terminological Dictionary


Linguistik

Verarbeitung natürlicher Sprache

In den 90iger Jahren wurde maschinelles Lernen von Arthur Samuel als die Fähigkeit von Computern selbstständig zu lernen, ohne dass von Menschen Code programmiert werden muss, beschrieben. Ein Computer Programm oder Algorithmus lernt von seinen eigenen Leistungen und Erfahrungen in der Ausführung von spezifischen Aufgaben und Handlungsabläufen. Mit fortschreitenden Wiederholungen und/oder mit neuen Daten werden in der Folge eigenständig verbesserte Vorgehensweisen entdeckt und angewendet. Damit ist eine wesentliche Grundlage für künstliche Intelligenz (KI) geboten. Ein äußerst interessanter Teilbereich des maschinellen Lernens ergibt sich in der Kommunikation. Zum einen von Computern untereinander und zum anderen von Computern mit Menschen durch die Nutzung von natürlicher Sprache. Das sogenannte Natural Language Processing (NLP) beschäftigt sich deshalb damit, Computern beizubringen menschliche Sprache zu verstehen und anwenden zu können. [2]
Anwendungsbereiche von Natural Language Processing (NLP)
Sprach- und Textsteuerung sind in eine Vielzahl von Anwendungen integriert. Die prominenteste Verwendung finden sie in: Sprachanwendungen, wie Übersetzungsapplikationen, z.B. Google Translate. Korrekturprogrammen, wie in Word oder Grammarly, die NLP verwenden, um Texte auf grammatische Fehler hin zu untersuchen. Interaktiven Spracherkennungssystemen, die häufig in Call Centern verwendet werden, um Optionen auszuwählen. Persönlichen Sprachassistenten, wie Alexa, Siri oder Google Assistent, die eine Vielzahl von Funktionen auf dem Smartphone und im Eigenheim bieten. Automatisierten Chatsystemen in denen der Kundenservice durch automatisierte und künstlich intelligente Bots erweitert und unterstützt wird. [2]
So funktioniert Natural Language Processing
Die Anwendungsfelder für Natural Language Processing sind unerschöpflich aber wie funktioniert die Verarbeitung von natürlicher Sprache eigentlich wirklich?
Generell kann NLP in drei Bereiche untergliedert werden:
Spracherkennung: Die Verarbeitung von gesprochenen Worten in für Maschinen verständlichen Text. Verständnis von natürlicher Sprache: Die Fähigkeit des Computers zu verstehen was wir sagen. Formulierung von natürlicher Sprache: Das Erstellen und Schaffen von natürlicher Sprache durch einen Computer. Durch eine Mischung von syntaktischen und semantischen Analysetechniken kann Sprache von Computern verstanden werden. Syntax beschreibt die grammatische Struktur eines Satzes und Semantik die zu vermittelnde Aussage.
Bei der syntaktischen Analyse wird die natürliche Sprache daraufhin untersucht, ob sie den formalen grammatischen Regeln entspricht. Hier werden Worte nicht individuell betrachtet, sondern vielmehr als Gruppen und wie sie miteinander in Verbindung stehen.
Die semantische Analyse bezieht sich auf das Verständnis, die Meinung und Interpretation von Worten und Satzstrukturen. Auf diese Weise können Computer ähnlich zu uns Menschen verstehen wie natürliche Sprache funktioniert. Dies ist allerdings der herausforderndste Aspekt der Sprachverarbeitung, denn selbst wir Menschen haben tausende Jahre gebraucht, um unsere differenzierten Sprachen zu entwickeln und zu verstehen. [2]
Interaktionsablauf bei der Nutzung von NLP Systemen
• Der Mensch spricht zu der Maschine
• Die Maschine nimmt die auditiven Reize auf
• Audio Signale werden in Text umgewandelt
• Der Text wird syntaktisch und semantisch aufgegliedert und analysiert
• Daraufhin evaluiert die Maschine Antwort- und Handlungsoptionen
• Verarbeitung der Handlungen als Daten in auszugebende Audio- oder Textsignale
• Kommunikation zwischen Maschine und Mensch durch verfügbare Sprach- oder Textbausteine
Schwierigkeiten in der Entwicklung von natürlichem Sprachverständnis
Wir verwenden Sprache ganz selbstverständlich, weil wir von Kindheitstagen an unseren eigenen Sprachcomputer im Gehirn trainieren. Allerdings ist es ein äußerst komplexes System, das durch unterschiedliche Symbole Bedeutung vermittelt.
Das kann auf verschiedenste Weisen ablaufen und geschieht durch eine kontinuierliche Aktivierungierung unserer Sprachzentren, die durch akustische und visuelle Reize angesprochen werden.
Deshalb ist das Verstehen von menschlicher Sprache auch ein langwieriger Prozess. So können beispielsweise Worte auf unendlich viele Weisen miteinander kombiniert werden oder unterschiedliche Bedeutungen je nach Kontext haben. Die Informationen über den Kontext sind außerdem häufig kulturell geprägt und deshalb nicht einfach von einer Maschine zu verstehen.
Sprachen sind äußerst individuell und mehrdeutig und Computer müssen erst noch lernen alle vorhandenen Informationen zu verarbeiten und zu deuten. Es geht mehr oder weniger darum alle im Internet vorhandenen Informationen zu verarbeiten und so eine tatsächlich eigenständige künstliche Intelligenz zu schaffen.
Deep Learning ist die Grundlage der natürlichen Sprachverarbeitung
Um die Sprachverarbeitung weiterzuentwickeln, gilt es die Prozesse des Deep Learnings und NLP zu vereinen. Zentral für das Verständnis von Sprache ist vor allem die Bedeutung von Wortgruppen und ihren Beziehungen zueinander. Möchten Sie Neuigkeiten wie diese wöchentlich in Ihre Inbox erhalten? Hier den Newsletter abonnieren. Deep Learning ermöglicht es eine Sprache fortlaufend zu analysieren und so immer mehr über die Strukturen und Meinungsdimensionen von natürlicher Sprache zu lernen. Tiefgehende neuronale Netzwerke sind die Folge und bilden die Basis für eine künstliche Intelligenz, die vollkommen autonom agieren kann. Zwar sind wir an diesem Punkt noch nicht ganz angekommen, allerdings sind schon die heutigen KI-Lösungen in der Lage sich selbstständig zu verbessern und durch umfassende Datenanalyse neue Einblicke zu gewinnen. Prozesse werden dadurch vereinfacht und aufgewertet, häufig mit völlig neuen Ansätzen. Bei Onlim spezialisieren wir uns auf die Entwicklung und Integration von intelligenten Lösungen für Ihr Unternehmen und unterstützen Sie gerne bei der Implementierung von Sprachassistenten und Chatbots. Klicken Sie hier, um mehr zu erfahren und die Vorteile unserer hochentwickelten NLP Systeme und Anwendungen zu nutzen. [2]
Natural Language Processing (NLP) beschreibt die Schnittstelle zwischen der Linguistik und der Computer Science. NLP beschreibt die Erkennung, Verarbeitung und Informationsgewinnung eines Algorithmus aus natürlicher Sprache. Natürliche Sprache ist von Mensch zu Mensch individuell, deshalb versuchen NLP-Algorithmen mithilfe von Text- und/oder Tonbausteinen Zusammenhänge zu erkennen und zu identifizieren. Es wird demnach die natürliche Sprache in ein System gebracht, dass der Computer versteht. [3]
Was ist Natural Language Processing?
Natural Language Processing (NLP) ist ein Teilbereich der Künstlichen Intelligenz, der die Schnittstelle zwischen Linguistik und Computer Science darstellt. NLP (dt. natürliche Sprachverarbeitung) beschreibt die Erkennung, Verarbeitung und Informationsgewinnung eines Algorithmus aus natürlicher Sprache. Da sich die Anwendung der natürlichen Sprache individuell von Mensch zu Mensch unterscheidet, z.B. durch Dialekte, Akzente oder grammatikalische Fehler, versuchen NLP-Algorithmen Zusammenhänge aus Text- oder Tonbausteinen zu erkennen und zu identifizieren. Es wird demnach die natürliche Sprache in ein System gebracht, dass der Computer versteht. NLP ermöglicht es einem Computer natürliche Sprache sowohl in gesprochener Form als auch in textlicher Form zu erkennen, zu verarbeiten und Informationen zu Gewinnen. [3]
Wie funktioniert Natural Language Processing?
NLP-Algorithmen können sowohl gesprochene Sprache als auch geschriebene Sprache verarbeiten. Generell kategorisiert man die Sprache in Sätzen vorerst in einzelne Bausteine, wie Nomen, Adjektive oder Adverbien, um die Sprache dem Computer zugänglicher zu machen. Zu textlichen Bausteinen muss der Computer jedoch auch Zusammenhänge verstehen, wenn z.B. ein Wort mehrere Bedeutungen. Hierfür werden Satzbauregeln beigebracht, sozusagen Grammatik. Auf diese beiden Kategorien hingehend werden Sätze oder Wortzusammenschlüsse getestet und machen es dem Algorithmus möglich natürlich Sprache zu vers
tehen. Einfache Befehle wie: „Stelle mir einen Wecker für 07:00 Uhr“ können dadurch mit einem Smartphone ausgeführt werden. Betrachtet man jetzt nochmals den Unterschied zwischen geschriebener und gesprochener Sprache, wird bei der gesprochenen Sprache zunächst, statt die Texte zu verarbeiten die Audioquelle verarbeitet. Dabei werden die Audiowellen, die bei der Aussprache erzeugt werden vom Algorithmus erkannt und mittels Audiomuster verarbeitet. Dabei werden Wörter durch die genaue Erkennung der Sprache und die Betrachtung im Kontext des Satzes erkannt. [3]
Beispiele für Natural Language Processing:
Diktieren von Texten. Man Spricht in ein Mikrofon, der NLP-Algorithmus erkennt die Sprache und schreibt die Wörter digital auf.
• Sprachsteuerung auf dem Smartphone
• Korrektur von Texten auf inhaltliche und grammatikalische Schwachstellen.
• Übersetzung von Texten in andere Sprachen
• Schreiben mit dem Chatbot. Chatbots ermöglichen die automatisierte Beantwortung von Texten z.B. im Kundenservice ermöglicht der Chatbot eine genauere Identifikation des Problems und eine zielgerichtete Weiterleitung an richtige Ansprechpartner. [3]
Natural Language Processing in der Zukunft:
Die nächste Stufe der natürlichen Sprachverarbeitung ist die Generierung von natürlicher Sprache. Das beschreibt die Natural Language Generation. Es wird ermöglicht, dass ein Computer ohne vorgegebene Sätze ganze Texte generieren kann. Hierdurch können Themeninhalte vorgegeben werden und der Algorithmus schreibt darauf basierend ganze Texte. Einsatz findet diese Technologie bereits heute in der Berichterstattung für Börsenneuigkeiten oder Wetternachrichten. [3]
Natural Language Processing (NLP) ist ein Teilbereich der Informatik, Informationstechnik und künstlichen Intelligenz, der sich mit den Interaktionen zwischen Computern und menschlichen (natürlichen) Sprachen befasst, insbesondere der Programmierung von Computern zur Verarbeitung und Analyse großer Datenmengen natürlicher Sprache.
Herausforderungen bei der Verarbeitung natürlicher Sprache beinhalten häufig Spracherkennung, Verständnis natürlicher Sprache und Erzeugung natürlicher Sprache.
Geschichte
Die Geschichte der Verarbeitung natürlicher Sprache begann im Allgemeinen in den 1950er Jahren, obwohl Arbeiten aus früheren Perioden gefunden werden können. Im Jahr 1950 veröffentlichte Alan Turing einen Artikel mit dem Titel „Intelligence“, in dem der sogenannte Turing-Test als Kriterium der Intelligenz vorgeschlagen wurde. [4]
Das Georgetown-Experiment im Jahr 1954 beinhaltete die vollautomatische Übersetzung von mehr als 60 russischen Sätzen ins Englische. Die Autoren behaupteten, dass die maschinelle Übersetzung in drei oder fünf Jahren ein gelöstes Problem sein würde. Der reale Fortschritt verlief jedoch viel langsamer. Nach dem ALPAC-Bericht von 1966, in dem festgestellt wurde, dass zehn Jahre lang die Forschung die Erwartungen nicht erfüllt hatte, wurden die Mittel für die maschinelle Übersetzung drastisch gekürzt. Bis in die späten achtziger Jahre, als die ersten statistischen Maschinenübersetzungssysteme entwickelt wurden, wurde wenig Forschung im Bereich der maschinellen Übersetzung durchgeführt. [4]
Einige bemerkenswert erfolgreiche Systeme für die Verarbeitung natürlicher Sprache, die in den 1960er Jahren entwickelt wurden, waren SHRDLU, ein System für natürliche Sprache, das in beschränkten „Blockwelten“ mit eingeschränktem Vokabular arbeitet, und ELIZA, eine Simulation eines Rogerianischen Psychotherapeuten, die zwischen 1964 und 1966 von Joseph Weizenbaum geschrieben wurde Keine Informationen über menschliche Gedanken oder Emotionen, ELIZA bot manchmal eine überraschend menschliche Interaktion. Wenn der „Patient“ die sehr kleine Wissensbasis überstieg, könnte ELIZA eine generische Antwort geben, beispielsweise auf „Mein Kopf tut weh“ mit „Warum sagen Sie, Ihr Kopf tut weh?“. [4]
In den 70er Jahren begannen viele Programmierer, „konzeptuelle Ontologien“ zu schreiben, die reale Informationen in computerlesbare Daten strukturierten. Beispiele sind MARGIE (Schank, 1975), SAM
(Cullingford, 1978), PAM (Wilensky, 1978), TaleSpin (Meehan, 1976), QUALM (Lehnert, 1977), Politics (Carbonell, 1979) und Plot Units (Lehnert 1981) ). In dieser Zeit wurden viele Chatterbots geschrieben, darunter PARRY, Racter und Jabberwacky. [4]
Viele der bemerkenswerten frühen Erfolge waren im Bereich der maschinellen Übersetzung zu verzeichnen, insbesondere aufgrund der Arbeit bei IBM Research, wo nach und nach kompliziertere statistische Modelle entwickelt wurden. Diese Systeme konnten die vorhandenen mehrsprachigen Textkorpora nutzen, die vom Parlament von Kanada und der Europäischen Union als Ergebnis von Gesetzen erstellt worden waren, die die Übersetzung aller Regierungsverfahren in alle Amtssprachen der entsprechenden Regierungssysteme forderten. Die meisten anderen Systeme waren jedoch auf Corpora angewiesen, die speziell für die von diesen Systemen ausgeführten Aufgaben entwickelt wurden. Dies war (und bleibt auch weiterhin) eine wesentliche Einschränkung für den Erfolg dieser Systeme. Infolgedessen wurde viel erforscht, wie man aus begrenzten Datenmengen effektiver lernen kann. [4]
In den 2010er Jahren waren Repräsentationslernen und maschinelle Lernmethoden mit tiefen neuronalen Netzwerken im Bereich der Verarbeitung natürlicher Sprache weit verbreitet, was zum Teil auf eine Vielzahl von Ergebnissen zurückzuführen ist, die zeigen, dass solche Techniken in vielen Aufgaben der natürlichen Sprache State-of-the-Art-Ergebnisse erzielen können. zum Beispiel bei der Sprachmodellierung, beim Parsen und vielen anderen. Zum Beispiel betont der Begriff „Neural Machine Translation“ (NMT) die Tatsache, dass tief lernorientierte Ansätze zur maschinellen Übersetzung Sequenz-zu-Sequenz-Transformationen direkt erlernen, so dass keine Zwischenschritte wie Wortausrichtung und Sprachmodellierung erforderlich sind, die in der Statistik verwendet wurden maschinelle Übersetzung (SMT). [4]

Quellen:

Verarbeitung natürlicher Sprache. – Ressource: https://www.hisour.com/de/natural-language-processing-42789/

Deklination des Substantivs. – Ressource: https://www.verbformen.de/deklination/substantive/?w=Verarbeitung

Wie verarbeiten Maschinen natürliche Sprache? – Ressource: https://onlim.com/de/wie-verarbeiten-maschinen-natuerliche-sprache/

die Wortarten Substantiv
Одушевленное/неодушевленное abstrakt
Genger feminin
Singular
Nominativ die Verarbeitung
Genitiv die Verarbeitung
Dativ die Verarbeitung
Akkusativ die Verarbeitung
Plural
Nominativ die Verarbeitungen
Genitiv die Verarbeitungen
Dativ die Verarbeitungen
Akkusativ die Verarbeitungen