Wie ist es möglich, auf unserer Sprache mit Computern zu kommunizieren? Im Hinblick auf die letzten 76 Jahre, hat sich in der Entwicklung von Natural Language Processing (NLP) eine Menge getan. Die vorliegende Hausarbeit beschäftigt sich mit der Entstehung von Chatbots und der Fähigkeit natürliche Sprache zu verstehen. Besonders im Fokus steht dabei das
Verfahren von Natural Language Processing.
Zu klären ist, welche Auswirkungen Maschinen und die Interaktion mit ihnen, auf Menschen haben können. Verschiedene Faktoren müssen optimiert werden, damit Maschinen wirksamer im Alltag genutzt werden können. Zudem ist es interessant zu untersuchen, wie sie mit Nutzer und Nutzerinnen ommunizieren und welche Vor- oder Nachteile hat.
Inhaltsverzeichnis
1. Einleitung
1.1 Relevanz
1.2 Ziel der Hausarbeit
2. Künstliche Intelligenz und Machine Learning
3. NLP
3.1 Erläuterung
3.2 NLP Phasen
3.3 NLP Anwendungen
4. Conversational Interfaces
4.1 Chatbots Intelligenzstufen
4.2 Chatbots im Kundenservice
5. VUI und Smart Assistenten
5.1 VUI Definition
5.2 Anwendung
5.3 Vor- und Nachteile
5.4 Virtuelle Lernhilfe
5.5 Perspektive
6. Fazit
7. Anhang
7.1 Abbildungsverzeichnis
7.2 Literaturverzeichnis
7.3 Quellenverzeichnis
1. Einleitung
Wie ist es möglich, auf unserer Sprache mit Computern zu kommunizieren? Im Hinblick auf die letzten 76 Jahre1, hat sich in der Entwicklung von Natural Language Processing (NLP) eine Menge getan. Die vorliegende Hausarbeit beschäftigt sich mit der Entstehung von Chatbots und der Fähigkeit natürliche Sprache zu verstehen. Besonders im Fokus steht dabei das Verfahren von Natural Language Processing.
1.1 Relevanz
In der Zukunft ist eine steigende Interaktion zwischen Mensch und Maschine abzusehen. Je früher man sich mit dem Verhalten von künstlichen Intelligenzen (KI) auseinandersetzt, desto intuitiver werden wir uns mit ihnen verständigen können. Daraus resultiert eine effizientere und unkompliziertere Zusammenarbeit. Als Designer sind wir dafür verantwortlich, herauszufinden, welche Aspekte der zwischenmenschlichen Kommunikation auf künstliche Intelligenzen übertragbar sind, um die User Experience (UX) zu verbessern.
1.2 Ziel der Hausarbeit
Zu klären ist, welche Auswirkungen Maschinen und die Interaktion mit ihnen, auf Menschen haben können. Verschiedene Faktoren müssen optimiert werden, damit Maschinen wirksamer im Alltag genutzt werden können. Zudem ist es interessant zu untersuchen, wie sie mit Nutzer:innen kommunizieren und welche Vor- oder Nachteile hat.
„A computer would deserve to be called intelligent if it could deceive a
human into believing that it was human“
- Alan Turing, 19502.
2. Künstliche Intelligenz und Machine Learning
Um ein Verständnis rund um das Thema Künstliche Intelligenz aufbauen zu können, muss zunächst geklärt werden, wo es herkommt und worauf es basiert. Künstliche Intelligenz (KI) oder auch im eng. Artificial Intelligence (AI) genannt, ist ein Teilgebiet der Informatik, dessen Ziel es ist menschliches Lernen und Denken auf Maschinen zu übertragen. Es soll dazu in der Lage sein, eigenständig bzw. mit wenig menschlicher Hilfe zu arbeiten3. Damit jedoch eine Maschine lernen kann, ist es notwendig, dass diese Machine Learning (engl. für= Maschinelles Lernen) beherrscht. So kann es datenbasierte Aufgaben durch dessen Lernen ausführen. Es lernt Prozesse und Muster zu erkennen und ausgefeilte Algorithmen zu erstellen. D. h. je mehr Daten zur Verfügung gestellt werden desto mehr Muster können erfasst und Probleme gelöst werden. Unter das genannte Machine Learning fallen Anwendungen wie selbstfahrende Autos, Bilder- und Gesichtskennung und die Bestimmung der Relevanz von Suchergebnissen in Suchmaschinen4.
Im Alltag werden künstliche Intelligenzen meist auf Mobiltelefonen, in Suchmaschinen, Autos und Smart Assistenten genutzt. Meistens, um Smart Home Applikationen zu steuern, nach dem Wetter zu fragen oder sich den kürzesten Weg zur Tankstelle anzeigen zu lassen5. Für Alltägliches helfen solche Smart Assistenten kleine und umständliche Dinge schneller zu erledigen. All dies setzt voraus, dass Menschen von Computern verstanden werden.
Die konventionelle Art sich mit einem Rechner zu verständigen geschieht durch eine formale Sprache. Diese speziellen Sprachen werden von Informatiker:innen, Programmierer:innen und Spezialist:innen genutzt, für den Laien sind sie aber nicht interessant. Solch eine Sprache zu beherrschen benötigt viel Übung und Zeit6. Zudem ist es von Nachteil, dass Computersprachen wie z.B. Python, Java oder HTML keine Fehler im Script tolerieren. Sobald ein Rechtschreib-, Grammatik- oder Syntaxfehler vorliegt, versteht der Computer nicht was von ihm verlangt wird und kann die gewünschte Aktion nicht ausführen7. Demnach sind solche Computersprachen nicht sehr Benutzerfreundlich und nicht intuitiv oder schnell zu nutzen. Zudem ist das Vokabular eines Computers ein begrenztes und nicht mit dem eines Menschen zu vergleichen. Der Unterschied zu unserer menschlichen oder auch natürlichen Sprache ist enorm. Menschen verfügen über einen beträchtlichen und umfangreichen Wortschatz. Wörter können verschiedene Bedeutungen, Menschen unterschiedliche Akzente oder Dialekte haben und sich trotz Sprachfehler oder diverser Einschränkungen verständigen.
Menschen machen zudem einige Fehler im Satzbau, versprechen sich, reden undeutlich oder kommunizieren mit vielen Emotionen, welche die Bedeutung des Gesagten manipulieren können. Trotz all diesen Hürden hat der Durchschnittsmensch keine Schwierigkeiten sich mit seinen Mitmenschen zu verständigen8.
3. NLP
3.1 Erläuterung
Natural Language Processing oder auch NLP beschäftigt sich genau mit diesem Problem. Dieses Teilgebiet der Künstlichen Intelligenz wird auch Computer Linguistik genannt und setzt sich mit der Übersetzung der menschlichen (natürlichen) Sprache in die eines Computers auseinander. Computer sollen dabei Gesagtes und Geschriebenes der natürlichen Sprache verstehen und verarbeiten können9.
In 1945 bewegte sich Warren Weaver10 erstmals im Bereich des NLP. Dabei arbeitete er mit Machine Translation (MT), ein Übersetzungsprogramm welches Russisches ins Englische übersetzten konnte. Ziel war es, Teile eines Textes akkurat und schnell übersetzten zu können. Anfangs gab es Schwierigkeiten und erste Ergebnisse entsprachen eher einer Wort- für-Wort Übersetzung. Zum Beispiel wurde der Biblische Satz „The spirit is willing but, the flesh is weak“ („Der Geist ist willig, aber das Fleisch ist schwach“) erst ins Russische und dann wieder ins Englische übersetzt. Dies führte zu „The vodka is good but the meat is rotten“ („Der Wodka ist gut, aber das Fleisch ist faul“). Demnach war die Anwendung für einzelne Wörter praktisch, für vollständige Sätze oder Texte aber nicht nutzbar. Seit 1945 hat sich das NLP Verfahren signifikant verbessert.
3.2 NLP Phasen
Es folgt eine Allgemeine Erklärung wie ein NLP Ablauf heute aussieht. Dabei wird jede der sechs Phasen kurz zusammengefasst und erläutert.
Bevor der Prozess beginnen kann, muss der Input, der zu verarbeiten ist, zu einer reinen Textdatei formatiert werden11. Dabei kann Handschriftliches digitalisiert oder Gesprochenes in Text umgewandelt werden (Speech-to-Text).
Tokenisierung (Tokenizing) und Füllwortentfernung
In dieser Phase ist der Input im Idealfall ein reiner Text, wobei er immer noch Punkte, Kommas und Großschreibung enthält. Um den Text in seine einzelnen Bestandteile reduzieren zu können, muss sowohl Interpunktion als auch Groß- Kleinschreibung entfernt werden. Die verbliebenen Worte werden ab diesem Schritt Tokens genannt.
Bei der Füllwortentfernung werden alle Bindewörter, welche keinen Kontext Bezug haben, entfernt. Darunter fallen u.a. Wörter wie: auf, die, wir, sowie oder ein12.
Morphologische Analyse
Bei der Morphologischen Analyse13 (oder auch Stemming[2]) werden Wörter in Morpheme unterteilt und auf ihren Wortstamm reduziert. Freie Morpheme bleiben erhalten und gebundene Morpheme werden getrennt/aufgeteilt14.
Freie Morpheme: Gebundene Morpheme:
Hut, Stift, Glas, Wand Freund, freund-lich, be-freund-en, Freund lichkeit, Freund-schaft, an-freund-en
Syntax Analyse
Bei diesem Schritt werden die Tokens mit der entsprechenden Wortart (Nomen, Verben, Adjektive, etc.) versehen. Somit wird untersucht, ob ein Satz sinnfrei ist. Ein Beispiel wäre: „Die Pflanze verschenkt die Frau“. Dieser würde als Syntaxfehler markiert und nach Grammatikregeln neuangeordnet werden15.
Lexikalische und Semantische Analyse
Bei der lexikalischen Analyse wird in einem Lexikon nach der Bedeutung für das jeweilige Token gesucht und zugewiesen. Bei der semantischen Analyse können Mittel wie NameEntity-Recognition genutzt werden, um Marken oder Eigennamen auszufiltern. Demnach wird hier klar, ob es sich bei den Tokens um z.B. Orte, Personen, Mengenangaben oder Unternehmen handelt16.
Praktische und Diskurs Analyse
Die pragmatische Analyse geht einen Schritt weiter als die semantische. Hierbei werden Sätze, welche mehrere Bedeutungen haben können, noch einmal untersucht. Der Satz „Folge dem Mann mit der Flagge“ kann zwei Bedeutungen haben.
[...]
1 Vgl. Kumar, Ela: Natural Language Processing (English Edition), New Delhi, Indien: IK International Publishing House, 2013.
2 Vgl. Reporter, 2017.
3 Vgl. WBF, 2020.
4 Vgl. Machine Learning - Quick Guide - Tutorialspoint, o. J.
5 Vgl. Artificial Intelligence - Quick Guide - Tutorialspoint, o. J.
6 Vgl. Kumar, 2013, S. 3.
7 Vgl. CrashCourse, 2017.
8 Vgl. CrashCourse, 2017.
9 Vgl. Computerlinguistik, 2001.
10 Vgl. Kumar, Ela: Natural Language Processing (English Edition), New Delhi, Indien: IK International Publishing House, 2013.
11 Vgl. Klofat, 2020.
12 Vgl. Klofat, 2020.
13 Vgl. Kumar, 2013.
14 Vgl. Morpheme in Deutsch | Schülerlexikon | Lernhelfer, o. J.
15 Vgl. Natural Language Processing - Quick Guide - Tutorialspoint, o. J.
16 Vgl. edureka!, 2018.