Interface Agenten dienen als Schnittstelle zwischen Mensch und Maschine. Ihr Ziel ist die Vereinfachung der Interaktion zwischen dem Benutzer und dem Computer. Eine immer weiter in den Vordergrund drängende Betrachtung ist die der emotionalen Agenten.
Ursprünglich wurde der Agentenbegriff von nicht emotionsfäahigen Agenten geprägt. Mit den Erkenntnissen in der Humanforschung, speziell im Bereich der zwischenmenschlichen Kommunikation wurde festgestellt, dass Emotionen und Emotionsäußerung bei der
Kommunikation wichtig sind.
"Wenn Kommunikation unter Menschen emotionale Faktoren enthält,
könnte es doch sein, dass solche Faktoren auch künstlichen Agenten die Interaktion mit Menschen erleichtern und verbessern." (Schneider, 2005)
Eine ähnliche Feststellung trifft Picard in ihrer Veröffentlichung (Picard, 2000). Sie sieht die Vorteile von emotionalen Agenten in ihrer Möglichkeit sich dem Menschen anzupassen und dadurch besser auf Situationen reagieren zu können. Im gleichen Atemzug warnt sie allerdings auch vor emotionalen Computern und nennt als Beispiele für worstcase
Szenarien z.B. den sehr emotionalen Computer HAL aus dem Film "2001: a space Odyssey".
Inhaltsverzeichnis
1 Einleitung und Motivation
2 Emotionen
2.1 Emotionsmodelle
2.2 Arusal Valence Modell
2.3 Basic Emotions
2.4 OCC Modell
2.4.1 Grundlagen des OCC Modells
2.4.2 Emotionsbildung mit dem OCC Modell
2.4.3 Wissensrepräsentation
2.4.4 Beispielhafte Synthese von Emotionen mittels des OCC Modells
3 Darstellung und Synthese von Emotionen
3.1 Sprachsynthese
3.2 Prosodische Darstellung von Emotionen
3.3 Mimik und Gestik
4 Vergleich verschiedener Roboter und Avatare
5 Zusammenfassung und Fazit
Zielsetzung & Themen
Die vorliegende Arbeit untersucht Methoden zur Implementierung und Darstellung von Emotionen bei Interface-Agenten, um die Mensch-Maschine-Interaktion natürlicher und effektiver zu gestalten. Dabei liegt der Fokus auf der theoretischen Fundierung emotionaler Zustände sowie deren technischer Umsetzung durch Sprache, Mimik und Gestik.
- Grundlegende Emotionsmodelle (OCC, Arousal-Valence, Basic Emotions)
- Methoden der Sprachsynthese und prosodischen Emotionsdarstellung
- Techniken der Gesichtsanimation und Mimikmodellierung (MPEG-4 Standard)
- Vergleich aktueller Forschungsbeispiele wie K-Bot, Repliee und Kismet
Auszug aus dem Buch
3.1 Sprachsynthese
Sprachlich lassen sich nahezu alle Emotionen darstellen und unterstreichen. Wir verwenden Sprache als eines unserer Hauptmerkmale beim Emotionsausdruck. Für die sprachliche Darstellung von Emotionen ist vor allem die Prosodie beim Aussprechen eines Satzes verantwortlich (vgl. Austermann, 2002).
Prosodie (von griech.: pros und ode = eigentlich das Hinzugebundene, Zuzesang, besser übersetzt mit Wortakzent, Silbenbetonung oder Satzmelodie), auch als Prosodik (veraltet) bezeichnet, ist ein Begriff, der in mehrfacher Weise verwendet wird. (Quelle: Wikipedia)
Die Aufgabe der Prosodie besteht in der Unterteilung von Sätzen in Phrasen, setzen von Satzbetonungen, Verdeutlichung der syntaktischen Struktur sowie Modifikation der semantischen Bedeutung eines Satzes. Dazu existieren verschiedene Merkmale mit denen Prosodie ausgedrückt werden kann:
• Grundfrequenz F0, spiegelt die Stimmlage wieder
• F0-Range, beschreibt den Dynamikumfang. Es ist der Abstand zwischen der höchsten und tiefsten Grundfrequenz
• Phrasenkontur stellt die s.g. „Satzmelodie“ dar
• Variabilität ist der Wechsel zwischen betonten und unbetonten Silben
Zusammenfassung der Kapitel
1 Einleitung und Motivation: Dieses Kapitel erläutert die Relevanz emotionaler Interface-Agenten für eine intuitivere Mensch-Maschine-Interaktion.
2 Emotionen: Hier werden theoretische Grundlagen der Emotionspsychologie diskutiert, insbesondere Modelle wie Arousal-Valence, Basic Emotions und das umfassende OCC-Modell.
3 Darstellung und Synthese von Emotionen: Dieses Kapitel beschreibt technische Umsetzungsstrategien für Emotionen, unterteilt in Sprachsynthese, Prosodie sowie Mimik und Gestik mittels MPEG-4 Standards.
4 Vergleich verschiedener Roboter und Avatare: Eine Übersicht über den aktuellen Entwicklungsstand anhand bekannter Beispiele wie Kismet, Repliee, K-Bot und Baldi.
5 Zusammenfassung und Fazit: Das abschließende Kapitel resümiert die Möglichkeiten der emotionalen Darstellung und skizziert künftige Herausforderungen in der Forschung.
Schlüsselwörter
Interface-Agenten, Emotionsmodell, OCC-Modell, Sprachsynthese, Prosodie, Mimik, Gestik, Mensch-Maschine-Interaktion, MPEG-4, Gesichtsanimation, Arousal-Valence, Wissensrepräsentation, Humanoide Avatare, Affektive Bindung, Emotionsemulation
Häufig gestellte Fragen
Worum geht es in der Arbeit grundlegend?
Die Arbeit untersucht, wie Interface-Agenten Emotionen ausdrücken können, um die Kommunikation zwischen Mensch und Maschine zu verbessern.
Was sind die zentralen Themenfelder?
Die Schwerpunkte liegen auf theoretischen Emotionsmodellen sowie den technischen Methoden zur Darstellung dieser Emotionen durch Sprache und Gesichtsanimation.
Was ist das primäre Ziel der Arbeit?
Das Ziel ist es, einen Überblick über existierende Ansätze zur Emotionsdarstellung zu geben und deren Eignung für moderne Interface-Agenten zu bewerten.
Welche wissenschaftliche Methode wird verwendet?
Es handelt sich um eine Literaturstudie und theoretische Analyse bestehender Emotionsmodelle und Implementierungsbeispiele aus der aktuellen Forschung.
Was wird im Hauptteil behandelt?
Der Hauptteil gliedert sich in die theoretische Fundierung (Emotionsmodelle) und die technische Ausarbeitung (Sprachsynthese, Mimikmodellierung mittels FAP/FDP).
Welche Schlüsselwörter charakterisieren die Arbeit?
Die zentralen Begriffe sind Interface-Agenten, Emotionsdarstellung, OCC-Modell, Sprachsynthese, Prosodie, Mimik, Gestik und Mensch-Maschine-Interaktion.
Was zeichnet das OCC-Modell aus?
Es gilt als eines der umfassendsten Emotionsmodelle und ermöglicht eine Differenzierung von Emotionen basierend auf Zielen, Standards und Einstellungen gegenüber Objekten.
Wie unterscheidet sich die mimische Darstellung von der Sprachsynthese?
Während die Sprachsynthese durch Parameter wie Grundfrequenz und Betonung Emotionen vermittelt, nutzt die Mimik (z.B. nach MPEG-4) physische Feature Points im Gesicht, um realistische Muskelbewegungen zu simulieren.
- Quote paper
- Matthias Meyer (Author), 2008, Methoden zum Emotionsausdruck bei Interfaceagenten, Munich, GRIN Verlag, https://www.hausarbeiten.de/document/118966