Nach dem Tod des Afroamerikaners George Floyd durch Polizeigewalt erhält die Rassismus-Debatte eine neue Wendung und die Bewegung #BlackLivesMatter wird nach oben katapultiert. Die ganze Welt protestiert und die Welle der Rassismus-Debatte schwappt auch nach Deutschland über. "Ran an die Strukturen" wird gefordert und nach Corona ist Rassismus das Top-Thema 2020 in den Redaktionen. Als Reaktion auf die aktuelle Rassismus-Debatte verkündet das Unternehmen Knorr seine "Zigeunersauce" in "Paprikasauce ungarischer Art" umzubenennen. Der Begriff "Zigeunersauce" könne negativ interpretiert werden, deshalb wurde sich für die Umbenennung entschieden, teilte man der "Bild am Sonntag" mit. Der Zentralrat der Sinti und Roma spricht sich zwar für die Namensänderung aus, äußert jedoch auch Kritik, denn es sei viel wichtiger, über den Begriff "Zigeuner" und den Missbrauch dieses Titels aufzuklären. Die Bezeichnung "Zigeuner" sollte abgeschafft werden, da dieser aufgrund seiner Geschichte stark negativ behaftet ist und in Verbindung mit rassistischen Stereotypen gebracht wird.
Eine ähnliche Debatte zur Umbenennung der Sauce startete bereits 2013. Das Thema wurde von der Pegida-Bewegung als Werbeslogan missbraucht: man dürfe in Deutschland nicht einmal mehr von "Zigeunersauce" sprechen. Auch dieses Jahr werden durch die Umbenennung, vor allem in den sozialen Netzwerken, zahlreiche Reaktionen ausgelöst und heftig diskutiert, so wurde #Zigeunersauce ein Trend auf Twitter. Nach diesen Reaktionen auf die Umbenennung der "Zigeunersauce" richtet sich das Interesse der im Folgenden präsentierten Forschung.
Um einzufangen, wie die Menschen auf die Namensänderung reagieren und deren Haltung dem gegenüber aussieht, werden Userkommentare zu Facebook-Posts, die über die Umbenennung berichten, von verschiedenen Nachrichtenmedien betrachtet.
Inhalt
1. Einleitung
2. Forschungsstand
3. Methode
3.1. Auswahl der Untersuchungsgegenstände
3.2. Opinion mining
3.3. Topic Modeling
3.4. Manuelle Sentimentanalyse
3.5. Reliabilitätstest
4. Ergebnisse
4.1. Preprocessing
4.2. Topic Modeling
4.2.1. Topics Gesamtkorpus
4.2.2. Topics Teilkorpora
4.3. Sentimentanalyse
4.3.1. Wörterbuchbasierte Sentimentanalyse
4.3.2. Auswertung manuelle Sentimentanalyse
5. Fazit
Literaturverzeichnis
Tabellenverzeichnis
Anhang
Codebuch
Script RStudio
1. Einleitung
Nach dem Tod des Afroamerikaners George Floyd durch Polizeigewalt erhält die Rassismus Debatte eine neue Wendung und die Bewegung #BlackLivesMatter wird nach oben katapultiert. Die ganze Welt protestiert und die Welle der Rassismus-Debatte schwappt auch nach Deutschland über. „Ran an die Strukturen“ (Haruna-Oelker, 2020), wird gefordert und nach Corona ist Rassismus das Top-Thema 2020 in den Redaktionen (Haruna-Oelker, 2020). Als Reaktion auf die aktuelle Rassismus-Debatte verkündet das Unternehmen Knorr seine „Zigeunersauce“ in „Paprikasauce ungarischer Art“ umzubenennen. Der Begriff „Zigeunersauce“ könne negativ interpretiert werden, deshalb wurde sich für die Umbenennung entschieden, teilte man der Bild am Sonntag mit (Mitteldeutscher Rundfunk, 2020). Der Zentralrat der Sinti und Roma spricht sich zwar für die Namensänderung aus, äußert jedoch auch Kritik, denn es sei viel wichtiger, über den Begriff „Zigeuner“ und den Missbrauch dieses Titels aufzuklären. Die Bezeichnung „Zigeuner“ sollte abgeschafft werden, da dieser aufgrund seiner Geschichte stark negativ behaftet ist und in Verbindung mit rassistischen Stereotypen gebracht wird. Eine ähnliche Debatte zur Umbenennung der Sauce startete bereits 2013. Das Thema wurde von der Pegida Bewegung als Werbeslogan missbraucht: man dürfe in Deutschland nicht einmal mehr von „Zigeunersauce“ sprechen (Fuchs, 2020). Auch dieses Jahr werden durch die Umbenennung, vor allem in den sozialen Netzwerken zahlreiche Reaktionen ausgelöst und heftig diskutiert, so wurde #Zigeunersauce ein Trend auf Twitter (Ayoub, 2020). Nach diesen Reaktionen auf die Umbenennung der „Zigeunersauce“ richtet sich das Interesse der im Folgenden präsentierten Forschung. Um einzufangen wie die Menschen auf die Namensänderung reagieren und deren Haltung dem gegenüber aussieht, werden Userkommentare zu Facebook-Posts, die über die Umbenennung berichten, von verschiedenen Nachrichtenmedien betrachtet. Denn über die Userkommentare wird ein direktes Feedback zu bestimmten Themen zurückgegeben (Bader, 2018). Die Plattform Facebook wurde gewählt, da sie in Deutschland zu den meist genutzten Social Networks gehört (We Are Social, Hootsuite, DataReportal, 2021). Untersucht werden zum einen die Kommentare zu den Posts der Facebook-Accounts der tagesschau und von RTL Aktuell, als die reichweitenstärksten Fernsehnachrichten im öffentlich-rechtlichen und privaten Bereich (Haddad et al., 2020). Zum anderen werden die Posts von der Frankfurter Allgemeine Zeitung, BILD News, Junge Freiheit und Neues Deutschland herangezogen, als Vertreter der Online-Zeitungen eines breiten politischen Spektrums (Anhäuser, 2017). Um die Reaktionen zu messen wird die Methode der Sentimentanalyse mit dem Topic Modeling kombiniert. Gleichzeitig ist es interessant zu erörtern, inwiefern sich diese Methodenkombination für die Untersuchung von Meinungen in Kommentaren eignet. Zunächst wird dazu diese Forschung in den aktuellen Forschungsstand eingeordnet. Anschließend werden im Kapitel Methode die Auswahl der Untersuchungsgegenstände erläutert und vorgestellt, sowie die Forschungsmethoden des Opinion Mining und des Topic Modeling und deren Anwendung in dieser Arbeit erklärt. Im Anschluss wird darauf eingegangen, warum und wie die manuelle Sentimentanalyse eingesetzt wurde und die Durchführung des Reliabilitätstests wird behandelt. Danach erfolgt die Ergebnispräsentation, beginnend mit dem Vorgang des Preprocessing. Danach werden die Ergebnisse zum Topic Modeling und der automatisierten, sowie manuellen Sentimentanalyse vorgestellt. Abschließend wird ein Fazit gezogen.
2. Forschungsstand
Im Folgenden werden Forschungen und Studien vorgestellt, die sowohl die Grundgedanken dieser Arbeit wiederspiegeln, als auch darüber hinaus weiterführende Untersuchungen anstellen. Eine Studie zur aktuellen Rassismus Debatte führte Badaoui (2020) durch und untersuchte dazu 600.000 Tweets zu #BlackLivesMatter. Unter anderem wurden die meist genutzten Worteinheiten analysiert, sowie eine Sentimentanalyse bzw. Polaritäten-Analyse durchgeführt, um aktuelle Stimmungsbilder und Themenschwerpunkte herauszufiltern. Als meist genutzte Worteinheiten konnten, nach der Bereinigung des Datensets, „Police brutality“ und Thematisierungen verschiedener Zwischenfälle und Ereignisse dies betreffend festgestellt werden (Badaoui, 2020). Allerdings zieht Badaoui (2020) nur vorläufige Schlüsse aus der Sentimentanalyse, denn: „it is difficult to judge people’s emotions based [on polarity analysis] alone, because it depends on the context in which users wrote the tweets, the figure gives an idea about how mixed emotions were after the George Floyd incident“ (Badaoui, 2020). Das Thema Sentiment gegenüber Politikern und inwieweit dieses sichtbar gemacht werden kann, untersucht Bader (2018). Dabei setzt er die Sentimentanalyse ein, um die Bewertung von Angela Merkel und Peer Steinbrück in Artikeln von SpiegelOnline vor der Bundestagswahl 2013 darzustellen. Zudem wird die Sentimentanalyse durch einen Vergleich mit Umfragedaten validiert. Die Wahl des Wörterbuchs fiel auf das SentiWS. Zwar sind seine Ergebnisse eindeutig, Merkel erhält mehr positive Resonanz als Steinbrück, aber Bader (2018) sieht auch viel Verbesserungspotenzial in der Methode. So sei es Ziel der Weiterentwicklung von Sentimentanalysen, den Einfluss von negativ konnotierten Themen auf die Sentimentscores zu verringern (Bader, 2018). Um dies zu verwirklichen bringt er das Topic Modeling als vielversprechende Methode an. Eben diese Kombination aus Sentimentanalyse und Topic Modeling wird auch hier durchgeführt. Saroka, Young und Balmas (2015) werden noch spezieller und beschäftigten sich, ähnlich wie in dieser Forschung, mit Negativität im Nachrichtenkontext. Allerdings wird hier das Vorherrschen und die Art von Negativität anhand amerikanischer Nachrichteninhalte untersucht. Dabei steht vor allem das Forschungsinteresse im Vordergrund, Emotionen, besonders Angst und Wut, in Nachrichten zu erfassen. Damit erforschen Saroka et al. (2017) die wörterbuchbasierte Sentimentanalyse mit dem Ziel, differenziertere Erkenntnisse davonzutragen, als mit einem gewöhnlichen Polaritäten-Lexikon, welches auch in dieser Forschung angewendet wird. Doch genau diese Eigenschaft der Wörterbücher, die binäre Ausprägung, stellt ein Problem dar, um verschiedene Emotionen herauszuarbeiten. Um näheres dazu herauszufinden, werden bereits vorhandene, aus der Psychologie stammende Wörterbücher in ihrer Negativität validiert. Daraus ergeben sich folgende Forschungsfragen: Können Angst und Wut in politischen Nachrichten unterschieden werden und wenn ja, wie? Was macht ein Ereignis negativ und wie wird Negativität vermittelt? Die Validierung der drei Affekt-Wörterbücher erfolgt durch eine Sentimentanalyse, durchgeführt an 55.000 Titelseiten-Meldungen aus der New York Times und der Washington Post aus den Jahren 2000-2013. Um die drei zu validierenden Wörterbücher vergleichen zu können, wird ein zusätzliches Wörterbuch herangezogen, das bereits durch eigene Forschungen ausreichend getestet wurde. Die Maße für Angst und Wut konnten aus vorhandenen Kategorien verwendet oder aus verwandten Kategorien konstruiert werden. Zunächst wurde die Korrelation zwischen den Wörterbüchern gemessen. Durch eine anschließende Faktorenanalyse der zusammengestellten Maße für Angst und Wut geht schließlich hervor, dass Wörterbücher, die auf psychologischen Erkenntnissen und Inhalten beruhen, Angst und Wut trennen können. Es ist sogar möglich, diese auf Medieninhalte anzuwenden. Dennoch kommen Saroka et al. (2017) zu dem Ergebnis, dass weitere Forschungen zum Unterscheiden von verschiedenen Emotionen mit Lexika erforderlich sind. Die Erkenntnisse aus dieser Forschung sind außerdem wichtig, um Einstellungs- und Verhaltenskonsequenzen von negativen Nachrichteninhalten besser zu verstehen. Mit den getesteten Maßen für Angst und Wut können zumindest teilweise die unterschiedlichen Emotionen erfasst werden (Soroka et al., 2015).
3. Methode
3.1. Auswahl der Untersuchungsgegenstände
Um die Reaktionen auf die Namensänderung von Knorr zu untersuchen, bieten sich Social Media Plattformen am besten als Quelle des Untersuchungsmaterials an. Die Kommentarfunktion der Plattformen stellt sich für Nutzer als optimales Mittel zur Meinungsäußerung heraus. Instagram und Facebook sind die beliebtesten Social Media Plattformen (We Are Social, Hootsuite, DataReportal, 2021) und geraten dadurch in die engere Auswahl zur Beschaffung des Datenmaterials. Zu Beginn wurden Überlegungen angestellt, aufgrund der bestehenden Aktualität zu diesem Zeitpunkt (Cords & Mund, 2020), die Reaktion der Logo-Änderung von Uncle Ben’s zu analysieren, allerdings wurde dazu weder auf Facebook, noch auf Instagram ausreichend darüber berichtet oder es wurden zu wenige Kommentare generiert. Daher wurde sich einem anderen Thema zugewendet, welches nach eigener Recherche unter den Nachrichtenmedien ebenfalls sehr präsent ist: die Namensänderung der „Zigeunersauce“ in „Paprikasauce ungarischer Art“ der Firma Knorr. Es soll das Meinungsbild zu dieser Meldung auf Instagram und Facebook verglichen werden, um herauszufinden, ob sich die Reaktion je nach Social Media Plattform unterschiedet. Jedoch wurde auf Instagram nicht ausreichend darüber berichtet, so dass Vergleiche hätten angestellt werden können. Darum wurde sich lediglich auf Facebook-Kommentare konzentriert. Um dennoch gute Vergleiche anzubringen und möglichst differenzierte Meinungsbilder zu ermitteln, sollen Beiträge verschiedener Nachrichtenmedien erfasst werden. Dabei wurde darauf geachtet, sich stark unterscheidende Facebook-Nachrichtenaccounts auszuwählen, die gleichzeitig in Deutschland als beliebt bzw. erfolgreich gelten. Die Grafik von Anhäuser (2017) diente als Orientierungshilfe und wurde Nachrichtenmedium für Nachrichtenmedium abgearbeitet und recherchiert, ob jenes zur Namensänderung berichtet und mindestens 200 Kommentare, angelehnt an die Empfehlung von Rössler (2017), vorhanden sind. Als Auswahlkriterium galt dabei lediglich, dass im Facebook-Post das Thema Namensänderung der Sauce sichtbar sein muss und nicht nur bspw. erst aus einem verlinkten Artikel der eigenen Website hervorgeht. Letztendlich wurden zwei Posts von Fernsehnachrichten ausgewählt: zum einen die tagesschau (Tagesschau, 2020, 16. August), als politisch mittig orientiertes und öffentlich-rechtliches Medium (Anhäuser, 2017) und zum anderen das ebenfalls mittig orientierte (Anhäuser, 2017) , aber private Format RTL Aktuell (RTL Aktuell, 2020, 16. August). Auch ein Post von BILD News, als boulevardesk beschrieben und mittig eingeordnet, wurde ausgewählt, sowie der Beitrag der Frankfurter Allgemeine Zeitung ( FAZ ) (Frankfurter Allgemeine Zeitung, 2020, 16. August), die als konservativ-liberal und seriös gilt (Anhäuser, 2017). Aus dem rechten Spektrum wurde die Zeitung Junge Freiheit (Junge Freiheit, 2020, 16. August) und aus dem linken Spektrum Neues Deutschland (Neues Deutschland, 2020, 16. August) herangezogen (Anhäuser, 2017). So kann die Analyse an einem sehr differenzierten Untersuchmaterial durchgeführt werden, welches sich sowohl in seiner politischen Ausrichtung und seinem Stil unterscheidet, als auch in seinem Ursprungsformat. Schließlich wurde das Datenmaterial mit Hilfe des Tools Facepager sichergestellt. Allerdings gab es zuvor einige Probleme, die korrekten Datensätze zu downloaden, da nur jeweils 25 Kommentare heruntergeladen wurden und wenn ein Medium an einem Tag mehrere Posts veröffentlichte, war es schwer den gewünschten Post mit Facepager anzusteuern. Dieses Problem konnte jedoch mit einer online verfügbaren Anleitung teilweise behoben werden (Stack Overflow Ltd., 2015). Denn es konnten immer noch nicht alle Kommentare eines Posts heruntergeladen werden. Die Lösung dieses Problems wurde nicht gefunden, nicht zuletzt aufgrund mangelnder IT-Kenntnisse. Am meisten Kommentare konnten von der tagesschau (3054 Kommentare) und von RTL Aktuell (2419 Kommentare) bezogen werden. Danach folgen die FAZ mit 377 Kommentaren, BILD News (285 Kommentare) und Junge Freiheit (276 Kommentare). Bei Neues Deutschland war es nur möglich 64 Kommentare herunterzuladen. Der Grund für den Download eines Bruchteils der Kommentare steht vermutlich mit der Gesamtzahl an Kommentaren zu den jeweiligen Posts in Verbindung. Denn während die tagesschau insgesamt die meisten Kommentare verzeichnet (Tagesschau: aus Zigeunersoße wird Paprikasoße ungarischer Art, 16.08.2020), konnten hier auch die meisten Kommentare für die Analyse bezogen werden. Neues Deutschland dagegen generierte die wenigsten Kommentare insgesamt (Neues Deutschland: Quatsch mit rassistischer Soße, 16.08.2020). Aus diesem Grund konnte auch möglicherweise nur eine so geringe Anzahl an Kommentaren von Facepager gedownloadet werden.
3.2. Opinion mining
Um die Reaktion auf die sprachpolitische Namensänderung der Firma Knorr zu analysieren, wird Untersuchungsmaterial in Textform, bzw. als Nutzerkommentare, herangezogen. Folgende Programme stehen laut Siegel und Alexa (2020) für diese Art von Analyse zur Verfügung: die Statistikprogramme R und Python. Als Gruppe wurde sich jedoch aufgrund mangelnder Informatikkenntnisse für das, subjektiv empfunden, unkompliziertere Programm R entschieden. Im Vergleich zu Videodaten beispielsweise, bietet textliches Untersuchungsmaterial viele Meinungen, denn die Kommentare werden von Menschen verfasst und bergen damit Subjektivität, die auf viele mögliche Weisen erforscht werden kann. Textdaten bieten also optimale Voraussetzungen um Meinungen zu analysieren und zu verstehen. Die Meinung, bzw. Opinion, wird von Zhai und Massung (2016) als ein subjektives Statement definiert, welches den Glauben oder die Haltung einer Person wiedergibt. Um ein grundlegendes Verständnis für die Opinion zu generieren, müssen Meinungsinhaber, Meinungsgegenstand und Meinungsinhalt identifiziert werden. Für tiefer gehende Erkenntnisse müssen ebenso der Kontext und das Gefühl (Sentiment) betrachtet werden. Dieses „basic understandment“ (Zhai & Massung, 2016) birgt jedoch auch ein hohes Maß an Komplexität. Die Meinungsinhaber können Einzelpersonen, Gruppen, Komitees, Unternehmen, etc. sein. Die Entität kann einer Person entsprechen, einem Produkt oder einer anderen Meinung. So gibt es auch zum Meinungshalt verschiedene Aspekte, wie z. B. die Länge des Meinungstextes. Liegt eine „one-sentence-opinion“ oder eine „one-phrase-opinion“ (Zhai & Massung, 2016) vor? Wird die Opinion möglicherweise in einem Artikel kundgetan? Auch verschiedene Emotionen können in einer Opinion enthalten sein, positives oder negatives Sentiment. Genauso kann der Kontext in Ort, Zeit und Hintergrundgeschichte variieren (Zhai & Massung, 2016). Um die Reaktion der Nutzer in den Kommentaren messen zu können, bedarf es also auch der genauen Abgrenzung von Opinion und Sentiment. Eine Opinion stellt sich aus den gesamten Informationen des zu untersuchenden, wertenden Texts zusammen, also der Bewertung, Emotionen, Einstellungen inklusive Entität, sowie des Verfassers und des Kontexts (Liu, 2012). Insgesamt macht es sich die Methode des Opinion Mining also zur Aufgabe, aus kontextualisiertem Input eine bestimmte Gruppe aus verschiedenen Meinungspräsentationen zu erzeugen (Zhai & Massung, 2016). Damit stellt der Begriff des Sentiments einen Teilaspekt der Opinion dar, indem positive oder negative Stimmung innerhalb einer Opinion gemessen wird (Liu, 2012). In diesem Fall wird eine Sentimentanalyse der Kommentare durchgeführt, denn Ziel der angestrebten automatisierten Methode ist es, Sentiment und Haltungen von Nutzern über Produkte, Personen, Organisationen oder Ereignisse zu erkennen (Siegel, M., & Alexa, M., 2020) und entspricht damit dem hier beschriebenen Forschungsinteresse. Zur Analyse des Sentiments kann zwischen drei Verfahren gewählt werden: der Wörterbuchbasierte Ansatz, das überwachte Machine Learning und das nicht überwachte Machine Learning. Das überwachte Machine Learning verwendet einen gestellten Korpus von Texten mit bereits definierten Sentiments, um einen Klassifikationsalgorithmus zu trainieren, während das nicht überwachte Machine Learning über vorhandene Zusammenhänge zwischen den Wörtern anhand unterschiedlicher Texte die Stimmung abschätzt (Bader, 2018). Um die Komplexität zu verringern und mit Blick auf zeitliche Einschränkungen und nicht ausreichender EDV-Kenntnisse wird in dieser Forschung der wörterbuchbasierte Ansatz angewendet. Hier kann zwischen der „polarity analysis“ und der „emotion analysis“ unterschieden werden (Zhai & Massung, 2016). In der „polarity analysis“ wird mit Kategorien wie positiv, negativ und ggf. neutral gearbeitet, dies entspricht auch der für die Forschung gewählten Methode, während bei der „emtion analysis“ differenziertere Kategorien basierend auf Emotionen angewendet werden (Zhai & Massung, 2016). Zudem beruht die wörterbuchbasierte Analyse auf dem Bag-of-Words -Modell (Zhai & Massung, 2016), das besagt, dass die einzelnen Sammlungen von Wörtern betrachtet werden und die Reihenfolge sowie der Kontext ignoriert werden. Für das benötigte Wörterbuch standen zunächst drei von Puschmann (2019) empfohlene zur Auswahl: das SentiWS, das LIWC und das Sentiment Dictionary von Christian Rauh. Das LIWC -Wörterbuch soll linguistische Merkmale, psychologische Prozesse und kontextbezogene Aspekte erkennen (Universitätsklinikum Heidelberg, 2021). Allerdings hat sich während einer gleichzeitig laufenden, eigenen Forschung das Wörterbuch als eher ungeeignet für das Forschungsinteresse herausgestellt. Denn es ist kein binäres Klassifikationssystem vorhanden, sondern viele komplexe Kategorien und somit kann keine genaue Polarität berechnet werden. Letztendlich fiel die Wahl jedoch auf Christian Rauhs Sentiment Dictionary, welches für politische Diskurse entwickelt wurde. Denn Rauh kombiniert die zwei der umfangreichsten deutschen Wörterbücher SentiWS und German Polarity Clues und validiert diese Zusammenführung mit drei Experimenten mit politikwissenschaftlichem Kontext. Insgesamt enthält das Wörterbuch dadurch 17330 positive und 19750 negative Wörter inklusive Flexionen und Terme (kbenoit, 2019), weshalb sich das Forschungsteam vielsagende Ergebnisse erhoffte. Jedem Wort ist einem Sentiment-Score zugeordnet, wobei positive Wörter den Score 1 erhalten und negative Wörter den Score -1 (Rauh, 2018).
3.3. Topic Modeling
Bei der Erschließung eines Textes sei jedoch der erste Schritt, sich einen Überblick über die im Text behandelten Themen zu verschaffen, so Horstmann (2018). Dazu zitiert er Schulz (2003, S. 34), welcher vorgibt, man solle nach einem Leitgedanken suchen, nach dem sich sein Inhalt zusammenfasst. Dieser Ansatz entspringt der literaturwissenschaftlichen Tradition und wird hier mit der Methode des Topic Modelings in die Forschung integriert. Topics sind statistische Modelle, welche die Abbildung häufig gemeinsam auftretender Wörter ermöglichen. Die zu untersuchende Textsammlung wird dabei thematisch exploriert (Horstmann, 2018). Es gelten die Grundannahmen: „Every document is a mixture of topics“ und „every topic is a mixture of words“ (Robinson & Silge, 2020). Es ist die Entscheidung des Forschers, wie viele Topics abgebildet werden sollen und wie groß diese ausfallen. Anschließend werden die ausgegebenen Topics im Nachhinein so lange bearbeitet, bis die Ergebnisse aussagekräftig sind. Der am häufigsten genutzte Algorithmus für dieses Vorgehen ist die „Latent Dirichlet Allocation (LDA)“ (Horstmann, 2018). Dieser Algorithmus „basiert auf einer wiederholt zufälligen Auswahl an Textsegmenten, wobei innerhalb dieser Segmente jeweils die statistische Häufung von Wortgruppen erfasst wird“ (Horstmann, 2018). Somit können beide Grundannahmen (s.o.) mit LDA herausgearbeitet werden, also die Wortsammlungen, die mit jedem Topic verbunden sind, sowie die Bestimmung der Topics, die jedes Dokument beschreiben. Da jedoch die Erstellung von Topics in R induktiv abläuft, wird bei der Auswertung ein deduktives Vorgehen verlangt (Puschmann, 2019). Die Auswertung und Interpretation der Topics verliefen jedoch schwieriger als gedacht, aufgrund fehlender Hintergrundinformationen und teilweise nicht aussagekräftiger Wörter. Diesem Hindernis kommt die manuelle Codierung der Kommentare stellenweise entgegen, welche im Hinblick auf die automatisierte Sentimentanalyse durchgeführt wurde. Außerdem konnten anhand der Topic Models auffällige Wörter mit besonders negativer Konnotation herausgefiltert werden und die genaue Verteilung dieser Wörter in den Kommentaren mittels R -Befehl (siehe Anhang, S. 36) berechnet werden.
[...]