Verloren im Datendschungel? Dieses Buch lüftet den Schleier computergestützter Inhaltsanalyse und enthüllt eine Schatzkiste an Softwarelösungen, die Forschenden und Analysten helfen, verborgene Muster und wertvolle Erkenntnisse aus Textdaten zu extrahieren. Tauchen Sie ein in die Welt hermeneutisch-qualitativer und empirisch-quantitativer Ansätze, die es Ihnen ermöglichen, Texte systematisch zu zerlegen, zu kodieren und zu interpretieren. Von Atlas/ti für komplexe Verknüpfungen bis hin zu INTEXT für mächtige Suchbegriffe – entdecken Sie die Stärken und Schwächen verschiedener Programme und finden Sie die perfekte Lösung für Ihre spezifischen Bedürfnisse. Egal, ob Sie Kommunikationsstrategien analysieren, öffentliche Meinungen messen oder historische Ereignisse untersuchen möchten, dieser umfassende Leitfaden bietet Ihnen das Werkzeug und Wissen, um Ihre Forschung auf ein neues Level zu heben. Erfahren Sie, wie Sie Homonyme vermeiden, Analyseeinheiten optimieren und Negationsfehler erkennen, um die Genauigkeit und Validität Ihrer Ergebnisse zu gewährleisten. Mit praxisnahen Beispielen und detaillierten Beschreibungen der Softwarefunktionen werden Sie in die Lage versetzt, fundierte Entscheidungen zu treffen und das volle Potenzial der computergestützten Inhaltsanalyse auszuschöpfen. Lassen Sie sich von der Vielfalt der Möglichkeiten inspirieren und entdecken Sie, wie Sie wertvolle Einsichten gewinnen können, die Ihnen sonst verborgen blieben. Dieses Buch ist Ihr unverzichtbarer Begleiter auf dem Weg zu einer effektiven und effizienten Textanalyse, die Ihnen hilft, die wahre Bedeutung hinter den Worten zu enthüllen. Ob thematische Analyse mit GENCA, semantische Analyse mit dem Gottschalk-Gleser System oder die Untersuchung internationaler Ereignisse mit KEDS – dieses Buch öffnet Ihnen die Tür zu einer neuen Dimension der Forschung.
Eine Übersicht über Programme zur computerunterstützten Inhaltsanalyse
Abbildung in dieser Leseprobe nicht enthalten
1. hermeneutisch/qualitativ=detailreiche Analyse aller Aspekte
Aufteilung der Texte in Untereinheiten
- Textteile werden mit einem Code versehen (Text, numerisch, deskriptives Memo etc.)
- Definition von Verbindungen/Links zwischen Textsegment, Code und Memo
- Einsicht in eine Tabelle, deren Zellen die benutzerdefinierten Codes enthält
- anschließende Auswertung mit SPSS möglich
- Kodierung durch Mensch, Software verwaltet die Ergebnisse
Probleme bei der Software
- nach dem Einlesen der Texte oft keine Änderungen mehr möglich
- Texte müssen häufig auf einheitliche Zeilenlänge gebracht werden
- Nur selten kann die Texteinheit frei gewählt werden
- Unterschiedliche Arten definierbarer Links
Software für qualitative Datenanalyse
Atlas/ti (Win32s, Win95, WinNT)
- Für komplexe Verknüpfungen und Strukturen
- Kann auch Bildmaterial verarbeiten
FlexText 1.0 (Dos)
- SPSS integriert
Kwalitan 4.0 (DOS)
- Einfach zu bedienen
Textbase alpha, beta (DOS)
- Segmentlänge frei wählbar
PC-ACE (Program for Computer Assisted Coding of Events)
- Basiert auf einer relationalen Datenbank
- Arbeitet mit einem semantischen Wörterbuch für historische Ereignisse
- Stellt in einer Tabelle Beziehungen dar zwischen Personen, Handlungen, Ereignissen
PLCA 2.0 (Program for Linguistic Content Analysis)
- Linguistische Inhaltsanalyse
- Stellt Relationen her zwischen Wörtern innerhalb von Satzteilen (Subjekt-Verb-Objekt)
- SPSS integriert
- Geeignet, um Kommunikationsstrategien zu untersuchen oder Änderungen der öffentlichen Meinung zu messen
Weitere Programme zur qualitativen Inhaltsanalyse:
Abbildung in dieser Leseprobe nicht enthalten
2. empirisch/quantitativ=Testen bereits bekannter Hypothesen und Theorien
Aufteilung der Texte in Untereinheiten
- Bilden von Kategorien mit den entsprechenden Suchbegriffen (beliebig viele je Kategorie)
- Kodierung wird vom Programm durchgeführt (Transformation von Text- in numerische Daten)
- wird ein Suchbegriff gefunden, wird der Code für die dazugehörige Kategorie notiert
- Kodierung durch Software, statistische Auswertungen möglich
Probleme bei der Kodierung:
(siehe auch Werner Früh: "Konventionelle und maschinelle Inhaltsanalyse im Vergleich: Zur Evaluierung computerunterstützter Bewertungsanalysen")
- Homonyme
- Analyseeinheit ist zu groß
- Pronomenfehler
- Negationsfehler
- Mehrfachcodierung von Textstellen
(Abhilfe: Dublettentest durch INTEST, Sperrung codierter Textstellen durch TEXTPACK)
Mögliche Protokolldateien (protokollieren den Kodiervorgang)
- kodierte Texteinheiten
- nicht-kodierte Texteinheiten
- Texteinheiten mit mehrdeutigen Suchbegriffen
- Texteinheiten mit negierten Suchbegriffen
- Texteinheiten mit mehrfach kodierten Textstellen
Software für empirische Datenanalyse
1. Software für die thematische Analyse
GENCA (GENeral Content Analyzer) (DOS, MacOS)
- Das Wörterbuch/die Kategorien können selbst bestimmt werden
- Programm gibt die Häufigkeit der Worte gefundenen Worte für jede Kategorie an
GENERAL INQUIRER III (DOS),
Dimap (DIctionary MAintenance Program) mit MCCA (Minnesota Contextual Content Analysis) (DOS)
- Kategorien schon eingebaut und schwierig zu ändern
- Gibt die Häufigkeit (Tabellenmodus) und die Reihenfolge (Vektormodus) der Codes an
- Läuft nur auf IBM Großrechnern
- Rudimentäre Analysefunktionen
- Nur für englische Texte
- MCCA gibt zusätzlich die Häufigkeit von Indikatoren an (ob der Textteil eher praktisch, emotional, analytisch etc. formuliert ist, oder Indikatoren, die auf eine bestimmte Kategorie hinweisen)
INTEXT 4.0 (INhaltsanalyse von TEXTen) (DOS, Win95, WinNT)
- Mächtige Suchbegriffe (Wortstammfolgen mit definierbarem Abstand)
- Kein eingebautes Kategoriensystem
- Möglichkeit der interaktiven Kodierung
- Kontrolle der Mehrdeutigkeit möglich
- Alle Protokolldateien
- Texteinheiten frei definierbar (bis zu 100.000 Zeichen)
- Die Ergebnisse können mit integriertem SPSS ausgewertet werden
Micro OCP (DOS)
- Produziert Wortlisten, Häufigkeiten und Zusammenhänge (key-word-in-context)
TEXTPACK V 5.0 (Text Package) (DOS, Win95, WinNT)
- Wörter, Wortsequenzen und Wortanfänge als Suchbegriffe möglich
- Kein eingebautes Kategoriensystem
- Maximal 9999 Kategorien möglich
- Texteinheit mit maximal 3985 Zeichen
- Hierarchisches System: maximal drei externe Variablen
- Kodierung erfolgt sehr schnell
- Kontrolle der Mehrdeutigkeit möglich
- Berechnet Worthäufigkeiten und Reihenfolgen, key-words-in-context, Vokabelvergleiche, Kreuzreferenzen
VB-pro (Verbatim Protocol) (DOS)
- Kein eingebautes Kategoriensystem
- Texteinheiten frei wählbar
- Definition externer Variablen nicht möglich
- Maximal 1000 Suchbegriffe möglich in beliebig vielen Kategorien
- Worte, Wortteile und Wortsequenzen als Suchbegriffe möglich
- Schnelles Arbeiten
- Lückenhafte Dokumentation
- Gewöhnungsbedürftige Terminologie
SWIFT 2.81 (Structured Word Identification and Frequency Table) (DOS)
- Maximal 10 Kategorien mit je 20 Unterkategorien, insgesamt max. 600 Suchbegriffe
- Ansatzweise Kontrolle von Negationen
- Statistische Weiterverarbeitung der Kodierergebnisse nicht möglich
- Für große Textmengen nicht geeignet, Codieren von Antworten auf offene Fragen
PROTAN (PROTocol ANalyser) (DOS, MacOS, Unix, VM/CMS)
- Über 30 Analysefunktionen
- Kein eingebautes Kategoriensystem
- Bedienung durch englische Kommandosprache
- Französische Dokumentation
- Schwer bedienbar
2. Software für die semantische Analyse
Gottschalk-Gleser Content Analysis Computerized Scoring System (DOS, Win)
- Soll die Intensität der psychischen Verfassung des Autors/Sprechers (Wut, Feindlichkeit) erkennen
- Als Handlung werden Satzteile betrachtet, die ein Verb einschließen; der Initiator oder Rezipient geht aus dem Nominalsatz hervor
- Die Psychologische Analyse wird mit der Analyse der Häufigkeiten verglichen
KEDS 0.5B2 (Kansas Events Data System) (MacOS)
- Programm zur Kodierung von Daten über internationale Ereignisse
- Basiert auf dem Erkennen der Subjekt-Verb-Objekt-Beziehung
- Entworfen für kurze Nachrichten/Meldungen
Quellen:
- Internet-Seite: http://www.soziologie.uni-jena.de/home/klein/
Häufig gestellte Fragen
Was ist das Thema dieser Übersicht über Programme zur computerunterstützten Inhaltsanalyse?
Diese Übersicht behandelt computergestützte Programme zur Inhaltsanalyse, wobei zwischen hermeneutisch/qualitativen und empirisch/quantitativen Ansätzen unterschieden wird. Sie beschreibt die Arbeitsweise, Probleme und verschiedene Softwarelösungen für beide Bereiche.
Was sind die Hauptunterschiede zwischen hermeneutisch/qualitativer und empirisch/quantitativer Inhaltsanalyse in Bezug auf Software?
Hermeneutisch/qualitative Software konzentriert sich auf die detaillierte Analyse aller Aspekte eines Textes, wobei der Mensch die Kodierung vornimmt und die Software die Ergebnisse verwaltet. Empirisch/quantitative Software hingegen testet bereits bekannte Hypothesen und Theorien, wobei die Software die Kodierung übernimmt und Text in numerische Daten transformiert.
Welche Software wird für die hermeneutisch/qualitative Inhaltsanalyse erwähnt?
Genannte Software für die qualitative Datenanalyse sind Atlas/ti, FlexText 1.0, Kwalitan 4.0, Textbase alpha/beta, PC-ACE und PLCA 2.0.
Welche Probleme können bei der Verwendung von Software für die qualitative Inhaltsanalyse auftreten?
<Häufige Probleme sind eingeschränkte Bearbeitungsmöglichkeiten nach dem Einlesen der Texte, Anforderungen an einheitliche Zeilenlängen, begrenzte Flexibilität bei der Wahl der Texteinheit und unterschiedliche Arten definierbarer Links.
Welche Software wird für die empirisch/quantitative Inhaltsanalyse genannt?
Für die thematische Analyse werden GENCA, GENERAL INQUIRER III (mit Dimap/MCCA), INTEXT 4.0, Micro OCP, TEXTPACK V 5.0, VB-pro und SWIFT 2.81 genannt. PROTAN wird ebenfalls erwähnt.
Welche Probleme können bei der Kodierung in der empirisch/quantitativen Inhaltsanalyse entstehen?
Probleme umfassen Homonyme, zu große Analyseeinheiten, Pronomenfehler, Negationsfehler und Mehrfachcodierung von Textstellen. Einige Programme wie INTEST und TEXTPACK bieten Hilfestellungen zur Behebung einiger dieser Probleme.
Was sind Protokolldateien und welche Arten gibt es?
Protokolldateien dokumentieren den Kodiervorgang. Es gibt Protokolle für kodierte, nicht-kodierte und mehrdeutige Texteinheiten, sowie solche mit negierten Suchbegriffen und mehrfach kodierten Textstellen.
Welche Funktionen bieten die genannten Programme für die empirische Inhaltsanalyse?
Die Funktionen variieren, umfassen aber Worthäufigkeitsanalysen, Key-Word-in-Context-Analysen, Vokabelvergleiche, Kreuzreferenzen, die Erkennung von Subjekt-Verb-Objekt-Beziehungen, die Analyse der Intensität der psychischen Verfassung des Autors/Sprechers und die Kodierung von Daten über internationale Ereignisse.
Welche Software wird für die semantische Analyse erwähnt?
Für die semantische Analyse werden das Gottschalk-Gleser Content Analysis Computerized Scoring System und KEDS 0.5B2 genannt.
Woher stammen die Informationen in dieser Übersicht?
Die Informationen stammen von der Internet-Seite http://www.soziologie.uni-jena.de/home/klein/ und aus dem Buch "Text analysis for the social sciences" von Carl W. Roberts (New Jersey 1997).
- Quote paper
- Isabel Lamotte (Author), 1998, Eine Übersicht über Programme zur computerunterstützten Inhaltsanalyse, Munich, GRIN Verlag, https://www.hausarbeiten.de/document/104393