Brislinger, E., & Moschner, M. (2019). Datenaufbereitung und Dokumentation. In U. Jensen, S. Netscher, & K. Weller (Eds.), Forschungsdatenmanagement sozialwissenschaftlicher Umfragedaten (p. pp 97-114). Verlag Barbara Budrich. 10.3224/84742233.07
Zusammenfassung
Die Datenaufbereitung und Dokumentation als eine Phase im Verlauf eines empirischen Forschungsprojekts hat das Ziel, die erhobenen Daten für die Forschung nutzbar zu machen.
Hierbei werden die Daten codiert, überprüft, bearbeitet und dokumentiert. Das stellt Forschende vor die Aufgabe, die einzelnen Arbeitsschritte zu definieren und zu einem Workflow
zusammenzusetzen. Dieser geht idealerweise von der Art und Komplexität der Daten aus und
hilft, die Ziele des Projekts umzusetzen, ohne die oft begrenzten zeitlichen und finanziellen
Ressourcen aus dem Blick zu verlieren.
Unter empirischen Forschungsprojekten verstehen wir in diesem Kapitel Projekte, die auf
der Grundlage eines Erhebungsinstruments einfache oder komplexe zeit- und/oder ländervergleichende Daten erheben und diese als Analysefiles aufbereiten. Die Projektziele können
ausgehend von den Prinzipien guter wissenschaftlicher Praxis zunächst auf die Datenqualität,
im Sinne möglichst fehlerfreier Daten, gerichtet sein. Darüber hinausgehend können sie weitere Möglichkeiten der Datennutzung, wie z.B. die Replikation der Projektergebnisse oder
auch eine Nachnutzung der Daten durch Dritte, eröffnen. Mit der Komplexität der Daten und
dem Wunsch, den Prozess ihrer Entstehung und Bearbeitung transparent zu machen, wachsen
gleichzeitig die Anforderungen an ihre Aufbereitung und Dokumentation. Vorgenommene
Datenmodifikationen müssen dann auch für Forschende außerhalb des Projekts nachvollziehbar und Datenprobleme gut dokumentiert sein. Nur so bleibt die Datenqualität für nachfolgende Analysen bewertbar und es erschließen sich insbesondere komplexe Datenfiles auch
ohne internes Projektwissen.
Die Angebote von Repositorien und Datenarchiven können dann genutzt werden, um die
Projektergebnisse nachhaltig zu sichern und für eine erneute Nutzung bereitzustellen (DFG
2015). Hierfür muss am Ende eines Projekts eine Dokumentation zur Verfügung stehen, die
Datennutzenden eine Bewertung des Inhalts und der Qualität der Daten ermöglicht und
gleichzeitig den Standards des gewählten Repositoriums oder Datenarchivs entspricht. Erfahrungsgemäß gelingt dies eher dann und ohne zusätzliche Ressourcen, wenn dieser Schritt
frühzeitig geplant wird und die Informationen und Dokumentationen im Projektverlauf zeitnah aufgebaut und systematisch organisiert werden (Ball 2012: 3).
Da im Alltag empirischer Forschungsprojekte die Analyse der erhobenen Daten und die
Publikation der Forschungsergebnisse im Vordergrund stehen, sind Ressourcen und Zeit für
ihre tiefere Aufbereitung und umfassende Dokumentation oft begrenzt. Projekte stehen demzufolge vor der Herausforderung, einen Datenaufbereitungsworkflow zu entwickeln, der
möglichst schlank ist und gleichzeitig eine hohe Datenqualität sowie umfassende Dokumentation ermöglicht. Ausgehend hiervon richtet sich der Beitrag auf die Frage, wie ein systematisches Forschungsdatenmanagement (Jensen 2011) helfen kann, die Ziele eines Projekts
in praxisnahe Workflows und Arbeitsschritte zu übersetzen und diese zwischen den beteiligten Personen zu kommunizieren.
Hierfür erörtern wir zunächst die Bedeutung der Planung der Datenaufbereitungsschritte
im Lebenszyklus eines Forschungsprojekts (Kapitel 6.2). Wir gehen dann auf Regeln, Standards und Prozeduren ein, die für die Variablencodierung (Kapitel 6.3) sowie für die Prüfung und Behandlung von Datenfehlern (Kapitel 6.4), als Kernaufgaben der Datenaufbereitung,
erforderlich sind. Auf dieser Grundlage entwickeln wir das Modell eines Datenaufbereitungsworkflows (Kapitel 6.5), der die geplanten Bearbeitungsschritte zusammenfasst und
hilft, diese in die Praxis umzusetzen. Abschließend erörtern wir die Bedeutung des Transfers
der Daten und Informationen im Projektverlauf für den Aufbau einer umfassenden Dokumentation (Kapitel 6.6).
Die Beispiele, die wir hierfür verwenden, stammen z.T. aus größeren Forschungsprojekten. Sie illustrieren den Grundgedanken des Beitrags, zu Beginn eines Projekts Datenaufbereitungsregeln zu vereinbaren und die erforderlichen Datensätze und Variablen zu definieren,
hieraus geeignete Bearbeitungsschritte abzuleiten und schließlich die einzelnen Elemente zu
einem Workflow zusammenzusetzen. Sie lassen sich somit gleichermaßen in die Praxis mittlerer und kleinerer Projekte umsetzen.
In dem vom BMBF geförderten Projekt FeKoM wurden Empfehlungen für forschungsethisches Handeln in der Kommunikations- und Medienwissenschaft systematisch erarbeitet, empirisch fundiert und der Scientific Community zur Verfügung gestellt.