Direkt zum Inhalt

Brislinger, E., & Moschner, M. (2019). Datenaufbereitung und Dokumentation. In U. Jensen, S. Netscher, & K. Weller (Eds.), Forschungsdatenmanagement sozialwissenschaftlicher Umfragedaten (p. pp 97-114). Verlag Barbara Budrich. 10.3224/84742233.07

Zusammenfassung

Die Datenaufbereitung und Dokumentation als eine Phase im Verlauf eines empirischen Forschungsprojekts hat das Ziel, die erhobenen Daten für die Forschung nutzbar zu machen. Hierbei werden die Daten codiert, überprüft, bearbeitet und dokumentiert. Das stellt Forschende vor die Aufgabe, die einzelnen Arbeitsschritte zu definieren und zu einem Workflow zusammenzusetzen. Dieser geht idealerweise von der Art und Komplexität der Daten aus und hilft, die Ziele des Projekts umzusetzen, ohne die oft begrenzten zeitlichen und finanziellen Ressourcen aus dem Blick zu verlieren. Unter empirischen Forschungsprojekten verstehen wir in diesem Kapitel Projekte, die auf der Grundlage eines Erhebungsinstruments einfache oder komplexe zeit- und/oder ländervergleichende Daten erheben und diese als Analysefiles aufbereiten. Die Projektziele können ausgehend von den Prinzipien guter wissenschaftlicher Praxis zunächst auf die Datenqualität, im Sinne möglichst fehlerfreier Daten, gerichtet sein. Darüber hinausgehend können sie weitere Möglichkeiten der Datennutzung, wie z.B. die Replikation der Projektergebnisse oder auch eine Nachnutzung der Daten durch Dritte, eröffnen. Mit der Komplexität der Daten und dem Wunsch, den Prozess ihrer Entstehung und Bearbeitung transparent zu machen, wachsen gleichzeitig die Anforderungen an ihre Aufbereitung und Dokumentation. Vorgenommene Datenmodifikationen müssen dann auch für Forschende außerhalb des Projekts nachvollziehbar und Datenprobleme gut dokumentiert sein. Nur so bleibt die Datenqualität für nachfolgende Analysen bewertbar und es erschließen sich insbesondere komplexe Datenfiles auch ohne internes Projektwissen. Die Angebote von Repositorien und Datenarchiven können dann genutzt werden, um die Projektergebnisse nachhaltig zu sichern und für eine erneute Nutzung bereitzustellen (DFG 2015). Hierfür muss am Ende eines Projekts eine Dokumentation zur Verfügung stehen, die Datennutzenden eine Bewertung des Inhalts und der Qualität der Daten ermöglicht und gleichzeitig den Standards des gewählten Repositoriums oder Datenarchivs entspricht. Erfahrungsgemäß gelingt dies eher dann und ohne zusätzliche Ressourcen, wenn dieser Schritt frühzeitig geplant wird und die Informationen und Dokumentationen im Projektverlauf zeitnah aufgebaut und systematisch organisiert werden (Ball 2012: 3). Da im Alltag empirischer Forschungsprojekte die Analyse der erhobenen Daten und die Publikation der Forschungsergebnisse im Vordergrund stehen, sind Ressourcen und Zeit für ihre tiefere Aufbereitung und umfassende Dokumentation oft begrenzt. Projekte stehen demzufolge vor der Herausforderung, einen Datenaufbereitungsworkflow zu entwickeln, der möglichst schlank ist und gleichzeitig eine hohe Datenqualität sowie umfassende Dokumentation ermöglicht. Ausgehend hiervon richtet sich der Beitrag auf die Frage, wie ein systematisches Forschungsdatenmanagement (Jensen 2011) helfen kann, die Ziele eines Projekts in praxisnahe Workflows und Arbeitsschritte zu übersetzen und diese zwischen den beteiligten Personen zu kommunizieren. Hierfür erörtern wir zunächst die Bedeutung der Planung der Datenaufbereitungsschritte im Lebenszyklus eines Forschungsprojekts (Kapitel 6.2). Wir gehen dann auf Regeln, Standards und Prozeduren ein, die für die Variablencodierung (Kapitel 6.3) sowie für die Prüfung und Behandlung von Datenfehlern (Kapitel 6.4), als Kernaufgaben der Datenaufbereitung, erforderlich sind. Auf dieser Grundlage entwickeln wir das Modell eines Datenaufbereitungsworkflows (Kapitel 6.5), der die geplanten Bearbeitungsschritte zusammenfasst und hilft, diese in die Praxis umzusetzen. Abschließend erörtern wir die Bedeutung des Transfers der Daten und Informationen im Projektverlauf für den Aufbau einer umfassenden Dokumentation (Kapitel 6.6). Die Beispiele, die wir hierfür verwenden, stammen z.T. aus größeren Forschungsprojekten. Sie illustrieren den Grundgedanken des Beitrags, zu Beginn eines Projekts Datenaufbereitungsregeln zu vereinbaren und die erforderlichen Datensätze und Variablen zu definieren, hieraus geeignete Bearbeitungsschritte abzuleiten und schließlich die einzelnen Elemente zu einem Workflow zusammenzusetzen. Sie lassen sich somit gleichermaßen in die Praxis mittlerer und kleinerer Projekte umsetzen.