...

Datenerhebung Bootcamp

Einleitung

Die Datenerhebung ist das Rückgrat jeder wissenschaftlichen Untersuchung. Bevor man sich jedoch den Feinheiten und Techniken der Datenerhebung widmet, ist es unerlässlich, ein solides Verständnis des statistischen Grundvorgehens zu besitzen. Bereits auf dieser Plattform haben wir das allgemeine Prozedere erörtert: Von der Definition der Grundgesamtheit über die Auswahl einer Stichprobe mittels adäquater Sampling-Verfahren bis hin zur Durchführung aussagekräftiger Schlüsse. Insbesondere in der Phase der Datenerhebung, sei es für eine Abschlussarbeit oder eine andere Forschungsarbeit, ist die Kenntnis über das Verhältnis von Grundgesamtheit und Stichprobe entscheidend.

In diesem Blogbeitrag werden wir zunächst die verschiedenen Stichprobenverfahren beleuchten, die in der Forschung Anwendung finden. Es wird diskutiert, wie man die ideale Größe der Stichprobe für das eigene Forschungsvorhaben bestimmt – ein Aspekt, der oft Kopfzerbrechen bereitet.

Anschließend widmen wir uns den Methoden der Datengewinnung. Obwohl zahlreiche Techniken zur Verfügung stehen, sind Umfragen die vorherrschende Methode, insbesondere in den Sozialwissenschaften. Aus diesem Grund ist es wichtig, ein tieferes Verständnis für Umfragen zu entwickeln: Was genau sind sie, und wie können sie effektiv eingesetzt werden?

Darüber hinaus werden wir uns mit zwei spezifischen, aber wesentlichen Aspekten der Datenerhebung auseinandersetzen: den Skalenniveaus und den Methoden zur Sicherung der Datenqualität. Während die Auswahl der Stichprobe klärt, wen wir befragen, adressieren die Skalenniveaus die Frage nach dem „Was“. Was fragen wir genau, und welche Qualität haben die erhobenen Daten? Eine sorgfältige Beachtung der Skalenniveaus erleichtert nicht nur die spätere Datenanalyse, sondern ist auch entscheidend für die Gewinnung valider und reliabler Daten.

Abschließend werden wir uns zwei fortgeschritteneren Themen zuwenden: der Faktorenanalyse und der Reliabilitätsanalyse. Beide spielen eine zentrale Rolle bei der Untersuchung der Struktur der Daten und der Überprüfung ihrer Konsistenz. Diese technischen Aspekte mögen auf den ersten Blick komplex erscheinen, sind aber unerlässlich für eine fundierte wissenschaftliche Arbeit.

Durch die Auseinandersetzung mit diesen Themen erhalten Forschende ein umfassendes Toolkit, das sie befähigt, Daten nicht nur effektiv zu erheben, sondern auch deren Qualität sicherzustellen. So legt die sorgfältige Planung und Durchführung der Datenerhebung das Fundament für aussagekräftige Ergebnisse und erfolgreiche Forschungsprojekte.

Arten der Datenerhebung

In diesem Abschnitt fokussieren wir uns auf die Grundlagen der Datenerhebung für Forschungsstudien. Die Methoden hierzu können vielfältig sein, doch in der Praxis dominieren besonders zwei Ansätze: Umfragen und Beobachtungen.

Umfragen sind in den Sozialwissenschaften weit verbreitet, da sie es ermöglichen, große Datenmengen systematisch zu sammeln. Sie können sowohl quantitativ als auch qualitativ ausgerichtet sein. Quantitative Umfragen nutzen geschlossene Fragen für statistische Analysen, während qualitative Interviews tiefergehende Einblicke in individuelle Perspektiven bieten.

Beobachtungen gelten oft als objektive Methode, da der Forscher versucht, ohne direkte Interaktion Daten zu sammeln. Dies kann persönlich oder durch Videoaufnahmen geschehen. Obwohl Beobachtungen wertvolle Daten liefern, stoßen sie bei latenten Variablen wie Persönlichkeitsmerkmalen an ihre Grenzen, da diese nicht direkt beobachtbar sind.

Ein weiterer erwähnenswerter Punkt sind Experimente. Sie werden häufig als Datenerhebungsmethode genannt, obwohl sie eher ein Forschungsdesign darstellen und sich auf andere Erhebungsmethoden stützen, wie Befragungen oder Beobachtungen vor und nach dem experimentellen Eingriff.

Zuletzt sollte die Nutzung von Sekundärdaten nicht unterschätzt werden. Diese Daten, die bereits für andere Studien gesammelt wurden, können eine wertvolle Ressource darstellen. Allerdings ist man bei der Verwendung von Sekundärdaten in der Flexibilität der Forschungsfragen eingeschränkt, da die Daten ursprünglich nicht für die spezifische Forschungsfrage erhoben wurden.

Zusammenfassend spielt die Umfrage eine zentrale Rolle in unserem Kurs und reflektiert die Realität der Datenerhebung in den Sozialwissenschaften. Trotz der Vielfalt der Methoden ist die Auswahl stark von der spezifischen Forschungsfrage und den Zielen der Studie abhängig.

Umfrage (Survey)

Eine Umfrage ist ein zentrales Werkzeug in der Forschung, bestehend aus einer Reihe von Fragen oder Aussagen (Items), um bestimmte Informationen zu erlangen. Sie kann vielfältige Formen annehmen – von Multiple-Choice bis zu offenen Fragen – und wird genutzt, um ein breites Spektrum an Daten zu sammeln, von statistischer Kompetenz bis hin zu persönlichen Meinungen.

Ein Item in einer Umfrage setzt sich aus einer Frage oder Aussage (Itemstamm) und den dazugehörigen Antwortmöglichkeiten zusammen. In der Statistik fokussieren wir uns vorrangig auf geschlossene Fragen, die eine effiziente und einheitliche Datenerhebung ermöglichen. Offene Fragen können zwar tiefere Einblicke gewähren, senken jedoch oft die Rücklaufquote und erschweren die Auswertung.

Um die Qualität einer Frage zu gewährleisten, sind Klarheit und Genauigkeit essentiell. Diese Kriterien sichern, dass nur das gemessen wird, was beabsichtigt ist (Validität), und dass die Fragen für die Teilnehmenden leicht verständlich sind. Der Kontext der Forschungsfrage und die Zielgruppe spielen dabei eine entscheidende Rolle.

Eine Methode, um die Qualität von Fragen vorab zu prüfen, sind kognitive Pretests mit Think-Aloud-Protokollen. Dabei werden potenzielle Teilnehmende gebeten, ihre Gedanken beim Beantworten der Fragen laut auszusprechen. Dies gibt Aufschluss über mögliche Missverständnisse und hilft, die Fragen vor der eigentlichen Umfrage zu optimieren.

Ein häufiger Fehler von Studierenden ist der Versuch, eigene Items zu entwickeln, ohne auf bestehende, wissenschaftlich geprüfte Skalen zurückzugreifen. Dies ist nicht nur zeitaufwändig, sondern auch wenig zielführend, da die Wissenschaft auf der Kumulation und dem Vergleich von Daten aufbaut. Die Nutzung etablierter Messinstrumente fördert die Konsistenz und Vergleichbarkeit in der Forschung.

Zusammenfassend ist die sorgfältige Gestaltung von Umfragen und die Auswahl der richtigen Fragen entscheidend für den Erfolg einer Studie. Durch den Einsatz bewährter Methoden und die Berücksichtigung wissenschaftlicher Prinzipien können Forschende valide und aussagekräftige Daten sammeln.

Stichprobe

Das Problem: Verzerrte Stichproben

Jetzt möchte ich über Stichproben sprechen. Wir haben bereits erwähnt, dass die Stichprobe die Verbindung zwischen der Grundgesamtheit und der Stichprobe herstellt. Und wir haben gesagt, dass sie wichtig ist, weil wir am Ende unserer Analyse einen sogenannten Rückschluss von der Stichprobe auf die Grundgesamtheit ziehen wollen. Und das bedeutet, dass wir voraussetzen, dass das Stichprobenverfahren sehr gut durchgeführt wurde und dass die Daten nicht verzerrt wurden. Was meine ich mit einer verzerrten Stichprobe?

Es gibt eine berühmte Geschichte über Stichproben, die mit der Wahl von Franklin D. Roosevelt zum Präsidenten der Vereinigten Staaten zu tun hat. Damals, als Roosevelt noch nicht Präsident war, gab es zwei Prognosen, die wir uns jetzt ansehen wollen.

Die eine wurde von Literary Digest erstellt. Das war damals in den 1930er Jahren ein ziemlich großes und beliebtes Magazin, das all seinen Abonnenten eine Frage stellte, die 2,4 Millionen ihrer Kunden beantworteten und ihre fiktive Stimme abgaben. Für wen würde ich stimmen, wenn heute Wahltag wäre? Auf der anderen Seite gab es Gallup, ein Marktforschungsinstitut, das auch heute noch existiert und sehr bekannt ist. Sie hatten eine sehr viel kleinere Stichprobe als Literary Digest. Aber sie hatten einen großen Vorteil. Da die Umfrage nur an Abonnenten verschickt wurde, konnte Literary Digest nicht jeden erreichen, der die Möglichkeit hat, bei einer echten Wahl seine Stimme abzugeben.

Gallup hingegen hatte diese Freiheit, und sie hatten ein ausgefeiltes Stichprobenverfahren, um eine kleine, aber repräsentative Stichprobe für die gesamten Vereinigten Staaten zu erhalten. Und am Ende gab es einen gewaltigen Unterschied. Literary Digest war der Meinung, dass Landon die Wahl vor Roosevelt gewinnen würde, und prognostizierte sogar einen Erdrutschsieg. Gallup hingegen setzte sozusagen auf das richtige Pferd und machte eine sehr gute Vorhersage darüber, wer der nächste Präsident sein wird und wie der genaue Ausgang der Wahl sein wird.

Diese Geschichte zeigt uns, dass es wichtig ist, eine unvoreingenommene Stichprobe zu haben, die repräsentativ für die gesamte Bevölkerung ist, auf die man Rückschlüsse ziehen möchte.

Stichprobeverfahren

Lass uns noch ein bisschen mehr über Stichproben sprechen. Welche Arten von Stichprobenverfahren gibt es? Diejenige, die dir wahscheinlich schon etwas sagt ist, wohl die einfache Zufallsstichprobe. Sie ist sozusagen der Goldstandard, von dem viele behaupten, er sei das Einzige, was du für echte Wissenschaft verwenden solltest. Das bedeutet, dass jeder Fall in deiner Population die gleiche Wahrscheinlichkeit hat, für deine Stichprobe ausgewählt zu werden. Das hört sich ziemlich einfach an, aber in Wirklichkeit ist es ziemlich kompliziert, das zu erreichen, denn oft gibt es einige kontextuelle Einflüsse, die deine Zufallsauswahl beeinflussen. Stell dir zum Beispiel vor, du gehst dienstags um 10:00 Uhr in dein Lieblingseinkaufszentrum und verteilst zufällig deine Fragebögen. Das ist natürlich nicht wirklich zufällig, denn es ist nur ein bestimmter Teil der Bevölkerung, der sich an diesem Tag und zu dieser Uhrzeit in dem Einkaufszentrum aufhält.

Wenn du also das Gefühl hast, dass es sich um eine Zufallsstichprobe handelt, dann ist das nicht immer der Fall. Einige Formen, die funktionieren, sind zum Beispiel die Zufallszahlenwahl, bei der du ein Telefon hast, das nach dem Zufallsprinzip einige Nummern wählt und du dann mit demjenigen sprichst, der sich meldet. Oder du hast eine Liste mit allen Angestellten eines Unternehmens und lässt den Computer eine zufällige Wahl treffen. Es gibt also durchaus Möglichkeiten, das zu tun. Aber es ist ziemlich unwahrscheinlich, dass du das für den Großteil deiner Forschung tun wirst, denn was ich dir auch über die sozialwissenschaftliche Forschung sagen kann, ist, dass wir fast nie Zufallsstichproben haben. Das ist so etwas wie der Goldstandard, aber selbst in der Wissenschaft ist das eher selten der Fall.

Deshalb möchte ich dir die nächste Variante davon vorstellen, nämlich die Quotenstichprobe. Quotenstichproben sind viel praktischer, weil du einfach sagst: Okay, es gibt bestimmte Dimensionen, die mir sehr wichtig sind, zum Beispiel Geschlecht und Alter. Und da möchte ich eine ausgewogene Verteilung haben oder eine Verteilung, die meiner Grundgesamtheit entspricht. Ich könnte also sagen, okay, ich will 50-50 in Bezug auf das Geschlecht und vielleicht will ich zwei Drittel ältere Menschen, was auch immer das für mich bedeutet, und ein Drittel jüngere Menschen. Dann bekomme ich eine Vorstellung davon, wie viele Leute ich will, und kann die Zahlen einfach eingeben. Das ist eine ziemlich kosteneffiziente Lösung. Außerdem hat es den Vorteil, dass es viel zielgerichteter ist als eine Zufallsstichprobe, denn selbst bei einer Zufallsstichprobe gibt es natürlich das Problem, dass ich bei einer relativ kleinen Stichprobengröße, sagen wir 100 Personen, vielleicht immer noch 80 % weibliche Teilnehmer habe, obwohl ich eigentlich 50-50 haben wollte. Das kann natürlich auch bei einer Zufallsstichprobe passieren, bei einer Quotenstichprobe. Das ist aber nicht so sehr der Fall. Andererseits besteht das Problem bei Quotenstichproben natürlich darin, dass ich meine relevanten Dimensionen im Voraus festlegen muss. Das muss ich bei einer Zufallsstichprobe nicht tun, denn bei einer Zufallsstichprobe werden alle möglichen Kriterien, sowohl bekannte als auch unbekannte, implizit berücksichtigt. Selbst wenn es also eine sehr seltene Krankheit gibt, gibt es einen bestimmten Anteil, eine bestimmte Wahrscheinlichkeit, dass diese Krankheit in unserem Stichprobenverfahren im richtigen Verhältnis repräsentiert wird. So funktioniert eben der Zufall.

Und zu guter Letzt möchte ich dir noch das Convenience Sampling vorstellen. Ein Convenience Sample ist zunächst einmal, genau wie es sich anhört, ziemlich bequem für dich, weil du dich nicht anstrengst, um Verzerrungen zu vermeiden, sondern einfach das nimmst, was logistisch einfach für dich ist. Aber wenn du das tust, brauchst du dich deswegen nicht schlecht zu fühlen. Denn viele Studien, selbst in der veröffentlichten Wissenschaft, basieren auf solchen Stichproben. Nehmen wir zum Beispiel den Bereich der Psychologie, der ein ziemlich großes Problem hat: Viele psychologische Studien beruhen auf Stichproben von Studierenden, und das ist im ersten Fall natürlich schon ein Problem – weil sie alle ein ziemlich ähnliches, junges Alter haben. Aber wir wissen auch, dass das Verhältnis zwischen den Geschlechtern unter den Psychologiestudierenden oft ziemlich unausgewogen ist. Aus der Perspektive der Stichprobenbildung gibt es hier einige Probleme.

Es gibt natürlich noch mehrere Stichprobeverfahren. Erwähnt werden kann noch das Klumpenverfahren, bei den auf mehreren Ebenen gesampelt wird (zuerst in den Klumpen, z.B. Klassen einer Schule, dann innerhalb eines Klumpens, also z.B. Schüler*innen der ausgewählten Klumpen). Praktische Relevanz hat auch die Schneeballtechnik. Beispiel: Untersuchung über Homosexualität von Dannecker und Reiche (1974). Die Fragebögen wurden an homosexuelle Freunde und Bekannte verteilt, die ihrerseits Fragebögen im Freundes- und Bekanntenkreis weiterreichten. Auf Basis dieser Stichprobenauswahl können keine Aussagen über die Grundgesamtheit gemacht werden, aber man bekommt guten Zugang zu einer Population, für die es kein Verzeichnis oder so etwas gibt!

Man kann auch (insb. in der qualitativen Forschung) nach datengesteuerte Verfahren (Zusammensetzung ergibt sich erst im Untersuchungsverlauf, z.B. fallkontrastierung oder bestätigende Auswahl) und theoriegesteuerte Verfahren unterscheiden (z.B. qualitative Stichprobenpläne).

Beispiele aus der Forschungspraxis

Ein weiteres klassisches Beispiel für das Stichprobenproblem findet sich auch im medizinischen Bereich. Ich denke da vor allem an Tests mit der Haut, z. B. wie die Sonneneinstrahlung die Haut verändert, ob sie gesund oder ungesund ist. Hier ist es klar, dass die Forscherinnen und Forscher Haut brauchen, um ihre Forschung durchzuführen, aber es ist auch klar, dass sie wahrscheinlich kein Tier verwenden können, weil die menschliche Haut ganz anders ist als die Haut vieler anderer Tiere. Man auch meistens keine lebenden Menschen zu solchen Studien einladen kann, weil das für sie schädlich sein könnte. Was hier dann oft verwendet wird ist die Vorhaut beschnitterner Jungen. Das ist natürlich toll, weil es eine Art Datenquelle ist, die sonst nicht genutzt würde. Auf der anderen Seite bringt es natürlich ein Problem mit der Stichprobe mit sich, denn das Alter und das Geschlecht der Stichprobe sind im Vergleich zur Gesamtbevölkerung extrem verzerrt. Hier braucht es dann mindestens eine sehr starke theoretische Fundierung, mit der man belegen kann, dass solche Schlüsse zu einer weiteraus heterogeneren Grundgesamtheit trotzdem irgendwie passend sind.

Stichprobengröße (Fallzahl)

Jetzt möchte ich auf die Stichprobengröße eingehen, die du für deine Studie brauchst. Natürlich möchtest du eine möglichst hohe Stichprobengröße haben. Dafür gibt es eine Reihe von Gründen, auf die wir zurückkommen werden, wenn wir uns mit den Details der Statistik befassen. Grundsätzlich gilt: Je größer die Stichprobe, desto genauer sind deine Schätzungen.

Das ist also der Hauptgrund, warum du mehr Daten haben willst. Allerdings gibt es natürlich auch Kosten, die bei der Beschaffung zusätzlicher Daten berücksichtigt werden müssen. Wir müssen uns also überlegen, welche Datenmenge sinnvoll ist. Es ist sehr schwierig, hier eine Antwort zu geben, die wirklich alle Fragen beantwortet. Aber ich möchte dir ein paar Kriterien an die Hand geben, die du bei deiner eigenen Forschung oder bei der Bewertung der Forschung anderer anwenden kannst.

Im Grunde hängt es von der Komplexität des Modells ab. Wenn du ein sehr, sehr, sehr komplexes Modell mit vielen Variablen, vielen verschiedenen Beziehungen, die du testen willst, Mediatoren, Moderatoren, was auch immer, dann hast du einen höheren Bedarf an Daten und an Stichprobengröße. Wenn es sich um einen sehr einfachen Test handelt, vergleichst du vielleicht nur Gruppen von Menschen. Du hast zum Beispiel zwei Gruppen. Du hast ein Kriterium, das dich interessiert und das auch leicht zu messen ist. Dann kannst du mit erstaunlich wenigen Daten auskommen.

Die meisten Studien liegen irgendwo dazwischen. Wenn ich an eine Masterarbeit denke, hast du normalerweise eine mittelgroße Komplexität, würde ich sagen. Um dir eine Zahl zu nennen: 100 bis 200 Fälle sind normalerweise ganz okay. Aber das ist natürlich nur eine Zahl. Diese Zahl ist ziemlich bedeutungslos. Du musst dir dein Modell wirklich genau ansehen.

Ein zweiter Punkt, der deine Entscheidung beeinflusst, ist die Größe des Effekts, den du untersuchen willst. Handelt es sich um einen Effekt, der voraussichtlich ziemlich groß, sehr deutlich sein wird? Es gibt eine sehr starke Beziehung zwischen zwei Variablen. Dann brauchst du nicht so viele Daten, denn wenn es so offensichtlich ist, dann siehst du es fast mit den bloßen Augen.

Aber was ist, wenn es ein wirklich winziger Effekt ist? Nun, dann musst du wirklich hineinzoomen. Es ist ein bisschen wie bei einem Mikroskop, würde ich sagen. Du brauchst mehr Daten, um den Effekt zu vergrößern und ihn für dich sichtbar zu machen. Die Größe oder zumindest die erwartete Größe des Effekts, den du untersuchen willst, ist also das zweite Kriterium, das generell sehr wichtig ist.

Zum Abschluss möchte ich noch eine Faustregel nennen, die oft in Lehrbüchern zitiert wird. Sie muss natürlich mit Vorsicht genossen werden. Aber oft ist es so: Multipliziere die Anzahl der Variablen in deinem statistischen Modell mit 20. Dann kommst du auf die Anzahl der Fälle, die für deine Studie nützlich sein könnten. Du siehst also, dass diese Faustregel die erwartete Effektgröße außer Acht lässt, aber sie berücksichtigt die Komplexität des Modells so halbwegs, denn wenn du mehr Variablen hast, ist es sehr wahrscheinlich, dass dein Modell komplexer ist als ein Modell mit weniger Variablen.

Fehlerquellen bei der Stichprobenziehung

Beim Prozess der Stichprobenziehung in der Forschung können verschiedene Arten von Fehlern auftreten, die die Genauigkeit und Zuverlässigkeit der Ergebnisse beeinflussen. Diese Fehlerquellen lassen sich in folgende Hauptkategorien einteilen:

  1. Zufallsfehler der Stichprobe: Diese Fehler entstehen durch die natürliche Variabilität innerhalb der Stichprobe und sind normalerweise unvermeidlich. Sie können jedoch durch die Vergrößerung der Stichprobengröße reduziert werden.
  2. Systematische Fehler: Diese treten auf, wenn es eine konstante Verzerrung bei der Datenerhebung gibt, die zu einer systematischen Abweichung von den wahren Werten führt.
  3. Fehler bei der Stichprobenziehung: Solche Fehler ergeben sich, wenn die Methode zur Auswahl der Stichprobe zu einer Verzerrung führt, z.B. durch eine nicht repräsentative Auswahl der Teilnehmenden.
  4. Messfehler: Diese resultieren aus Ungenauigkeiten bei der Datenerfassung, sei es durch unklare Fragen, falsche Antworten oder Fehler bei der Datenübertragung.
  5. Fehlerquellen im Interview: Bei Befragungen können Fehler durch den Interviewer (z.B. durch suggestive Fragen) oder durch die Befragten selbst (z.B. durch falsches Verstehen der Fragen) entstehen.
  6. Diskrepanz zwischen Zielpopulation und Surveypopulation: Hierbei handelt es sich um Fehler, die entstehen, wenn die tatsächlich untersuchte Population (Surveypopulation) nicht genau der definierten Zielgruppe (Zielpopulation) entspricht.
  7. Non-Response: Dieser Fehler tritt auf, wenn ein signifikanter Anteil der ausgewählten Stichprobe nicht an der Umfrage teilnimmt, was zu einer Verzerrung der Ergebnisse führen kann.

Durch ein besseres Verständnis dieser Fehlerquellen und durch die Anwendung sorgfältiger Methoden bei der Stichprobenziehung und Datenerhebung können Forschende die Auswirkungen dieser Fehler minimieren und die Qualität ihrer Forschungsergebnisse verbessern.

Messen und Skalenniveaus

Skalenniveaus sind so wichtig, dass ich nun einen eigenen Eintrag dazu habe.

Gütekriterien

Frage: Welche Kriterien fallen dir ein, die quantitative Forschung “gut” machen?

  • Objektivität (Unabhängigkeit von den durchführenden Personen)
    • Durchführungsobjektivität (Unabhängigkeit der Messung von den Messenden)
    • Auswertungsobjektivität (Unabhängigkeit zwischen einer Auswertung und der auswertenden Personen)
    • Interpretationsobjektivität (Unabhängigkeit zwischen der interpretierenden Person und der Interpretation)
  • Validität (es wird das gemessen, was gemessen werden soll)
    • Inhaltsvalidität (alle Aspekte werden gemessen)
    • Kriteriumsvalidität (hoher Zusammenhang zwischen dem gemessenen Konstrukt und eines externen Kriteriums)
    • Vorhersagevalidität (genaue Prognosen sind möglich)
  • Reliabilität (wiederholte Messungen mit einem Messinstrument sollten unter den gleichen Bedingungen zu dem gleichen Ergebnis gelangen)

Frage HR: Inwiefern sind diese Kriterien in deiner Organisation beim Theme Personalauswahl erfüllt?

 Datenmanagement

Fälle selektierenhttps://www.youtube.com/embed/QcABfU6wCBk

Daten umkodierenhttps://www.youtube.com/embed/H86eeEBsIdA

Items zusammenfassen

  • Skalen bilden: Items können zu Mittelwerten oder Summen zusammengefasst werden, um Skalen zu bilden.

https://youtube.com/watch?v=yXO5ST52Ufwhttps%3A

Weiterführend

Gütekriterien: Ein Beispielhttps://www.youtube.com/embed/PNJHwd4wF6U?start=2220