Ich schreibe derzeit meine Bachelorarbeit und möchte das Google-Suchinteresse für ein Keyword über die letzten 15 Jahre auf wöchentlicher Basis analysieren.
Google Trends bietet aber wöchentliche Daten nur für maximal 5 Jahre am Stück. Wenn ich z.B. die Zeiträume 2008–2012, 2012–2016, 2016–2020 und 2020–2024 einzeln herunterlade, dann ist jeder Datensatz nur relativ auf den eigenen Zeitraum skaliert (0–100), d.h. die Daten sind nicht direkt vergleichbar.
Um das zu lösen, habe ich:
- Die Zeiträume jeweils um 1 Jahr überlappen lassen (z.B. 2011 ist in beiden: 2008–2012 und 2012–2016),
- Für diese Überlappung den Median des Suchinteresses berechnet,
- Und daraus einen Skalierungsfaktor gebildet, um den früheren Datensatz an den späteren anzupassen.
Beispiel:
Wenn der Median im überlappenden Jahr von 2008–2012 bei 30 liegt, und im 2012–2016-Datensatz bei 60, dann skaliere ich die älteren Werte mit dem Faktor 2.
Mein Problem:
Ich habe das Gefühl, dass diese Methode die Daten nicht gut genug approximiert und muss natürlich mein Vorgehen anschließend in der Arbeit begründen.
Meine Frage an euch:
- Gibt es eine bessere Methode, um die einzelnen Google-Trends-Dateien korrekt aufeinander abzustimmen?
- Oder kennt jemand einen Workaround, wie man absolute wöchentliche Trendsdaten über 15 Jahre hinweg bekommt?
- Hat jemand Erfahrung damit und kann mir sagen, ob mein Vorgehen so vertretbar ist?
Danke im Voraus – jede Hilfe ist willkommen 🙏