Breitbandmessung oder Sync-Rate entscheidend? Hallo zusammen, ich habe einen G.fast-Internetanschluss inkl. Fritzbox 7590 AX. Tarif laut Anbieter: Download: max. 100 / normal 90 / min. 54 Mbit/s Upload: max. 50 / normal 40 / min. 30 Mbit/s Weil normale Speedtests immer zu wenig zeigten, habe ich die Breitbandmessung der Bundesnetzagentur gemacht: Thinclient direkt am LAN1-Port mit mitgeliefertem Kabel, WLAN aus, keine weiteren Geräte, keine Switche, alle "Tests" im Programm bestanden – also wirklich sauber. → Ergebnis: 80–85 Mbit/s Download bei den ersten 10 Messungen. Also der Normalwert kann nicht bei 90 % der 30 Messungen erreicht werden. Ich habe daraufhin den Support angerufen. Dort hieß es, im Router-Dashboard seien ja 94 Mbit/s aktuelle Datenrate , also „alles okay“. ChatGPT hat mir geholfen, den Wert als Sync-Rate einzuordnen. Der soll wohl nur die technisch mögliche Obergrenze darstellen, von der normalerweise ca. 10 % wegfallen. Vorher bei der Telekom stand im Speedport-Dashboard auch immer ca. 110 Mbit/s und der Speedtest zeigte genau 100 Mbit/s. Das klingt für mich also erstmal plausibel. Jetzt meine Fragen: Wie aussagekräftig ist der Wert im Fritzbox-Dashboard wirklich? Was zählt mehr bei der Beurteilung einer Störung – ein Wert vom Provider oder die Messkampagne? Versucht der Support einfach nur, mich abzuwimmeln? Ich finde aber leider keine belastbare Quelle, die erklärt, wie viel üblicherweise zwischen Sync-Rate und nutzbarer Geschwindigkeit verloren geht – habt ihr da Erfahrungen oder fundierte Infos? Danke Euch im Voraus – jeder Hinweis hilft!