Hallo, arbeite mit einem Sensor, wo ich die Frequenz selber einstellen kann. Nun steht dort als Kommentar
// controls the period in microseconds of data collection (1/frequency)
// framePeriod in microseconds: 10000 microseconds = 100 Hz
Jetzt hat mich das total verwirrt, weil es keinen Sinn ergibt, rein rechnerisch. Eigentlich sind 100Hz = 10ms.
Jetzt ist die Frameperiod mit 10000 angegeben. Was ja 1/f ist, was wiederum T wäre. Das würde aber 0.1Hz ergeben. Das sind keine 100 Hz und viel langsamer.
Jetzt habe ich auch mit den Werten herum gespielt und mir die Framerate in einem 5 Sekunden intervall ausgegeben. bei 10000 sind das fast 500 Frames, genauso wie bei 1000. Bei 100 sind es nur fast 50 Frames.
Mehr als 100Hz kann der Sensor nicht. Also entspricht >1000 = 100Hz und nicht wie in dem Kommentar angegeben 10.000!
Aber selbst mit 1000 macht es doch keinen Sinn, dass da dann 100 Hz bei raus kommen.
Jedenfalls verstehe ich das nicht. Kann mir das jemand bitte erklären? Mehr Infos habe ich hierzu nicht.