Mikrosekunden ohne high resolution timer???
-
Hi zusammen,
vielleicht kann mir hier wer weiterhelfen, ich google schon den halben Tag und finde es nicht raus...
Folgendes Problem:Ich programmiere was für ein embedded Linux System (Kernel 3.0.0, ARM9 CPU) und kann mit zwei direkt aufeinander folgenden gettimeofday() Aufrufen Zeitdifferenzen von 4 bis 5 Mikrosekunden "messen". Alles schön soweit. Aber: Laut Kernelconfig ist kein HRT aktiv und wie auch in /proc/timer_list zu sehen, ist die kleinste Auflösung dort 10000000 nsec, also 10ms (entsprechend einem jiffy).
Warum also kriege ich trotzdem Werte im Mikrosekundenbereich??
Nicht, dass ich das nich schön finden würde, ich würde es nur gerne wissen, da es dem widerspricht, was ich bisher gelesen habe. Außerdem ist es wichtig, dass die Werte in etwa Stimmen, da ich die Ergebnisse dokumentieren muss.Danke schon mal für jeden Tipp!