Statistik-Frage



  • Ich habe einen Vorgang, der aus einer variablen Anzahl k
    von eigentlich identischen Zwischenschritten besteht.

    In der Theorie sollten die Zwischenschritte alle gleich lange brauchen und
    die Zeit, die der gesamte Vorgang benötigt, sollte eigentlich etwa
    k * (Zeit für Zwischenschritt) sein.

    Nun ist es in der Praxis so, dass die Zwischenschritte nicht exakt gleich lange brauchen. Die Verteilung ist auch nicht normal.

    Nun möchte ich wissen, ob ich die Zeit, die der Gesamtvorgang benötigt halbwegs verlässlich durch Messung eines (beliebigen) Zwischenschrittes abschätzen kann.

    Wie kann ich das tun?
    Welche Größen sind am besten geeignet?

    Worauf es hinauslaufen soll:
    Ich möchte verschiedene Verfahren zur Absolvierung der Zwischenschritte vergleichen. Was mir am liebsten wäre, ist die Aussage, dass ich jedes Verfahren
    für jeweils einen Zwischenschritt verwende, die Zeit davon messe und das schnellste Verfahren für alle kommenden Zwischenschritte anwende.
    Eine Voraussetzung hierfür wäre aber, dass ich die Verfahren anhand eines oder zumindest weniger Zwischenschritte vergleichen kann.

    Nun habe ich alle Zwischenschritte mit einem Verfahren gemessen und habe sozusagen ein Array mit Zeiten.

    Auffällig ist , dass ein kleiner Prozentsatz an Zwischenschritten (ohne jede Regelmäßigkeit) etwas höhere Ausführungszeiten hat als der Rest.

    Nun weiß ich nicht, was ich machen soll:
    Den Mittelwert betrachten? Der könnte von Ausreißern stark verzerrt sein.
    Standardabweichung?
    Median?
    Spannweite?
    Quantile?

    Irgendwie möchte ich ein paar Größen haben, die eventuell rechtfertigen könnten, die unterschiedlichen Verfahren anhand eines Zwischenschrittes vergleichen zu können - oder eben auch nicht.


  • Gesperrt

    Dieser Beitrag wurde gelöscht!

Anmelden zum Antworten