Laufzeittoleranzrechnung
Aus Wikipedia, der freien Enzyklopädie
Aus Wikipedia, der freien Enzyklopädie
Die Laufzeittoleranzrechnung befasst sich mit der Berechnung von Signallaufzeiten in Netzwerken mit Bauteilen (Gatter), deren Laufzeiten innerhalb eines bestimmten Toleranzbereiches liegen können. Von Interesse sind dabei die minimal und maximal möglichen Gesamtlaufzeiten durch das Netzwerk. Das Netzwerk muss so abgestimmt werden, dass beide Fälle zum gleichen Ergebnis führen. Anschaulich beschrieben bremsen langsame Bauteile das gesamte Netzwerk, weil schnellere Bauteile ggf. warten müssen.
Die Methoden der Laufzeittoleranzrechnung finden in verschiedenen Gebieten der Elektro- und Digitaltechnik Anwendung.
Bei der Reihenschaltung zweier Gatter muss das Signal zuerst das erste Bauelement und anschließend das zweite Bauelement durchlaufen. Hierbei addieren sich die Signallaufzeiten der einzelnen Gatter.
Minimale Laufzeit durch beide Gatter:
Maximale Laufzeit durch beide Gatter:
(Mit tx,min/max: Minimale/maximale Laufzeit von Gatter x)
Angenommen, der Eingang beider Gatter liegt an derselben Leitung. Doch wegen der Laufzeitunterschiede der Gatter kommen die Signale zeitverzögert an den Ausgängen an. Mit folgenden Formeln berechnet man den minimalen/maximalen Zeitunterschied zwischen den beiden Ausgangssignalen:
(Mit tx,min/max: Minimale/maximale Laufzeit von Gatter x)
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.