Füllrate

Definition - Was bedeutet Füllrate?

Die Füllrate bezieht sich auf die Anzahl der Pixel, die eine Grafikkarte pro Sekunde rendern oder in den Speicher schreiben kann. Sie wird in Megapixeln oder Gigapixeln pro Sekunde gemessen, die durch Multiplizieren der Taktfrequenz der Grafikverarbeitungseinheit (GPU) mit der Anzahl der Rasteroperationen (ROPs) erhalten werden. GPUs mit höheren Füllraten können Videos mit höheren Auflösungen und Bildraten anzeigen als GPUs mit niedrigeren Füllraten.

Es gibt keinen Standard für die Berechnung und Berichterstattung der Füllrate, daher haben Unternehmen ihre eigenen Berechnungsmethoden entwickelt. Einige multiplizieren die Taktfrequenz mit der Anzahl der Textureinheiten, während andere die Frequenz mit der Anzahl der Pixel-Pipelines multiplizieren. Unabhängig von der Methode ergibt die Berechnung einen theoretischen Wert, der die tatsächliche Leistung möglicherweise vollständig wiedergibt oder nicht.

Technische.me erklärt die Füllrate

Die Füllrate ist eine GPU-Leistungsbewertung, die der Fähigkeit entspricht, Pixel zu rendern und qualitativ hochwertige Videos zu produzieren. Die tatsächliche Füllrate hängt von vielen Faktoren ab, einschließlich anderer Systemhardware und sogar Treibern. Die Füllrate wurde in der Vergangenheit als Leistungsindikator verwendet, aber mit der Verschiebung der GPU-Technologie ändern sich auch die Leistungsindikatoren.

Die Komplexität einer Szene kann durch Überzeichnen von Pixeln erhöht werden, was passiert, wenn ein Objekt über ein anderes gezogen wird und es verdeckt. Diese Komplexität ist eine Verschwendung, da eines der Objekte nicht sichtbar ist. Wenn die Szene komplexer ist, als die Füllrate verarbeiten kann, sinkt die Bildrate, wodurch die Grafik stottert.