Bildschirmauflösung - Display resolution

Aus Wikipedia, der freien Enzyklopädie
Diese Tabelle zeigt die gängigsten Anzeigeauflösungen, wobei die Farbe jedes Auflösungstyps das Anzeigeverhältnis angibt (z. B. Rot zeigt ein Verhältnis von 4: 3 an).
Diese Tabelle zeigt die gängigsten Anzeigeauflösungen , wobei die Farbe jedes Auflösungstyps das Anzeigeverhältnis angibt (z. B. Rot zeigt ein Verhältnis von 4: 3 an).

Die Anzeigeauflösung oder der Anzeigemodus eines digitalen Fernsehgeräts , Computermonitors oder Anzeigegeräts ist die Anzahl der unterschiedlichen Pixel in jeder Dimension, die angezeigt werden können. Dies kann ein mehrdeutiger Begriff sein, insbesondere da die angezeigte Auflösung durch verschiedene Faktoren in Kathodenstrahlröhrenanzeigen (CRT), Flachbildschirmen (einschließlich Flüssigkristallanzeigen ) und Projektionsanzeigen unter Verwendung von Arrays mit festen Bildelementen (Pixel) gesteuert wird.

Es wird normalerweise als Breite × Höhe mit den Einheiten in Pixel angegeben: 1024 × 768 bedeutet beispielsweise, dass die Breite 1024 Pixel und die Höhe 768 Pixel beträgt. Dieses Beispiel wird normalerweise als "zehn vierundzwanzig mal sieben achtundsechzig" oder "zehn vierundzwanzig mal sieben sechs acht" gesprochen.

Eine Verwendung des Begriffs Anzeigeauflösung gilt für Festpixel-Array-Anzeigen wie Plasma-Anzeigetafeln (PDP), Flüssigkristallanzeigen (LCD), DLP-Projektoren ( Digital Light Processing ), OLED- Anzeigen und ähnliche Technologien und ist einfach die physische Anzahl von Spalten und Pixelzeilen, die die Anzeige erstellen (z. B. 1920 × 1080 ). Eine Festnetzanzeige hat zur Folge, dass für Videoeingänge mit mehreren Formaten alle Anzeigen eine "Skalierungs-Engine" (einen digitalen Videoprozessor mit einem Speicherarray) benötigen, um das eingehende Bildformat an die Anzeige anzupassen.

Für Gerätedisplays wie Telefone, Tablets, Monitore und Fernseher ist die Verwendung des oben definierten Begriffs Bildschirmauflösung eine falsche Bezeichnung, obwohl sie häufig vorkommt. Der Begriff Anzeigeauflösung wird normalerweise verwendet, um Pixelabmessungen zu bezeichnen , die maximale Anzahl von Pixeln in jeder Dimension (z. B. 1920 × 1080 ), die nichts über die Pixeldichte der Anzeige aussagen, auf der das Bild tatsächlich erzeugt wird: Die Auflösung bezieht sich richtig auf die Pixeldichte , die Anzahl der Pixel pro Einheitsabstand oder Fläche, nicht die Gesamtzahl der Pixel. Bei der digitalen Messung würde die Anzeigeauflösung in Pixel pro Zoll (PPI) angegeben. Wenn bei der analogen Messung der Bildschirm 10 Zoll hoch ist, wird die horizontale Auflösung über ein Quadrat mit einer Breite von 10 Zoll gemessen. Für Fernsehstandards wird dies typischerweise als "horizontale Linienauflösung pro Bildhöhe" angegeben; Beispielsweise können analoge NTSC- Fernseher in der Regel etwa 340 Zeilen horizontaler Auflösung "pro Bildhöhe" aus drahtlosen Quellen anzeigen, was etwa 440 Zeilen tatsächlicher Bildinformationen vom linken zum rechten Rand entspricht.

Hintergrund

1080p Progressive Scan HDTV mit einem Verhältnis von 16: 9

Einige Kommentatoren verwenden die Anzeigeauflösung auch, um eine Reihe von Eingabeformaten anzugeben, die von der Eingabeelektronik des Displays akzeptiert werden, und enthalten häufig Formate, die größer als die native Rastergröße des Bildschirms sind, obwohl sie verkleinert werden müssen, um den Bildschirmparametern zu entsprechen (z. B. Akzeptieren eines 1920) × 1080 Eingabe auf einem Display mit einem nativen 1366 × 768 Pixel Array). Bei TV-Eingängen nehmen viele Hersteller den Eingang und verkleinern ihn, um das Display um bis zu 5% zu " überscannen ", sodass die Eingangsauflösung nicht unbedingt die Bildschirmauflösung ist.

Die Wahrnehmung der Bildschirmauflösung durch das Auge kann durch eine Reihe von Faktoren beeinflusst werden - siehe Bildauflösung und optische Auflösung . Ein Faktor ist die rechteckige Form des Bildschirms, die als Verhältnis der physischen Bildbreite zur physischen Bildhöhe ausgedrückt wird. Dies ist als Seitenverhältnis bekannt . Das physikalische Seitenverhältnis eines Bildschirms und das Seitenverhältnis der einzelnen Pixel müssen nicht unbedingt gleich sein. Ein Array von 1280 × 720 auf einer 16: 9- Anzeige hat quadratische Pixel, aber ein Array von 1024 × 768 auf einer 16: 9-Anzeige hat längliche Pixel.

Ein Beispiel für eine Pixelform, die sich auf die "Auflösung" oder die wahrgenommene Schärfe auswirkt: Durch die Anzeige von mehr Informationen in einem kleineren Bereich mit einer höheren Auflösung wird das Bild viel klarer oder "schärfer". Die neuesten Bildschirmtechnologien sind jedoch auf eine bestimmte Auflösung festgelegt. Wenn Sie die Auflösung auf diesen Bildschirmtypen verringern, wird die Schärfe erheblich verringert, da ein Interpolationsprozess verwendet wird, um die Eingabe für die nicht native Auflösung in der Ausgabe für die native Auflösung des Displays zu "fixieren" .

Während einige CRT-basierte Anzeigen möglicherweise eine digitale Videoverarbeitung verwenden , die eine Bildskalierung mithilfe von Speicherarrays umfasst, wird die "Anzeigeauflösung" in CRT-Anzeigen letztendlich von verschiedenen Parametern wie Punktgröße und Fokus, astigmatischen Effekten in den Anzeigeecken und der Farbe beeinflusst Phosphor Pitch Shadow Mask (wie Trinitron ) in Farbdisplays und die Videobandbreite.

Aspekte

Ein 16: 9-Fernseher von Oktober 2004
Unterschied zwischen den Bildschirmgrößen bei einigen gängigen Geräten, z. B. einem Nintendo DS und zwei hier gezeigten Laptops.

Overscan und Underscan

Die meisten Hersteller von Fernsehbildschirmen "scannen" die Bilder auf ihren Bildschirmen (CRTs und PDPs, LCDs usw.), so dass das effektive Bildschirmbild beispielsweise von 720 × 576  (480) auf 680 × 550  (450) reduziert werden kann . Die Größe des unsichtbaren Bereichs hängt etwas vom Anzeigegerät ab. Einige HD-Fernseher tun dies in ähnlichem Maße auch.

Computerbildschirme einschließlich Projektoren scannen im Allgemeinen nicht, obwohl viele Modelle (insbesondere CRT-Anzeigen) dies zulassen. CRT-Displays werden in Standardkonfigurationen tendenziell untergescannt, um die zunehmenden Verzerrungen an den Ecken auszugleichen.

Interlaced versus Progressive Scan

Interlaced-Video (auch als Interlaced-Scan bezeichnet ) ist eine Technik zum Verdoppeln der wahrgenommenen Bildrate einer Videoanzeige, ohne zusätzliche Bandbreite zu verbrauchen . Das Interlaced-Signal enthält zwei Felder eines Videorahmens, die nacheinander erfasst werden. Dies verbessert die Bewegungswahrnehmung für den Betrachter und reduziert das Flimmern, indem das Phi-Phänomen ausgenutzt wird .

Die Europäische Rundfunkunion hat sich gegen Interlaced-Video in Produktion und Rundfunk ausgesprochen. Das Hauptargument ist, dass unabhängig davon, wie komplex der Deinterlacing-Algorithmus sein mag, die Artefakte im Interlaced-Signal nicht vollständig beseitigt werden können, da einige Informationen zwischen Frames verloren gehen. Trotz der Argumente dagegen unterstützen Organisationen für Fernsehstandards weiterhin das Interlacing. Es ist weiterhin in digitalen Videoübertragungsformaten wie DV , DVB und ATSC enthalten . Neue Videokomprimierungsstandards wie High Efficiency Video Coding sind für Progressive Scan- Videos optimiert , unterstützen jedoch manchmal Interlaced-Videos.

Progressives Scannen (alternativ als nicht interlaced Scannen bezeichnet ) ist ein Format zum Anzeigen, Speichern oder Übertragen von bewegten Bildern, bei dem alle Linien jedes Rahmens nacheinander gezeichnet werden. Dies steht im Gegensatz zu Interlaced-Video, das in herkömmlichen analogen Fernsehsystemen verwendet wird, bei denen nur die ungeraden Linien und dann die geraden Linien jedes Rahmens (jedes Bild wird als Videofeld bezeichnet ) abwechselnd gezeichnet werden, so dass nur die Hälfte der tatsächlichen Bildrahmen verwendet wird Video zu produzieren.

Fernseher

Aktuelle Standards

Fernseher haben folgende Auflösungen:

Computermonitore

Computermonitore haben traditionell höhere Auflösungen als die meisten Fernseher.

Entwicklung von Standards

Viele in den späten 1970er und 1980er Jahren eingeführte PCs waren darauf ausgelegt, Fernsehempfänger als Anzeigegeräte zu verwenden, wodurch die Auflösungen von den verwendeten Fernsehstandards, einschließlich PAL und NTSC, abhängig wurden . Die Bildgrößen waren normalerweise begrenzt, um die Sichtbarkeit aller Pixel in den wichtigsten Fernsehstandards und der breiten Palette von Fernsehgeräten mit unterschiedlichem Over-Scan zu gewährleisten. Der tatsächlich zeichnbare Bildbereich war daher etwas kleiner als der gesamte Bildschirm und war normalerweise von einem statisch gefärbten Rand umgeben (siehe Bild rechts). Außerdem wurde das Interlace-Scannen normalerweise weggelassen, um dem Bild mehr Stabilität zu verleihen und die laufende vertikale Auflösung effektiv zu halbieren. 160 × 200, 320 × 200 und 640 × 200 auf NTSC waren zu dieser Zeit relativ häufige Auflösungen (224, 240 oder 256 Scanlinien waren ebenfalls üblich). In der IBM PC-Welt wurden diese Auflösungen von 16-Farben- EGA -Grafikkarten verwendet.

Einer der Nachteile der Verwendung eines klassischen Fernsehgeräts besteht darin, dass die Auflösung des Computerbildschirms höher ist, als das Fernsehgerät dekodieren könnte. Die Chroma-Auflösung für NTSC / PAL-Fernseher ist bandbreitenbegrenzt auf maximal 1,5 Megahertz oder ungefähr 160 Pixel Breite, was zu einer Unschärfe der Farbe für 320- oder 640-breite Signale führte und das Lesen von Text erschwerte (siehe Beispielbild unten) ). Viele Benutzer haben auf höherwertige Fernseher mit S-Video- oder RGBI- Eingängen umgestellt, um Chroma-Unschärfe zu vermeiden und besser lesbare Displays zu erzeugen. Die früheste und kostengünstigste Lösung für das Chroma-Problem wurde im Atari 2600 Video Computer System und im Apple II + angeboten , die beide die Option boten, die Farbe zu deaktivieren und ein altes Schwarzweißsignal anzuzeigen. Auf dem Commodore 64 spiegelte das GEOS die Mac OS-Methode zur Verwendung von Schwarzweiß zur Verbesserung der Lesbarkeit wider.

Die Auflösung von 640 × 400i (720 × 480i mit deaktivierten Rändern) wurde zuerst von Heimcomputern wie dem Commodore Amiga und später von Atari Falcon eingeführt. Diese Computer verwendeten Interlace, um die maximale vertikale Auflösung zu erhöhen. Diese Modi waren nur für Grafiken oder Spiele geeignet, da das flackernde Interlace das Lesen von Text in Textverarbeitungs-, Datenbank- oder Tabellenkalkulationssoftware erschwerte. (Moderne Spielekonsolen lösen dieses Problem, indem sie das 480i-Video auf eine niedrigere Auflösung vorfiltern. Beispielsweise flackert Final Fantasy XII beim Ausschalten des Filters, stabilisiert sich jedoch nach Wiederherstellung der Filterung. Den Computern der 1980er Jahre fehlte ausreichend Strom ähnliche Filtersoftware ausführen.)

Der Vorteil eines überscannten Computers mit 720 × 480i war eine einfache Schnittstelle zur Interlaced-TV-Produktion, die zur Entwicklung von Newteks Video Toaster führte . Mit diesem Gerät konnte Amigas für die CGI-Erstellung in verschiedenen Nachrichtenabteilungen (Beispiel: Wetterüberlagerungen), Drama-Programmen wie seaQuest von NBC und Babylon 5 von The WB verwendet werden .

In der PC-Welt verwendeten die integrierten IBM PS / 2 VGA-Grafikchips (mehrfarbig) eine nicht verschachtelte (progressive) Farbauflösung von 640 × 480 × 16, die leichter zu lesen und daher für Büroarbeiten nützlicher war. Dies war die Standardauflösung von 1990 bis etwa 1996. [ Zitierweise erforderlich ] Die Standardauflösung betrug 800 × 600 bis etwa 2000. Microsoft Windows XP , das 2001 veröffentlicht wurde, wurde für eine Ausführung von mindestens 800 × 600 entwickelt, obwohl eine Auswahl möglich ist das Original 640 × 480 im Fenster Erweiterte Einstellungen.

Programme, die ältere Hardware wie Atari-, Sega- oder Nintendo-Spielekonsolen (Emulatoren) imitieren, wenn sie an Multiscan-CRTs angeschlossen sind, verwenden routinemäßig viel niedrigere Auflösungen wie 160 × 200 oder 320 × 400, um eine höhere Authentizität zu erzielen, obwohl andere Emulatoren dies ausgenutzt haben der Pixelerkennung auf Kreis, Quadrat, Dreieck und anderen geometrischen Merkmalen mit einer geringeren Auflösung für ein skalierteres Vektor-Rendering. Einige Emulatoren können bei höheren Auflösungen sogar das Blendengitter und die Schattenmasken von CRT-Monitoren nachahmen.

Im Jahr 2002 war 1024 × 768 eXtended Graphics Array die häufigste Anzeigeauflösung. Viele Websites und Multimedia-Produkte wurden vom vorherigen 800 × 600-Format auf die für 1024 × 768 optimierten Layouts umgestaltet.

Die Verfügbarkeit kostengünstiger LCD-Monitore machte die Auflösung des Seitenverhältnisses von 5: 4 von 1280 × 1024 im ersten Jahrzehnt des 21. Jahrhunderts für die Desktop-Nutzung beliebter. Viele Computerbenutzer, einschließlich CAD- Benutzer, Grafiker und Videospielspieler, haben ihre Computer mit einer Auflösung von 1600 × 1200 ( UXGA ) oder höher betrieben, z. B. 2048 × 1536 QXGA, wenn sie über die erforderliche Ausrüstung verfügten. Andere verfügbare Auflösungen umfassten übergroße Aspekte wie 1400 × 1050 SXGA + und breite Aspekte wie 1280 × 800 WXGA , 1440 × 900 WXGA + , 1680 × 1050 WSXGA + und 1920 × 1200 WUXGA ; Monitore, die nach dem 720p- und 1080p-Standard gebaut wurden, waren aufgrund der perfekten Bildschirmkompatibilität mit Film- und Videospielversionen auch bei Heimmedien- und Videospiel-Playern nicht ungewöhnlich. Eine neue Auflösung von mehr als HD von 2560 × 1600 WQXGA wurde 2007 auf 30-Zoll-LCD-Monitoren veröffentlicht.

Im Jahr 2010 wurden 27-Zoll-LCD-Monitore mit einer Auflösung von 2560 × 1440 Pixel von mehreren Herstellern, einschließlich Apple, herausgebracht, und im Jahr 2012 führte Apple ein 2880 × 1800-Display auf dem MacBook Pro ein . Panels für professionelle Umgebungen wie medizinische Zwecke und Flugsicherung unterstützen Auflösungen von bis zu 4096 × 2160 Pixel.

Ab März 2012 war 1366 × 768 die häufigste Bildschirmauflösung.

Gängige Bildschirmauflösungen

Weitere Informationen: Liste der gängigen Resolutionen

In der folgenden Tabelle ist der Nutzungsanteil von Anzeigeauflösungen aus zwei Quellen ab Juni 2020 aufgeführt. Die Zahlen sind nicht repräsentativ für Computerbenutzer im Allgemeinen.

Gängige Anzeigeauflösungen ( N / A = nicht zutreffend)
Standard Seitenverhältnis Breite ( px ) Höhe (px) Megapixel Dampf (%) StatCounter (%)
nHD 16: 9 640 360 0,230 N / A 0,47
SVGA 4: 3 800 600 0,480 N / A 0,76
XGA 4: 3 1024 768 0,786 0,38 2.78
WXGA 16: 9 1280 720 0,922 0,36 4.82
WXGA 16:10 1280 800 1,024 0,61 3,08
SXGA 5: 4 1280 1024 1.311 1.24 2.47
HD 16: 9 1360 768 1,044 1,55 1,38
HD 16: 9 1366 768 1,049 10.22 23.26
WXGA + 16:10 1440 900 1,296 3.12 6.98
N / A 16: 9 1536 864 1.327 N / A 8.53
HD + 16: 9 1600 900 1.440 2.59 4.14
WSXGA + 16:10 1680 1050 1,764 1,97 2.23
FHD 16: 9 1920 1080 2,074 64,81 20.41
WUXGA 16:10 1920 1200 2.304 0,81 0,93
QWXGA 16: 9 2048 1152 2,359 N / A 0,51
N / A 21: 9 2560 1080 2,765 1.13 N / A
QHD 16: 9 2560 1440 3.686 6.23 2.15
N / A 21: 9 3440 1440 4,954 0,87 N / A
4K UHD 16: 9 3840 2160 8.294 2.12 N / A
Andere 2.00 15.09

In den letzten Jahren ist das Seitenverhältnis 16: 9 bei Notebook-Displays immer häufiger geworden. 1366 × 768 ( HD ) ist für die meisten kostengünstigen Notebooks beliebt geworden, während 1920 × 1080 ( FHD ) und höhere Auflösungen für mehr Premium-Notebooks verfügbar sind.

Wenn die Auflösung eines Computerbildschirms höher als die Auflösung des physischen Bildschirms ( native Auflösung ) eingestellt ist, können einige Videotreiber den virtuellen Bildschirm über den physischen Bildschirm scrollen und so einen zweidimensionalen virtuellen Desktop mit seinem Ansichtsfenster realisieren. Die meisten LCD-Hersteller beachten die native Auflösung des Panels, da die Arbeit mit einer nicht nativen Auflösung auf LCDs zu einem schlechteren Bild führt, da Pixel fallen gelassen werden, um das Bild anzupassen (bei Verwendung von DVI) oder das analoge Signal nicht ausreichend abgetastet wird (bei Verwendung eines VGA-Anschlusses). Nur wenige CRT-Hersteller geben die wahre native Auflösung an, da CRTs analoger Natur sind und ihre Anzeige von nur 320 × 200 (Emulation älterer Computer oder Spielekonsolen) bis zu so hoch variieren können, wie es die interne Karte oder das Bild zulässt wird zu detailliert, als dass die Vakuumröhre sie neu erzeugen könnte ( dh analoge Unschärfe). Somit bieten CRTs eine Variabilität in der Auflösung, die LCDs mit fester Auflösung nicht bieten können.

Filmindustrie

In Bezug auf die digitale Kinematographie hängen die Videoauflösungsstandards zuerst vom Seitenverhältnis der Bilder im Filmmaterial (das normalerweise für die digitale Zwischenproduktion gescannt wird ) und dann von der tatsächlichen Punktzahl ab. Obwohl es keinen eindeutigen Satz standardisierter Größen gibt, ist es in der Filmindustrie üblich, sich auf " n K" Bild "Qualität" zu beziehen , wobei n eine (kleine, normalerweise gerade) Ganzzahl ist, die sich in einen Satz von tatsächlichen Werten übersetzt Auflösungen je nach Filmformat . Als Referenz sei angenommen, dass für ein Seitenverhältnis von 4: 3 (ungefähr 1,33: 1), in das ein Filmbild (unabhängig von seinem Format) horizontal passen soll , n der Multiplikator von 1024 ist, so dass die horizontale Auflösung ist genau 1024 • n Punkte. Beispielsweise beträgt die 2K-Referenzauflösung 2048 × 1536 Pixel, während die 4K-Referenzauflösung 4096 × 3072 Pixel beträgt . 2K kann sich jedoch auch auf Auflösungen wie 2048 × 1556 (volle Apertur), 2048 × 1152 ( HDTV , Seitenverhältnis 16: 9) oder 2048 × 872 Pixel ( Cinemascope , Seitenverhältnis 2,35: 1) beziehen . Es ist auch erwähnenswert, dass eine Bildauflösung beispielsweise 3: 2 ( 720 × 480 NTSC) sein kann, dies jedoch nicht auf dem Bildschirm angezeigt wird (dh 4: 3 oder 16: 9, abhängig von der Ausrichtung von die rechteckigen Pixel).

Siehe auch

Verweise