Bildkompression - Image compression
Die Bildkomprimierung ist eine Art der Datenkomprimierung, die auf digitale Bilder angewendet wird, um deren Kosten für die Speicherung oder Übertragung zu reduzieren . Algorithmen können die visuelle Wahrnehmung und die statistischen Eigenschaften von Bilddaten nutzen, um im Vergleich zu generischen Datenkompressionsverfahren , die für andere digitale Daten verwendet werden , bessere Ergebnisse zu erzielen .
Verlustbehaftete und verlustfreie Bildkomprimierung
Die Bildkomprimierung kann verlustbehaftet oder verlustfrei sein . Die verlustfreie Komprimierung wird für Archivierungszwecke und häufig für medizinische Bildgebung, technische Zeichnungen, Cliparts oder Comics bevorzugt . Verlustbehaftete Komprimierungsmethoden, insbesondere bei niedrigen Bitraten , führen zu Komprimierungsartefakten . Verlustbehaftete Verfahren eignen sich besonders für natürliche Bilder wie Fotografien in Anwendungen, bei denen ein geringfügiger (manchmal nicht wahrnehmbarer) Verlust an Wiedergabetreue akzeptabel ist, um eine wesentliche Reduzierung der Bitrate zu erreichen. Eine verlustbehaftete Komprimierung, die vernachlässigbare Unterschiede erzeugt, kann als visuell verlustfrei bezeichnet werden.
Methoden zur verlustbehafteten Komprimierung :
-
Transformationscodierung – Dies ist die am häufigsten verwendete Methode.
-
Diskrete Kosinustransformation (DCT) – Die am weitesten verbreitete Form der verlustbehafteten Komprimierung. Es ist eine Art Fourier-bezogene Transformation und wurde ursprünglich 1974 von Nasir Ahmed , T. Natarajan und KR Rao entwickelt . Die DCT wird manchmal als "DCT-II" im Kontext einer Familie von diskreten Kosinustransformationen ( siehe diskrete Kosinustransformation ). Dies ist im Allgemeinen die effizienteste Form der Bildkomprimierung.
- DCT wird in JPEG , dem beliebtesten verlustbehafteten Format, und dem neueren HEIF verwendet .
- Die in jüngerer Zeit entwickelte Wavelet-Transformation wird ebenfalls ausgiebig verwendet, gefolgt von Quantisierung und Entropiecodierung .
-
Diskrete Kosinustransformation (DCT) – Die am weitesten verbreitete Form der verlustbehafteten Komprimierung. Es ist eine Art Fourier-bezogene Transformation und wurde ursprünglich 1974 von Nasir Ahmed , T. Natarajan und KR Rao entwickelt . Die DCT wird manchmal als "DCT-II" im Kontext einer Familie von diskreten Kosinustransformationen ( siehe diskrete Kosinustransformation ). Dies ist im Allgemeinen die effizienteste Form der Bildkomprimierung.
- Reduzierung des Farbraums auf die gängigsten Farben im Bild. Die ausgewählten Farben werden in der Farbpalette in der Kopfzeile des komprimierten Bildes angegeben. Jedes Pixel verweist nur auf den Index einer Farbe in der Farbpalette. Diese Methode kann mit Dithering kombiniert werden , um eine Posterisierung zu vermeiden .
- Chroma-Unterabtastung . Dabei wird ausgenutzt, dass das menschliche Auge räumliche Helligkeitsänderungen schärfer wahrnimmt als Farbänderungen, indem es einen Teil der Chrominanzinformationen im Bild mittelt oder weglässt.
- Fraktale Kompression .
Methoden zur verlustfreien Komprimierung :
- Lauflängencodierung – wird in der Standardmethode in PCX und als eine der möglichen in BMP , TGA , TIFF verwendet
- Komprimierung von Flächenbildern
- Prädiktive Codierung – verwendet in DPCM
- Entropiekodierung – die beiden gebräuchlichsten Entropiekodierungstechniken sind die arithmetische Kodierung und die Huffman-Kodierung
- Adaptive Wörterbuchalgorithmen wie LZW – verwendet in GIF und TIFF
- DEFLATE – verwendet in PNG , MNG und TIFF
- Kettencodes
Andere Eigenschaften
Die beste Bildqualität bei einer bestimmten Komprimierungsrate (oder Bitrate ) ist das Hauptziel der Bildkomprimierung, es gibt jedoch noch andere wichtige Eigenschaften von Bildkomprimierungsschemata:
Skalierbarkeit bezieht sich im Allgemeinen auf eine Qualitätsminderung, die durch Manipulation des Bitstroms oder der Datei (ohne Dekomprimierung und Neukomprimierung) erreicht wird. Andere Bezeichnungen für Skalierbarkeit sind Progressive Coding oder Embedded Bitstreams . Trotz ihrer gegensätzlichen Natur kann Skalierbarkeit auch in verlustfreien Codecs gefunden werden, normalerweise in Form von groben bis feinen Pixelscans. Die Skalierbarkeit ist besonders nützlich für die Vorschau von Bildern während des Herunterladens (z. B. in einem Webbrowser) oder für den Zugriff auf Datenbanken mit variabler Qualität. Es gibt verschiedene Arten der Skalierbarkeit:
- Quality Progressive oder Layer Progressive: Der Bitstream verfeinert das rekonstruierte Bild sukzessive.
- Auflösung progressiv : Zuerst eine niedrigere Bildauflösung codieren; dann den Unterschied zu höheren Auflösungen codieren.
- Komponente progressiv : Erste kodierte Graustufenversion; dann Vollfarbe hinzufügen.
Kodierung der interessierenden Region . Bestimmte Teile des Bildes sind mit höherer Qualität kodiert als andere. Dies kann mit Skalierbarkeit kombiniert werden (kodieren Sie diese Teile zuerst, andere später).
Meta-Informationen . Komprimierte Daten können Informationen über das Bild enthalten, die zum Kategorisieren, Suchen oder Durchsuchen von Bildern verwendet werden können. Solche Informationen können Farb- und Texturstatistiken, kleine Vorschaubilder und Autor- oder Copyright-Informationen umfassen.
Verarbeitungsleistung . Komprimierungsalgorithmen erfordern unterschiedliche Mengen an Verarbeitungsleistung zum Kodieren und Dekodieren. Einige Hochkomprimierungsalgorithmen erfordern eine hohe Verarbeitungsleistung.
Die Qualität eines Komprimierungsverfahrens wird häufig anhand des Spitzen-Signal-Rausch-Verhältnisses gemessen . Es misst die Menge an Rauschen, die durch eine verlustbehaftete Komprimierung des Bildes eingebracht wird, jedoch wird auch die subjektive Beurteilung des Betrachters als ein wichtiges Maß angesehen, vielleicht sogar als das wichtigste Maß.
Geschichte
Entropiecodierung in den 1940er Jahren mit der Einführung begonnen Shannon-Fano - Codierung , die Grundlage für die Huffman - Kodierung , die im Jahr 1950 entwickelt wurde , Transcodierungsdaten aus den späten 1960er Jahren mit der Einführung von schnellen Fourier - Transformation (FFT) Codierung im Jahr 1968 und dem Die Hadamard-Transformation im Jahr 1969.
Eine wichtige Entwicklung in der Bilddatenkompression war die diskrete Cosinus - Transformation (DCT), eine verlustbehaftete Kompressionstechnik zunächst vorgeschlagen Nasir Ahmed 1972 DCT - Kompression die Grundlage für wurde JPEG , die durch den eingeführten Joint Photographic Experts Group (JPEG) im Jahr 1992 .JPEG komprimiert Bilder auf viel kleinere Dateigrößen und hat sich zum am weitesten verbreiteten Bilddateiformat entwickelt . Sein hocheffizienter DCT-Kompressionsalgorithmus war maßgeblich für die weite Verbreitung digitaler Bilder und digitaler Fotos verantwortlich , wobei ab 2015 täglich mehrere Milliarden JPEG-Bilder produziert wurden.
Lempel-Ziv-Welch (LZW) ist ein verlustfreier Komprimierungsalgorithmus , der 1984 von Abraham Lempel , Jacob Ziv und Terry Welch entwickelt wurde. Er wird im 1987 eingeführten GIF- Format verwendet. DEFLATE , ein von Phil Katz entwickelter und spezifizierter verlustfreier Komprimierungsalgorithmus im Jahr 1996 wird im Portable Network Graphics (PNG)-Format verwendet.
Wavelet- Codierung, die Verwendung von Wavelet-Transformationen bei der Bildkompression, begann nach der Entwicklung der DCT-Codierung. Die Einführung der DCT führte zur Entwicklung der Wavelet-Codierung, einer Variante der DCT-Codierung, die Wavelets anstelle des blockbasierten Algorithmus von DCT verwendet. Der JPEG 2000- Standard wurde von 1997 bis 2000 von einem JPEG-Komitee unter dem Vorsitz von Touradj Ebrahimi (später JPEG-Präsident) entwickelt. Im Gegensatz zum DCT-Algorithmus, der vom ursprünglichen JPEG-Format verwendet wird, verwendet JPEG 2000 stattdessen Algorithmen zur diskreten Wavelet-Transformation (DWT). Es verwendet die CDF 9/7 Wavelet-Transformation (entwickelt von Ingrid Daubechies im Jahr 1992) für seinen verlustbehafteten Kompressionsalgorithmus und die LeGall-Tabatabai (LGT) 5/3 Wavelet-Transformation (entwickelt von Didier Le Gall und Ali J. Tabatabai im Jahr 1988). für seinen verlustfreien Komprimierungsalgorithmus. Die JPEG 2000- Technologie, die die Motion JPEG 2000- Erweiterung enthält, wurde 2004 als Videocodierungsstandard für das digitale Kino ausgewählt .
Hinweise und Referenzen
Externe Links
- Bildkompression – Vortrag von MIT OpenCourseWare
- Grundlagen der Bildcodierung
- Eine Studie zur Bildkomprimierung – mit Grundlagen zum Vergleich verschiedener Komprimierungsmethoden wie JPEG2000, JPEG und JPEG XR / HD Photo
- Grundlagen der Datenkomprimierung – umfasst den Vergleich der Formate PNG, JPEG und JPEG-2000
- FAQ: Was ist der Stand der Technik bei der verlustfreien Bildkompression? von comp.compression
- IPRG – eine offene Gruppe mit Bezug zu Forschungsressourcen zur Bildverarbeitung