MuMS:Fragenkatalog2: Unterschied zwischen den Versionen

Aus Tudwiki
Wechseln zu: Navigation, Suche
K (Wiederhergestellt)
 
(kein Unterschied)

Aktuelle Version vom 30. Juni 2014, 15:04 Uhr

Inhaltsverzeichnis

2. Bild-Formate und Kompressionsverfahren[Bearbeiten]

2.1. Erläutern Sie den Aufbau (Format) natürlichfarbiger Bilder. Gehen Sie darauf ein, unter welchen Bedingungen die Auflösung der einzelnen Ebenen unterschiedlich sein kann und ob es Formate gibt mit mehr als drei Ebenen. Folie 5[Bearbeiten]

Ein Bild besteht aus Bildpunkten, die in X Spalten und Y Zeilen angeordnet sind. Dieses entspricht der Bildauflösung.

Mit der Rasterweite bezeichnet man die Anzahl der Punkte pro inch in dem Raster. Gemessen wird die Rasterweite in Lines per inch (lpi)(für den Druck).

Ein Bildpunkt wird durch seine Farbwerte bestimmt.

Der Farbwert ist ein Punkt im jeweiligen Farbraum. Wichtig ist hierbei, dass jeder Farbpunkt auch eine Farbtiefe (in Bit gemessen) hat.

Ein Bild im Computer besteht normalerweise aus 3 Bildebenen z.B. R/G/B. Hinzu können aber auch noch so genannte Bearbeitungsebenen kommen, z.B. die in Photshop. Diese können dann unabhängig voneinander bearbeitet werden, allerdings muss auch hier die Auflösung gleich sein. Bei z.B. dem JPEG-Format wird das Bild in YCrCb-Format gespeichert. Cr und Cb haben in dem Fall geringere Auflösung als Y.

2.2. Grenzen Sie die Farbmodelle LCH, Lab, RGB und CMY voneinander ab und beschreiben Sie deren Anwendungsgebiete. Folie 6 bis 8, 12[Bearbeiten]

LCH Dieses Farbmodell orientiert sich an der Wahrnehmung des Menschen. Es setzt sich aus den Attributen L (Lightness), C (Chroma) und H (Hue (Farbton)) zusammen.

Lab ist die Weiterentwicklung von LCH und ist heute in der Drucktechnik sehr verbreitet. Die Farben werden unabhängig von dem ausführenden Gerät erzeugt, was ihn geräteunabhängig macht. Der Farbraum setzt sich aus L (lightness), a (Rot/Grün Farbkoordinate) und b (Gelb/Blau Farbkoordinate) zusammen. Dieses Modell umfasst von allen Farbmodellen den größten Farbraum und kann sowohl die Fraben des RGB- als auch die des CMYK-Modelles darstellen.

Das RGB Farbmodell wird durch eine additive Farbmischung beschrieben, welche durch die Grundfraben Rot, Grün und Blau geschieht. Werden alle Farben zu 100% übereinandergelegt erhält man weiß. Das RGB Verfahren wird immer angewednet, wenn das Licht ohne Reflexionen in das Auge des Betrachters gelangt, also z.B. bei Monitoren. Hierdurch werden sehr leuchtende Farben erreicht, aber es können sich nicht alle Farbtöne in der Druckttechnik wiedergeben lassen.

Das CMY Modell basiert auf der subtraktiven Farbmischung, welche sich die Eigenschaft der Absorption von Farben zu Nutze macht. Wenn man alle Farben des Modells (C - Zyan (Hellblau), M - Magente, Y - Yellow) übereinanerlegt, erhält man (theoretisch) Schwarz. Es wird immer dann angewandt, wenn das Licht durch Reflexionen in das Auge des Betrachters gelangt, also z.B. bei ausgedruckten Farbfotos. Da schwarz in der Drucktechnik im CMY-Modell nur unbefriedigend (dunkelbraun) erstellt werden konnte hat man das CMYK - Modell eingeführt, wobei K für schwarz steht. Der Farbraum von CMYK ist kleiner als der von RGB und trotzdem wird durch die vier Komponenten mehr Speicherplatz benötigt.

2.3. Welche Aufgabe hat ein ICC-Profil? Wie wird es für einen Scanner, Monitor und Drucker erstellt? Folie 9,10[Bearbeiten]

Durch die unterschiedlichen Farbmodelle, aber auch z.B. von Monitor zu Monitor kommt es zu einer unterschiedlichen Darstellung von Farben. Das ICC-Profil ermöglicht es nun einen festen standardisierten Farbwert anzugeben, damit das Hellrot nach dem Ausdruck auch noch als Hellrot erscheint und nicht zu Weinrot wird. Man kann nun z.B. an seine Photoshopdatei sein ICC Profil anhängen und die Druckerei weiß dann im Optimalfall wie Sie Ihre Druckmaschine einstellen muss, damit die Farben gleich erscheinen.

Erstellung eines ICC-Profils:

Scanner: Man scannt eine standardisierte Vorlage ein und kann die Abweichungen feststellen, die sich zu dem eingescannten Orginal ergeben.

Monitor Hierfür gibt es Monitormessgeräte die im Zusammenhang mit einer Software, die RGB Werte generiert das Korrekturprofil erstellt. Allerdings ist dieser Vorgang schwierig, da die Farbwahrnehmung auch noch von Parametern wie Tageslicht/Kunstlist/etc.. abhängt.

Drucker Auch hier ist eine 100%ige Einstellung schwierig, da Farbe und Kontrast je nach Papierart- und oberfläche variieren. Eine Software erzeugt ca. 1000 Farbfelder, die dann farbmetrisch ausgemessen und eingeben werden.

2.4. Was versteht man unter den Begriffen Gamma-Korrektur und Farbmanagement? Folie 11, 17[Bearbeiten]

Mit der Gamma-Korrektur soll die Farbqualität auf verschiedenen Medien möglichst gleich gehalten werden. Der Gamma-Wert misst die Helligkeit des Mitteltonwertest. Je höher ein Gammawert ist, desto dunkler erscheint das Bild in der Ausgabe. Es wird versucht eine so genannte "lineare Kennlinie" zu erzeugen. Diese ist erreicht, wenn z.B. der Drucker das Bild ohne Verfälschungen reproduzieren kann.

Beim Farbmanagement definiert man sich bestimmte Farbräume. Es gibt z.B. folgende Farbräume: YCC, sRGB, Apple RGB, CIE RGB, ColorMatch RGB In den Farbräumen wird beschrieben welche Farbumfang etc. man benutzen kann. Bei einer bestimmten geschlossenen Benutzergruppe macht es unter Umständen sogar Sinn seinen eigenen Farbraum zu definieren.


'2.5. Was versteht man bei Photoshop unter Ebenen und was unter Farbkanälen? Welche Bedeutung hat ein "Alpha-Kanal"? Wozu dient er? Folien 11,12[Bearbeiten]

Ebenen dienen dazu bestimmte Teile eines Bildes in einen eigenen Bereich zu legen umd diesen dann alleine und komfortabel zu bearbeiten.

Farbkanäle meinen eigentlich in Photshop das gleiche wie sonst auch. Im RGB Modus hat man z.B. drei Farbkanäle.

Der Alpha-Kanal dient dazu, z.B. einen Transparenz-Effekt möglich zu machen. Für jeden Bildpunkt wird auch ein Alphawet gespeichert, der dann z.B. angibt um wieviel die eine Ebene von der anderen überdeckt wird.

2.6 Wozu dienen bei der Bildbearbeitung Histogramme, Gradientenkurven und Tonwertspreizung? Folie 13 bis 15[Bearbeiten]

Aus einem Histogramm kann man ablesen ob die Helligkeitsverteilung im Bild gut ist und ob in allen Bereichen (hell bis dunkel) ausreichend Details vorhanden sind.

Tonwertkorrektur und Gradationskurve dienen dazu die Helligkeitsverteilung im Bild zu verbessern, wenn diese nicht optimal ist. Kontrast und Helligkeit werden hierbei gleichmässig verbessert.


2.7. Nennen Sie wichtige Bildformate und erläutern Sie den Aufbau des TIFF. Folie 16 bis 18[Bearbeiten]

TIFF, GIF, PNG, BMP, PICT, PSD, JPEG

TIFF-Format Das TIFF-Formt ermöglicht es Bilder mit verschiedener Auflösung in einem Datei abzulegen. Es besitzt keine feste Dateistruktur. Stattdessen besteht es aus mehreren Attributen, die im "Image File Directory" beschrieben werden. Hier steht die Größe, Wert und der Zeiger auf evtl. weitere Informationen. Die Informationen können sich an beliebiger Stelle in der TIFF-Datei befinden. Es hat eine Farbtiefe von 8-16 bit und kann verlustfrei komprimieren (produziert dann aber sehr große Dateien)

2.8. Nennen Sie die wichtigsten Kompreesionsverfahren zur Entropiecodierung. Worin unterscheiden sich diese von den Verfahren zur Quellkodierung? Beschreiben Sie die prinzipielle Vorgehensweise bei einem Verfahren. Folie 19 bis 22[Bearbeiten]

Die Quellkodierung ist verlustbehaftet und nutzt semantische Informationen (z.B. Bereiche gleicher Fabre in Bildern), wohingegen die Entropiekodierung verlustfrei komprimiert.

Entropiekodierungsverfahren: Shannon-Fano-Algorithmus, Huffman-Kodierung, Pack-Bit-Kodierung, FAX-Komprimierung, LZW-Komprimierung, Lauflängenkodierung (RLC = Run-Length Coding manchmal auch RLE)

Bei der Huffman-Kodierung werden die Zeichen nach Ihrer Häufigkeit sortiert. Die Zeichen, die am häufigstens vorkommen, werden dann mit den wenigsten Zeichen kodiert.

2.9. Beschreiben Sie die Verfahrensschritte und diesen zugrundliegende Methoden und Algorithmen zur JPEG-Kompression. Folie 23 bis 29[Bearbeiten]

Mit dem JPEG-Verfahren kann man sowohl verlustfrei als auch verlustbehaftet komprimieren. Es sind Kompressionsfaktoren von 1:10 bis 1:50 möglich. Besonders geeignet ist das JPEG Verfahren für z.B. Fotos, wo es fließende Farbübergang gibt - für Text z.B. ist es ungeeignet, da es dort sehr harte Kontraste gibt, die von dem JPEG Verfahren nicht zufriedenstellend komprimiert werden können.

Verlustfreie Kompression Hier findet keine Veränderung der Bilddaten statt. Das komprimierte Bild entspricht genau dem Ausgangsbild. Das Bild wird zuerst in Deskriptoren eingeteil. Für diese erstellt man nun eine Verschlüsselungstabelle und kodiert die Daten danach anhand dieser. Die Daten werden mit DPCM verschlüsselt. Man versucht Vorhersagen über den nächsten Wert zu treffen um die Differenz, welche gespeichert wird, möglichst klein zu halten.

Verlustbehaftet Verfahren Meistens werden hier die drei Farbkomponenten "Y, Cb, und Cr" verwendet. Weitere Komponenten könnten aber noch hinzukommen. Jede Ebene wird nun einzeln kodiert. Für jede Komponenten wird nun einzeln zwei Auflösungsfaktoren gebildet, die sich aus der horizontalen und vertikalen Auflösung zusammensetzen. Nun werden die Ebenen in Datenblöcke zerlegt, die bei der verlustbehafteten Kompression 8x8 betragen. Diese Dateneinheiten können noch weiter kodiert werden zu sogenannten MCU (minimal-kodierten Einheiten). Sollten diese mehrere Dateneinheiten umfassen, werden sie überlappend kodiert. Sind die Dateneinheiten nicht verschachtelt, kann eine Bearbeitung von links nach rechts erfolgen. Sind sie aber verschachtelt, muss die Wiedergabe über alle drei Ebenen verschachtelt, damit nicht z.B. erst nur die grüne Komponente einer Einheit erscheint. Die "Aufschlüsselung" des Bildes bei der Dekomprimierung erfolgt pro MCU, damit auch nur teilweise kodierte Bilder korrekt dargestellt werden können.

Nachdem diese "Vorarbeit" geleistet ist, folgt nun die eigentliche Kodierung (hoffen wir, dass diese Formulierung so stimmt): Jede Ebene wird mit 8-Bit kodiert. Es wird eine Fourier-Transformation angewandt. Um möglichst frei eine Kompressionrate wählen zu können, nehmen wir das Verfahren der Quantisierung zu Hilfe. Hierbei gibt es eine Abbildung von einer Tabelle mit 64 Einträgen auf jeden Pixel einer Dateneinheit. Bei der Quantisierung entsteht durch das Runden ein Informationsverlust. Je nach Kompressionstärke ist dieser höher oder niedriger. Es gibt optimierte Quantisierungstabllen, die verhindern sollen, dass man den Informationsverlust mit dem Auge sieht.

Wie Eingangs erwähnt ist JPEG nicht für harte Farbverläufte geeignet und bei zu starker Kompression sieht man die 8x8 Pixelblöcke.

2.10. Erläutern Sie wodurch und wann Artefakte in JPEG-komprimierten Farbbildern (verlustbehaftet) auftreten. Folie 28,29[Bearbeiten]

Artefakte treten entweder auf, wenn wir sehr harte Farbverläufte haben, wie dies z.B. bei Schrift oft der Fall ist oder wenn wir einen zu starken Kompressionfaktor, also eine grobe Quantisierung der DCT-Koeffizienten gewählt haben. Unter anderem sehen wir dann die 8x8 Pixel Blöcke, die bei der Kompression gewählt wurden, da die feinen (also hochfrequenten) Strukturen nicht mehr erfasst werden können.

2.11. Nach welchem Grundprinzip arbeitet das Verfahren der Fraktalen Kompression? Handelt es sich um eine verlustfreie oder verlustbehaftete Kompression und wodruch entsteht die Kompression? Folie 30 bis 37[Bearbeiten]

Das Verfahren ist blockbasiert und verlustbehaftetet. Es bietet bei akzeptabler Qualität einen Kompressionsfaktor von bis zu 1:60 (JPEG nur 1:30). Das Grundprinzip macht es sich zu Nutze, dass bestimmte Muster in vielen Bildern mehrmals vorkommen - entweder genauso oder z.B. gespiegelt und/oder verkleinert. Gerade in der Natur ist dies oft der Fall.

Prinzipielles Verfahren: Das Verfahren wird für jede Farbebene seperat durchgeführt. Das Bild wird in Range und Domain - Blöcke unterteilt. abei sind Rangeblöcke meiste mit einer vorgegebenen Größe und so gewählt (z.B. quadratisch), dass sie das gesamte Bild ausfüllen. Domainblöcke können beliebig, rechteckig sein (oft aber eine Verdopplung eines Rangeblocks). Zu jedem Rangeblock muss ein ähnlicher Domainblock gefunden werden, welcher um 90° gedreht, an der X- und Y-Achse gespiegelt werden und bis auf 25% verkleinert werden kann. Die ähnlichsten Blöcke werden dann genommen und ergeben letztendlich Parameter für die mathematische Beschreibung der Fraktale, so dass anstelle des Bildes nur noch diese Fraktale Funktion gespeichert werden muss.

2.12. Beschreiben Sie die gängigen Partitionierungsverfahren bei der Fraktalen Kompression, nennen Sie mindestens 5 Transformationsparameter und beschreiben Sie deren Bedeutung. Folie 33, 34[Bearbeiten]

Das Bild wird zuerst in Range-Blöcke (alle Pixel aller Range-Blöcke bilden das gesamte Bild, wobei es keine Überlappung der Range-Blöcke gibt) und Domain-Blöcke (größere Blöcke die nicht alle Pixel des Bildes enthalten müssen und sich auch überlappen dürfen) unterteilt.

Nun wird versucht für jeden Rangeblock einen möglichst ähnlichen Domainblock zu finden. Vor diesem Vergleich wird der Domainblock noch transformiert und normalisiert. Folgende Partitionsverfahren des Bildes gibt es:

Quadrate Hier wird das Bild einfach in gleichgroße Quadrate unterteilt (die größe der Quadrate ist fest)

Quadtree Hierbei wird das Bild auch in Quadrate eingeteilt, diese werden dann aber je nach Bildinhalt verkleinert, so dass eine schneller Zuordnung erfolgen kann.

HV Hier wird das ganze Bild als Domain-Block behandelt. Nun wird immer ein Rechteck an einer, vom Bild abhängigen Stelle, in zwei Rechtecke geteilt.

Triangular Hier wird das Bild in Dreiecke unterteilt - ansonsten funktioniert es genauso wie HV. Bei diesem Verfahren findet man sehr gut zueinander passende Blöcke, aber es dauert dafür auch länger.


w = (e, f, m, o, s) (alle mit Index i, der den Block angibt, auf den diese Transformation angewendet wird).

w ist die Transformation
f ist eine Funktion, die aus den x- und y-Koordinaten (Verschiebung) die Itensität z bestimmt 
m ist eine Rotationsoperation
o ist die Helligkeit
s ist der Kontrast

e unbekannt

Andi: da muss ich widersprechen:

e und f sind Verschiebewerte in x und y Richtung respektive. m ist eine der folgenden 8 Transformationen:

Rotation um 0°,
Rotation um 90°,
Rotation um 180°, 
Rotation um 270°,
Spiegeln um die horizontale,
Spiegeln um die vertikale Achse,
Spiegeln um die rechte,
Spiegeln um die linke Diagonale

o ist helligkeit s ist kontrast

o und s machen nur sinn nach der Normalisierung, d.h. vorhergehende Angleichung der Helligkeitswerte auf ein Mittel.

2.13. Welche Daten befinden sich prinzipiell in der Datei eines fraktalkomprimierten Farbbildes? Enthält die Datei Images (Pixelinformationen), wenn ja welche? Folie 32-37[Bearbeiten]

Gespeichert werden folgende Dinge: Domainblöcke, Transformationsparameter [wi = (ei , fi , mi , oi , si )], Blockkennung

Das Seed image ( Ausgangsbild ) in Graustufen wird bei der Laufzeit der Dekodierung appliziert.

Die Datei enthält Pixelinformationen in Form der Domainblöcke, aus denen durch Transformationen die Rangeblöcke rekonstruiert werden können.

2.14. Auf welcher Grundidee (Prinzip) basiert die Wavelet Bildkompression? Was versteht man unter einer Wavelet-Transformation? Folie 38 bis 45[Bearbeiten]

Es verfolgt einen änlichen Ansatz wie das JPEG Verfahren, aber es werden nicht z.B. 8x8 Pixelblöcke gebildet, sondern das Zeit-Frequenz-Fenster wird automatisch angepasst . Hiermit werden Artefakten vermieden - indirekt hat dies zur Folge, dass man eine höhrere Kompression erreichen kann.

Die Wavelet Transformation besteht aus den gleichen Schritten wie das JPEG-Verfahren (Bildaufbereitung, Bildbearbeitung, Quantisierung, Entropiekodierung). In der Bildaufbereitung werden die Daten für die Kompression vorbereitet. Hierbei werden die Bilder auf ihr Zeit- und Frequenzverhalten untersucht.

Wavelet Transformation

  • Optimale Signaldarstellung für anschließende Operationen ( hohe Frequenz bei Bild mit vielen Details oder Farben, Kanten usw. ...)
  • Berechnung der Differenz zwischen verschiedenen Pixelwerten = Hochpass Tiefpass Anteil.
  • Bild wird nach jeder Stufe der Kompression kleiner in Differenz-Bildern sammelt sich die Bildinformation an
  • Das Bild lässt sich dann aus Original und Differenzanteilen vollständig rekonstruieren.

(kopiert aus Fragenkatalog von Anatol)

2.15. Was ist die Grundidee der Multi-Skalen-Analyse (MRA)? Folie 45 bis 49[Bearbeiten]

Das Bild durchläuft in mehreren Transformationsstufen nacheinander verschiedene Hoch- und Tiefpass-Filter der Filterbank. Den Zusammenhang zwischen der zugrunde liegenden Wavelet-Theorie und den verwendeten Filtern stellt die Multi-Resolution-Analysis (MRA) her.

MRA macht sich zu Nutze, dass der Mensch das Bild gleichzeitig in mehreren Auflösungen verarbeitet. Die Reduktion der einzelnen Teilräume erfolgt mittels eines geeigneten Tiefpassfilters. Die Übergänge zwischen den Teilräumen werden mit einem Hochpassfilter erstellt.

Man bezeichnet den Tiefpassfilter auch als Wavelet-Filter und den Hochpassfilter als Skalierungsfilter.

2.16. Beschreiben Sie die Vorgehensweise der Wavelet-Bildzerlegung. Welche spezifische Absicht wird mit dieser Vorgehensweise verfolgt? Folie 48, 49[Bearbeiten]

"Das Bild wird zunächst horizontal (zeilenweise) sowohl mit dem Tiefpass als auch mit dem Hochpass gefiltert. Dabei kann jede zweite Spalte verlustfrei entfernt werden (downsampling). Die resultierenden Teilbilder werden dann spaltenweise gefiltert, so dass anschliessend jede zweite Zeile entfernt werden kann. Ein Filterungsschritt zerlegt das Bild in vier Teilbilder: das verkleinerte Original und die 3 Differenzbilder, die als Kantendetektoren in horizontaler, vertikaler und diagonaler Richtung wirken. Dieser Filterungsschritt kann nun erneut auf das verkleinerte Originalbild angewandt werden."

Es wird die Absicht verfolgt überflüssige Information zu entfernen, bzw. anders zu kodieren. Man macht sich zu Nutze, dass das menschliche Auge eher die niedrigen Frequenzen eines Bildes wahr nimmt. Bei den Hochpassanteilen werden eher die vertikalen und horizontalen Linien wahrgenommen.

Hier noch eine Quelle aus einem schon beantworteten Fragenkatalog:

  • im einfachsten Fall wir die Differenz und der Mittelwert zwischen 2 benachbarten Pixeln berechnet
  • Ergebnisse als Tief- und Hochpassanteile gespeichert
  • je Transformation wird das orig. Bild immer kleiner -> in den Differenzbildern sammeln sich die Bildinformationen
  • Bild lässt sich dann aus den Originalbild- und Differenzbildanteilen vollst. Rekonstruieren

2.17. Wie erfolgt die Quantisierung und Entropiekodierung bei der Wavelet Bildkompression? Folien 50[Bearbeiten]

Quantisierung Die einfachste Methode ist die, dass man das transformierte Bild auf höherfrequente Anteile untersucht. Durch die Transformation sind die auf viele kleine Koeffizienten verstreut. Nun legen wir eine Schwellenwert fest, der alle Koeffizienten die unter einem bestimmten Schwellenwert liegen auf Null setzt. Diese Methode nennt man Schwellenwertmethode. Im nächsten Schritt kann man dann alles noch mit der Run-Length-Codierung zusammenfassen.


Kodierung

  • Ordnen der Koeffizienten in Teilbildern entlang Peano-Kurve (diese beschreibt die Regionen, die nicht NULL geworden sind).
  • Es ensteht ein sog."zerotree root"
  • Anwendung von RLC und Huffmann Kodierung

2.18. Grenzen Sie die drei Bildkompressionsverfahren JPEG, Fraktale Kompression und Wavelet Kompression voneinander bez. folgender Eigenschaften ab: Kompressionsfaktor, Rechenzeit zur Kompression und Dekompression. Folie 23 bis 51, 58 Folie 8[Bearbeiten]

Kompressionsfaktor:
JPEG: 1:30
Fraktal: 1:60
Wavelet: 1:60

Artefakte:
JPEG: ja bei hoher Kompression
Fraktal: nein eigentlich nicht
Wavelet: keine

Rechenzeit Kompression
JPEG:
Fraktal: sehr rechenintensiv
Wavelet: weniger als Fraktal aber mehr als JPEG


Rechenzeit Dekompression
JPEG:
Fraktal: sehr schnell
Wavelet: leider keine Angabe gefunden


2.19. Was versteht man unter JPEG 2000, was sind die wichtigsten Merkmale des Verfahrens und worin unterscheidet es sich vom JPEG-Verfahren (ISO 10918)? Folien 52 bis 58[Bearbeiten]

Das JPEG 2000 Verfahren ist eine Weiterentwicklung des JPEG Verfahrens in Kombination mit dem Wavelet Verfahren. Es ist darauf angelegt am Computer erstellte Bilder mit kleinen Bitraten zu komprimieren.

Die Bilder werden nicht einmal in Gesamtheit geladen, sondern stück für stück. Die Nutzung des Wavelet Verfahren macht es möglich die Bilder in Größe und Qualittä zu skalieren. Auch wurde die Fehlerate gesenkt, weshalb eine Erhöhung der Bildqualität möglich ist. Das ganze Bild wird in max. 231 Blöcke unterteilt und dann jeder Block für sich selber kodiert - dies senkt den Speicherbedarf.