MuMS:Fragenkatalog6

Aus Tudwiki
Wechseln zu: Navigation, Suche

Inhaltsverzeichnis

6. Komplexe Medienobjekte: MPEG-4, Multimedia-Dokumente[Bearbeiten]

6.1. Welche Bedeutung hat XML für die Beschreibung komplexer Medienströme? In welcher Relation steht es zu SMIL? Was versteht man unter einer DTD? Folie 4 bis 8[Bearbeiten]

XML = Metaauszeichnungssprache, mit der sich Syntax und Grammatik von konkreten Auszeichnungssprachen definieren lassen

  • Definition eigener Attribute, Elemente, Elementverschachtelungen zur Definition eigener Dokumenttypen/Markupsprachen
  • Die Metagrammatik XML definiert Regeln für die Definition von Grammatiken -> konkrete Grammatiken -> Instanzdokumente, die Grammatiken entsprechen

Relation zu SMIL: SMIL basiert auf XML; SMIL ist eine DTD (Document Type Definition) = formale Grammatik zur Verbindung von Multimediadaten

DTD: Definition eigener Dokumenttypen


6.2. Beschreiben Sie bitte Anwendungen von SMIL. Gehen Sie in diesem Zusammenhang auf die Übertragung multimedialer Präsentationen mit Hilfe der Produkte von RealSystems ein. Nennen Sie konkrete Beispiele. Folie 8 bis 10[Bearbeiten]

  • zeitbasiertes interaktives HTML - deklarativer Videoschnitt
  • SMIL ist eine XML basierte Dokumentenbeschreibungssprache für multimediale (Web-) Präsentationen.
  • Medien werden im Streaming Mode über das Netz übertragen.
  • Player ist z.B. der RealOne Player, der eine Großteil der 2.0 Spezifikationen implementiert hat
  • Es werden RealVideo, RealAudio, RealPix und RealText übertragen.
  • Es werden meist mehrere Medien in einer Zeitleiste angeordnet und miteinander synchronisiert präsentiert.
  • Streaming, Pufferung & Anpassung an unterschiedliche Datenraten (Internet)
  • Geeignet für Newsticker, Produktwerbung und andere multimediale Anwendungen im WWW.

6.3. Wozu dient der in SMIL verwendete Modularisierungsansatz? Was sind Profile? Nennen Sie einige SMIL Module. Folie 11 bis 13 und Folgende[Bearbeiten]

SMIL besteht aus sehr vielen verschiedenen Modulen. In diesen wird beschrieben wie die Medienobjekte eingebunden werden sollen und deren zeitlicher Ablauf festgelegt.


  • 10 Hauptkollektionen von Modulen
    • Structure-Modul (muss immer vorhanden sein)
    • Layout-Modul
    • Media Object-Modul
    • Timing and Synchronization-Modul
    • Time Manipulations-Modul
    • ContentControl-Modul
    • Transition-Modul
    • Linking-Modul
    • Animation-Modul
    • Metainformation-Modul


Ein Profil (auch Sprachprofil) ist eine Kombination von Modulen eines oder mehrerer Dokumentenformate. Das main-Profil enthält meist alle Module eines Dokumentformats. Jedes Profil muss das structure-Modul enthalten.

  • Es exisitieren zur Zeit folgende Profile:
    • SMIL 2.0 language (Teil der SMIL 2.0 Spezifikation)
    • SMIL basic (Teil der SMIL 2.0 Spezifikation)
    • SMIL animation (Integration in SVG-Modell)
    • XHTML + SMIL (noch in Entwicklung, aber schon Integration in Internet Explorer)


6.4. Welches Layout wird mit folgender Deklaration erzeugt? Folie 15[Bearbeiten]

<smil>
  <head>
     <layout>
        <root-layout width="800" height="600"/>
        <region regionName="reg01" left="50" width="20%" top="50" bottom="250"  z-index="25"/>
        ...
     </layout>
  </head>

</smil>

" Bühne: 800*600 Pixel "

Region reg01 : 20% (160) der Breite des Dokuments(800), 50 Pixel von linkem und oberem Rand entfernt, 200 Pixel hoch und in der Ebene 25

6.5. Welche Bedeutung haben in SMIL AudioLayout und MultiWindowLayout? Nennen Sie Anwendungsbeispiele. Folie 16 bis 18[Bearbeiten]

Audio Layout: Regelt Lautstärkeverhältnisse in Relation zum gesamten Medium bzw. regelt verschiedene Darstellungen in Abhängigkeit von best. Zuständen (vgl. Behaviour) durch das Attribut soundLevel

Bsp.:

<smil>
  <head>
     <layout>
        <root-layout width="800" height="600"/>
        <region regionName="reg01" left="50" width="200" top="50"
           bottom="250" z-index="25" soundLevel="100%"/>
        ...
     </layout>
  </head>

</smil>

MultiWindowLayout: Das MultiWindowLayout dient zur Darstellung einer SMIL-Präsentation in mehreren Fenstern. Das <root-layout> -Element entfällt und wird durch beliebig viele Fensterdefinitionen mithilfe des <topLayout>-Elements ersetzt

Bsp.:

<smil>

  <head>
     <layout>
        <topLayout id="win01" width="200" height="300">
           <region regionName="reg01" left="50"
              width="100" top="50" bottom="175" z-index="25"/>
        </topLayout>
        <topLayout id="win02" width="800"height="600">
           <region regionName="reg02" left="50"
              width="20%" top="50" bottom="250" z-index="19"/>
        </topLayout>
     </layout>
  </head>

</smil>

6.6. Wie erfolgt die Einbindung von Medienobjekten in SMIL? Welche Attribute können spezifiziert werden? Folie 19, 20[Bearbeiten]

Das MediaObject-Modul enthält die Mechanismen zur Definition und zum Einbinden von Medienobjekten in eine SMIL-Präsentation.

  • id: ein dokumentweit eindeutiger Identifikator, mit dem das Medienobjekt referenziert werden kann
  • region: ein Verweis auf den Darstellungsbereich des Medienobjektes
  • src: ein Verweis per URL auf die Quelle des Medienobjektes
  • erase (never|whenDone): löschen nach dem Abspielen?
  • sensitivity (opaque|transparent): sensitiv für Benutzerinteraktionen?
  • param: übermittelt Parameter an das darzustellende Medienobjekt

I was basically wanntig to know if you ever considered replacing the design of your website? It is well written; I really like what youve got to say. But maybe you can include a little more in the way of content so people can connect with it better. Youve got an awful lot of text for only having one or two graphics. Maybe you can space it out better?

6.8. Bitte erläutern Sie den Ablauf der Präsentation des folgenden Beispiels. Gehen Sie bitte dabei insbesondere darauf ein, welche Inhalte in welchen Bereichen der Präsentationsfläche in welcher zeitlichen Relation angezeigt werden.[Bearbeiten]

<par>

  <video src= clock.rm  region= clock /> 
  <seq>
     <par> 
        <text src= title_headlines.rt  region= headlines   fill=freeze /> 
        <text src= title_news.rt  region= news  fill= freeze /> 
     </par> 
     <par> 
        <video src= video.rm  region= video  fill= remove  /> 
        <audio src= audio.rm  /> 
        <text src= ticker.rt  region= ticker  fill= remove  /> 
     </par>
  </seq>

</par>


  • Während der ganzen Präsentation läuft eine Animation clock.rm
  • gleichzeitig dazu laufen die Texte title_headlines.rt & title_news.rt und bleiben stehen
  • Anschließend läuft das Video video.rm, der Text ticker.rt parallel, werden aber nach der Anzeige entfernt; parallel dazu läuft noch ein Sound audio.rm.

6.9. Welche Bedeutung haben bei parallelen Gruppen die Attribute clipBegin= 20s clipEnd= 40s ? Grenzen Sie bitte die Zeitattribute begin und end gegenüber clipBegin und clipEnd ab. Was ist der Unterschied zwischen repeatCount und repeatDur? Folie 26, 27, u.a.[Bearbeiten]

clipBegin= 20s : Im Clip wird bei der Laufzeit 20 Sekunden angefangen.

clipEnd= 40s : (Nach 40 Sekunden Mediendauer stoppt die Wiedergabe. 40 Sekunden VOR dem Ende des Clips stoppt die Wiedergabe)

*** da kann ich nicht zustimmen: laut script seite 28: "audioclip beginnt an Pos.
20s und endet bei 40s." also stimmt das durchgestrichene... durchgestrichenes stimmt wirklich, denn
NEGATIVE Werte bei clipEnd lassen das Video 40s vor Ende aufhören. ***

begin: Spezifiziert die Zeit nach der ein Medienclip in der Gruppe anfängt zu spielen.

end: Spezifiziert das Medienanzeige Ende in der Gruppe.

repeatCount: Anzahl der Wiederholungen des Objektes.

repeatDur: Loopt solange bis die Zeit vorbei ist.

6.10. Welche Möglichkeiten zur Steuerung des Ladevorganges von Medienobjekten unterstützt SMIL? Folie 31, 32[Bearbeiten]

Im BasicContentControl-Modul is das <switch>-Element definiert, mit dem sich durch Angabe verschiedener Systembitraten für unterschiedliche (Übertragungs-)Bandbreiten entsprechend verschiedene Medienobjekte laden lassen.

Bsp.

<switch>
  <par systemBitrate="14000">
     <audio src="..."/>
     <img region="..." src="..."/>
  </par>
  <par systemBitrate="56000">
     <audio src="..."/>
     <video region="." src="."/>
  </par>

</switch>

Bei 14Kbps lade ein Audioclip und ein Bild, bei 56Kbps ein Audioclip und ein Video.

6.11. Welche Bedeutung haben Content Control Module? Nennen Sie Beispiele. Folie 31[Bearbeiten]

Steuert das Vorausladen und Einbinden der Mediendaten (in ein festes System = Datenrate)

6.12. Erläutern Sie bitte folgendes Beispiel: Folie 32 <prefetch src= vid01.mpg mediaSize= 50% bandwidth= 25% />[Bearbeiten]

Die Quelldatei vid01.mpg wird zu 50% ge-cached und verwendet dazu max. 25 % der kompletten Systembandbreite

6.13. Welche Übergangs- bzw. Animationseffekte unterstützt SMIL (TransitionEffects-, Animation-Modul)? Folie 33 bis 35[Bearbeiten]

Übergangseffekte: Von einer Implementierung gefordert sind barWipe, irisWipe, clockWipe & snakeWipe.

Animationseffekte: Animation von Parameterübergängen (Position, Farbe, Sound, Ebene, &) per SplineAnimationModule, BasicAnimationModule mit weiteren Parametern wie Länge, Start- & Zielwert und Interpolationsmodus (discrete, linear & paced)

6.14. Erläutern Sie bitte folgendes Beispiel: Folie 35 <animate targetElement= reg01 attributeName= top dur= 5s values= 50; 100; 150; 200; 250 calcMode= discrete /> [Bearbeiten]

  • Parameteranimation von der top -Position der Region reg01
  • Wertebereich von 50, 100, 150 bis 250 ohne Übergänge
  • Dauer: 5 Sekunden

das Resultat ist eine schrittweise Vergrößerung des Abstands zum oberen Rand in 4 Schritten à 50 Pixel über 5 Sekunden hinweg

6.15. Welche Ziele werden mit dem MPEG-4 Standard verfolgt? Grenzen Sie diesen prinzipiell vom SMIL-Standard bez. der Ziele und Anwendungsfelder ab. Folie 8 bis 10 und 37 bis 43[Bearbeiten]

  • Standard für komplexe interaktive Medienströme (Real & CGI)
  • Client / Server Anwendungen
  • Plattformunabhängigkeit " Anwendungsplattformen: TV, Film, Entertainment, Telecom & Computing
  • Integration unterschiedlicher Medienstandards
  • offenes, flexibles System > eine Art Toolbox

Unterschiede zu SMIL:
SMIL ist ein Teil des MPEG4 Systems; SMIL hat nur ein sehr begrenztes Anwendungsgebiet und verwendet andere z.T. propriertäre Formate, wohingegen MPEG4 alles im Standard hat

6.16. Grenzen Sie MPEG-4 von MPEG-2 bezüglich der Ziele und Anwendungsfelder ab. u.a. Folie 37, 41, 42[Bearbeiten]

MPEG4 bietet ein Rundum-Sorglos-Paket:

  • Gute Skalierbarkeit (v.a. im Mobilbereich)
  • Hohe Interaktivität
  • Real & CGI Inhalte
  • Fehlerresistent (Übertragungsoptimiert)
  • Inhaltszugrifforientiert

MPEG2:

  • einfaches Push System mit sehr begrenzter Interaktivität
  • Nur Broadcast, TV & Filmbereich
  • Nur für Broadbandbereich

6.17. Skizzieren Sie das dem MPEG-4 zugrunde liegende Architekturmodell. Gehen Sie auf die Begriffe Transmission-, Delivery-, Synchronisation- und Decompression- Layer ein. Folie 44, 49, 50[Bearbeiten]

Objektbasierte Szenen mittels Szenengraphen

Transmission Layer: Regelt den Zugriff auf die Dateien über die Transportschicht (OSI)

Delivery Layer: Unabhängigkeit von dem Distributionsmedium (Demultiplexen des MP4-TS in ES)

Synchronisation Layer: Regelt zeitlichen Ablauf der individuellen Medien

Decompression Layer: Entkomprimierung des verpackten ES

6.18. Aus welchen Teilen besteht der MPEG-4 Standard? Beschreiben Sie kurz, welche Eigenschaften in den Teilen festgelegt sind. Folie 45[Bearbeiten]

  • Begriffserklärungen:
    • OD = object descriptor
    • BiFS = binary format for scenes
    • FlexMux = das Multiplex Tool von MPEG-4
    • XMT = eXtensible MPEG-4 textual format
    • IPMP = intellectual property management and protection
    • DMIF = delivery multimedia integration framework
  • Systems: Tools wie BiFS, OD, FlexMux, File Format, XMT, IPMP, ...
  • Visual: natürliches & synthetisches coding, face & body animation
  • Audio: sprachkodierung, general audio coding, text-to-speech, structured audio
  • Conformance Test: Bedingungen für Kompatibilitätstest
  • Reference Software: Referenzimplementierung der wichtigsten Teile
  • DMIF: Session-Protokoll, Management von MM-Streams über abstrakte API
  • optimization: für visuelle tools, zB fast motion estimation
  • mp4 over ip: Übertragung über's Netz
  • reference hardware: in VHDL (das ist übrigens eine Hardware-Beschreibungssprache) beschriebene MP4-tools
  • advanced video coding: video syntax + coding ausgehend von H.26L Spezifikation

6.19. Grenzen Sie die Begriffe Medienobjekte (MO), Elementary Streams (ES), Szenengraph (SG) und Object Describtors (OD) im Kontext von MPEG-4 voneinander ab und erläutern sie, in welcher Beziehung diese in einer interaktiven audiovisuellen Präsentation stehen. Folie 46, 47[Bearbeiten]

Media Objects: Bestehen aus verschiedensten Elemntary Streams

Elementary Streams: Datenströme (Video / Audio / GFX / CGI / &)

Scene Graph: (dynamische) Beschreibung der Szene, Relationen & Interaktionen Binärer Elementary Streams

Object Descriptors: Beschreibung der MO sozusagen Bindeglied zwischen Szenengraph & Elementary Streams

MPEG4-Szene: Mischung hybrider Medienobjekte, die über den Szenengraph angeordnet werden; beide Objekte haben eigenes Koordinatensystem & Szenengraph beinhaltet den Betrachter (vgl. CAMNode in Maya)

6.20. Nennen Sie die wichtigsten Konzepte, Mechanismen und Funktionen des MPEG-4 Standards. Was versteht man in dem Standard unter dem Begriff Tool ? Nennen Sie typische Tools. Folie 52, 53[Bearbeiten]

Verschiedene MPEG4-Tools:

System
Regelt grundlegende Funktionen wie Ressourcen, Codecs, Timing, Interaktionen (u.a. Java API), IP Tool, Dateistruktur

Visual
Für bewegte Medien: Kompression, Qualität (nach Bitrate), 3D-Objekte als Shapes, 2D Shapes und Tiefeninformation für Überlagerungen (Transparenz)

Audio:
Für auditive Medien: Speech, AAC (HE, LC & Main) mit feiner Bitratenverteilung, synthetische Musik (vgl. MIDI) & Text-To-Speech (mit Lipsync und Parametern wie Alter, Geschlecht, Dialekt & Facial Animation > für 3D-Meshes oder 2DShapes)

DMIF:
Transportschicht: Signale, Quality Of Service (QoS) Ressourcen in heterogenen Netzen

Daneben gibt es noch Tools die MPEG4-over-IP und MPEG4 über MPEG2 Systeme übertragen

6.21. Welche Bedeutung haben MPEG-4 Profile und Level? Nennen Sie Beispiele. Folie 54, 101 bis 103[Bearbeiten]

Vgl. mit MPEG2: Anpassung des Systems an verschiedene Geräteklassen, weil es als allgemeines System entworfen wurde, das alle Bedürfnisse (Handheld -> MHP -> Broadcast) abdecken soll.

Profil: Beschreibt welche MPEG4 Tools verfügbar sind in diesem Profil

Level: Beschreibt wie Komplex die Tools eines Profils sind

Conformace Tests sind pro Profil & Level definiert. (weitere Information dazu nicht Stoff des Semesters da Vorlesung zu Ende)


6.22. Gehen Sie auf das Konzept der MPEG-4 Object Descriptors (OD) ein. Welche Bedeutung haben sie? Gehen Sie auf die Relation zwischen OD, ES-Descriptoren und der Szenengraphbeschreibung ein. Folien 55 bis 59[Bearbeiten]

Bedeutung: Er beschreibt die MP4-Ströme und deren Relationen zu Medienobjekten (ein Node im SG zeigt auf den OD z.B. vom Audio-Track der wiederum zeigt auf den passenden ES)

Er wird in einer SDL (Syntactic Description Language) beschrieben (objektorientiert wie C++) Jeder ES wird wiederum von einem ES-Descriptor (ESD) beschrieben, der sich im OD befindet er enthält alle Information über Location, Format, Bitrate, usw. von dem Medium.

6.23. Welche Mechanismen stellt der MPEG-4 Standard zur semantischen Beschreibung von Inhalten und Präsentationen bereit? Folien 60, 61[Bearbeiten]

  • Über einen Bereich im ESD sind Informationen zu semantischen Inhaltsbeschreibung als Metadaten vorhanden (object content infomation OCI) & Intellectual Property Management & Protection (IPMP) möglich Kann beispielsweise für alternative Ströme in Abhängigkeit vom System, Spracheinstellung usw. eingesetzt werden.
  • OCI ist separater Strom, weil er sich dynamisch verändern kann.
  • OCI Ströme können für Synchronität mit Medien sorgen (dynamischer Newsticker in einer MPEG4 Szene) " IPMP ist eine Client / Server Anwendung und kann auf jeden ES separat schützen : Überprüfung von Rechten & anschließende Entschlüsslung


6.24. Wie ist ein Szenengraph in MPEG-4 aufgebaut, wie wird er beschrieben, welches Format wird unterstützt und aus welchen Elementen besteht er prinzipiell? Folien 62 bis 68[Bearbeiten]

  • Baumstruktur, die die komplette oder Teile einer MPEG4 Szene beschreibt (und dabei auch andere SG verwenden kann.
  • Gruppierung entscheidet über Beziehungen der Objekte untereinander (Parenting, Grouping, usw.)
  • Existiert in Binär- und Textform, die nicht 100% ineinander überführt werden können.
  • Die Knoten im Baum besitzen beschreibende Attribute
  • Es gibt verschiedene Knotentypen (nach Inhalt oder Interaktion)
  • Hyperlinks sind auch möglich " Durch Interaktion kann die SG-Struktur dynamisch verändert werden (zur Laufzeit) notwendig dazu sind BIFS (Binärform) Commands und Anims, weitere ES zur Steuerung des Interaktionsmöglichkeiten: Sie definieren was sich ändern kann.


6.25. Was versteht man unter dem MPEG-4 Extensible Textual Format (XMT)? Welche Ausprägungen gibt es und warum. Was sind deren Unterschiede? Folien 69 bis 71[Bearbeiten]

XML-Basierende texturelle Beschreibung von MPEG4 Systemstrukturen (mit Interoperabilität mit SMIL, SVG & X3D, die Subsets von XMT sind):

XMT (Omega): SMIL 2.0 Kompatibilität

XMT (Alpha): Orientierung an VRML & X3D

Beide (Alpha & Omega) sind in XMT-C zusammengefasst Beide können in das MPEG4 Binär SG-Format gebracht werden

6.26. Welche Bedeutung hat MPEG-J? Ordnen Sie dies in die MPEG-4 Architektur ein. Was versteht man unter einem MPEGlet? Folien 72 bis 76[Bearbeiten]

Regelt dynamisches Verhalten in der MP4-Szene (Script- & Programmiersprache) Bestandteile: Presentation Engine wird um die Java Application Engine erweitert Grund für Java: Plattformunabhängigkeit

Anforderungen:

  • Es muss verschiedenste Anwendungen mit verschiedensten Medien in heterogenen Netzen und unterschiedlichster Endgeräte in Einklang bringen und muss zusätzlich Sicherheits- & Synchronisationsfunktionen bieten.

Einordnung:

  • Wird aus dem Datenstrom heraus initiiert durch einen MPEG-J OD
  • ES wird dekodiert, im Puffer gespeichert und der SG-Interpreter steuert die Präsentation über den Resource Manager
  • MPEG-J nimmt Einfluss auf Interpretation des SG, Puffer & Media Decoder
  • Das Applet kann im Player (Terminal) oder im ES enthalten sein.
  • Wenn es im ES enthalten ist nennt man es MPEGlet.
  • Java Objekte und Klassen werden als ES (in gepacktem ZIP / JAR) transportiert


6.27. Welche Bedeutung kommt dem Delivery Multimedia Integration Framework (DMIF) in MPEG-4 zu? Was sind die wichtigsten Funktionsgruppen und Schnittstellen? Folien 77, 78[Bearbeiten]

Delivery Multimedia Integration Framework

  • Regelt die unabhängige Kommunikation zwischen Player und Content Für den Player ist es damit uninteresant zu wissen wie die Daten zu ihm kommen, denn das Framework sorgt dafür das die Daten homogen von Player zugegriffen werden können, egal ob per Streaming, (Uni-)Broadcast oder Offlinemedium.
  • Es regelt auch die Synchronisation und regelt auch das Verpacken der ES in einen TS (incl. Steuerungsinformation & QoS)

Funktionsgruppen: Es bietet das Delivery Application Interface Session Layer zur Steuerung von MP4-Sessions & Kanäle

Schnittstellen: Application Interface Network Interface


6.28. Welche prinzipiellen Services stellt das DMIF Application Interface (DAI) einer MPEG-4 Anwendung zur Verfügung? Folien 79 bis 82[Bearbeiten]

Primitives: Services: Erzeugen & Beenden des DMIF Services

Channel: Erzeugen & Auflösen der DMIF-Kanäle

QoS Monitoring: Setzen und steuern von der Überwachung des QoS

User Commend: Austausch von Informationen zwischen DMIF Peers

Data: Übertragen des aktuellen Medienstroms


6.29. Was ist die Aufgabe des DMIF Network Interfaces (DNI) und welche prinzipiellen Funktionen stellt es zur Verfügung? Folien 82 bis 86[Bearbeiten]

Aufgabe: P2P Steuerprotokoll, das spezifische Transportprotokolle angepasst ist

Funktionen (~Primitives):

  • Session: Start/Stopp einer Session zischen DMIF Peers
  • Service: Start/Stopp eines neuen Dienstes in der DMIF Gegenst.
  • TransMux: Start/Stopp einer FlexMux Übertragung mehrer Ströme
  • Channel: Start/Stopp einer FlexMux Übertragung eines Stromes
  • User Command: Übertragung von Kommandos der Anwendung


6.30. Wie ist das Datei-Format von MPEG-4 aufgebaut, welche Konzepte verwendet es? Folien 87 bis 90[Bearbeiten]

  • Medienströme, SG & Metadaten als ES
  • MP4 ES werden als Track gespeichert, einer Sequenz von Access Units (AU = Samples) Orientierung an QuickTime
    • Inhalt einer AU:
      • Video: ein kodiertes Frame
      • Audio: ein kodiertes Sample
      • BIFS: Ein Satz von Anweisungen
    • Eigener Timecode pro Track
    • Reichenfolge von Video ist die Dekodierfolge
    • Interne Sync-Punkte
  • Erweiterbares Format, das mit der Hilfe von Pointern & Descriptors auf Stukturen in dem Medium bzw. auf externe Ressourcen zugreift.
  • alles ES & Medienströme werde in sog. atoms zusammengefasst

Weitere Strukturen

  • Track References: Synchronisation zischen Strömen einer Datei
  • Atom (mit Header):Behälter für: mdat: Medien moov: Metadaten (mit interner Struktur) free: freier Platz
  • Track Atom: Timing, Sync, Data Reference (intern oder extern), Typ der Mediendaten, Infos zu Trackdaten (location)
  • Chunk: mehrere Samples (Atoms) des gleichen Typs


6.31. Nennen Sie die wichtigsten synthetischen und natürlichen Audio-Formate, die der MPEG-4 Standard festlegt. Grenzen Sie bitte diese Formate grob voneinander ab. Folien 91 bis 94[Bearbeiten]

Synthetisch:

  • Text-To-Speech (Synchronisierung mit anderen ES möglich)
  • MIDI: Wavetable
  • Structured Audio Orchester Language
    • (sozusagen modernisiertes erweitertes MIDI-Format mit
    • Orchestras & Scores Samples können als ES vorliegen, dadurch
    • nicht so starre Zuordnungen wie bei MIDI

Natürlich:

  • Sprachkodierung (super low bitrate mit speziellen Codecs HVXC & CELP)
  • General Audio Coding
    • TwinVQ: Im unteren Bitratenbereich (ca. bis 64 kbps)
    • AAC: Hochqualitative Kompression im höheren kbps-Bereich


6.32. Nennen Sie die wichtigsten Formate für visuelle synthetischen und natürlichen Medienobjekte in MPEG-4. Grenzen Sie bitte diese Formate grob voneinander ab. Folien 95 bis 101[Bearbeiten]

Synthetisch:

  • VRML-Videoobjekte
  • Facial-, Body animation & Animation von 2D-Meshes

Natürlich:

  • Shape: Vektorformat mit Alphakanal
  • Textur: DCT vgl. JPEG oder Wavelet bei statischen Texturen
  • Motion coding: Bewegungsabschätzung aller Objekte ähnlich wie MPEG2
  • Natural Video Coding: vgl. MPEG2 & H26x und andere modere Ansätze

Alle Ströme separat komprimiert und gemultiplext und erst im Player bei Bedarf zusammen-composed .

6.33. Was versteht man unter MPEG-7? Grenzen Sie den Standard von MPEG-2 und MPEG-4 ab. Beschreiben Sie die wesentlichen Inhalte und Zielsetzungen. Folien 102 bis 130[Bearbeiten]

MPEG-7
- MPEG-7 definiert allgem. Beschreibung multimedialer Inhalte
- Systematischer Zugriff auf Informationsquellen
- Verwaltung und Verknüpfung von Inhalten, Ereignissen und Benutzer-Interaktionen
- Kommunikation automatiischer Systeme auf Basis der Medienbeschreibungen

6.34. Was versteht man unter MPEG-21? Grenzen Sie den Standard von MPEG-7und MPEG-4 ab. Beschreiben Sie die wesentlichen Inhalte und Zielsetzungen. Folien 131 bis 146[Bearbeiten]