Qualität / Produktionskette der deutschen öffentlich-rechtlichen Sender über DVB-T2 verglichen mit Kabel und Satellit

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Qualität / Produktionskette der deutschen öffentlich-rechtlichen Sender über DVB-T2 verglichen mit Kabel und Satellit

      Bekanntlich werden die deutschen ÖR-Sender mit 1080p50 HEVC kodiert über DVB-T2 ausgestrahlt.

      Handelt es sich hierbei um Hochskalieren / Umkodieren des 720p50 Satelliten-Signals oder gibt es einen direkten Weg von in 1080p50 oder besser vorliegendem Material ohne Umweg und damit offensichtlich verbundenem Informations- und Qualitätsverlust über 720p50?

      [Auch hier im Forum habe ich schon widersprüchliches dazu gelesen, für den DVB-T2 Testbetrieb war wohl die Weisheit, dass das nur hochskaliert würde. Jetzt ist Zeit vergangen und kein Testbetrieb mehr …]

      Hat schon mal jemand hier die Qualität verglichen: DVB-T2 vs. Satellit vs. Kabel (z.B. Vodafone Kablnetz) evt. auch noch vs. Telekom MagentaTV? Oder eine Quelle zu so einem Vergleich?

      Kann mir jemand typische Bitraten der Übertragung mit DVB-T2 nennen? Bitte dazu nennen, ob reine Video-Bitrate oder alles zusammen mit Audio, Videotext, ….. Bitte möglichst auch mit Angabe des Senders - oder gibt es da eh keine Unterschiede? Sind die Bitraten konstant über die Zeit?

      Haben die DVB-T2 Ausstrahlungen die identischen Audio-Kanäle wie die Satelliten-Streams. (Also z.B. ARTE mit Deutsch/Französisch/Hörfassung, andere Sender evt. Orginalton). Auch jeweils in vergleichbarer Qualität/Anzahl der Kanäle (meines Wissens ist die Kodierung ja anders). Also - wenn eine Sendung auf Sat 5.1 Ton hat, wird es immer auch einen 5.1 Ton auf DVB-T2 geben? (Sollte eigentlich selbstverständlich sein, dass es da keine Verschlechterung gibt).

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von buers ()

    • Verstehe deine Nachfrage nicht wirklich. Ich sehe bei einigermaßen modernen Produktionen (und auch bei vielen sehr alten Kinofilmen) einen Riesen-Unterschied zwischen Das Erste HD und SD (ich denke, das meintest du in deinem Beispiel). Ich kann mir nicht vorstellen, dass das jemand bezweifelt. Klar mag es auch viele alte Fernseh-Produktionen geben, wo man keinen Unterschied sieht. Nicht sicher, ob du meine Zahlen zur Auflösung richtig interpretiert hast: ich verwendete die Anzahl der Zeilen, so wie es halt Konvention ist bei einer Angabe 1080p50, du verwendest die Anzahl der Spalten (1080p50 hat 1920 Spalten).

      Meine Frage war ja gerade, ob sich die Qualität unterscheidet. Und dieses Wissen ist ja schon mal sinnvoll an sich (egal wie die Antwort aussieht).
      Mit der Bitrate lässt sich beurteilen, wie groß der Speicherbedarf ist. Typischerweise wird angenommen, dass das bei HEVC-Kodierung etwa 50% sind von H264 bei gleicher Qualität. Ist nicht klar, dass man mit der Antwort auf meine Fragen da was anfangen kann? Angenommen Qualität wäre identisch und Bitrate halb so hoch, spart man die Hälfte an Speicherplatz für Aufnahmen. (Mir ist durchaus bewusst, dass man auch selbst umcodieren kann, und dass das auch Nachteile haben kann. Wollte aber nicht so eine Diskussion anzetteln, sondern habe versucht nach Zahlen, Erfahrungen, objektiven/subjektiven konkreten "Dingen" zu fragen).

      Übrigens: Vor Jahren war nach meiner Beobachtung auf Satellit die von vielen privaten SD-Sendern genutzte Bandbreite/Bitrate (z.B. Pro7) signifikant höher als heute. Den Qualitätsunterschied kann man deutlich sehen. Und ist ja auch logisch ..

    Unsere Partnerboards

    ^
    Flag Counter