Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Canon präsentiert Mitte Dezember Sensor mit fast 16 Blendenstufen



Newsmeldung von slashCAM:



Das jährliche IEEE International Electron Devices Meeting IEDM findet vom 9. bis 13. Dezember in San Francisco statt. In seinem 69. Jahr !! gibt es auch wieder ein paar ...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Canon präsentiert Mitte Dezember Sensor mit fast 16 Blendenstufen


Space


Antwort von Darth Schneider:

Liest sich so als hätte da Canon ein alternatives Ass zum Arri beziehungsweise Fairchild Sensor im Ärmel. ;)
Gruss Boris

Space


Antwort von andieymi:

Ich glaube die Prognosen immer erst, wenn sowas in einer Kamera verbaut im Laden oder Verleih steht.

Wie oft es Sensor-News gibt, die dann tatsächlich kaum etwas mit der Realität zu tun haben... die Foto-Konkurrenz steht auch noch bei Global Shutter in den Kinderschuhen (siehe Sony jetzt). Canon ist mit der C700 einen dermaßen kolossalen Flop eingefahren (wahrscheinlich der Größte der letzten 10 Jahre bei spezielleren Bewegtbildkameras, Varicam war dagegen sowas wie ein Publikumsliebling, gerade in den USA), dass gerade Canon da wieder mal zeigen muss, was sie eigentlich können. Die gesamte C-Serie (ok, die C70 hat ihre Zielgruppe) hatte ihren größte Zeit wahrscheinlich vor 6-7 Jahren, es gibt mittlerweile einfach kaum Gründe, die in dem Segment zwischen Sony und Red für Canon sprechen.

Und gerade die Liga darüber hat sehr konservative Käufer, glaube kaum, dass Verleiher jetzt statt Arri für 100K auf einmal Canon kaufen.

Außer die Kamera ist wirklich gut. Und das lässt sich halt nicht anhand von Sensor-News prognostizieren.

Space


Antwort von Darth Schneider:

Klar, aber nur weil die C700 ein Flop war heisst das noch lange noch das dann der Nachfolger auch ein Flop sein wird.
Und das Canon auch sehr gute Cine Cams bauen kann haben sie schon längst bewiesen.

Und die C70 finde ich, die ist heute noch sehr toll.
Gruss Boris

Space


Antwort von Drushba:

andieymi hat geschrieben:
es gibt mittlerweile einfach kaum Gründe, die in dem Segment zwischen Sony und Red für Canon sprechen.
Für mich gibt es auch wenig Gründe, aber die haben es trotzdem in sich: Canonfarben und das neue 24-105 f2,8. Wenn der Sensor annähernd so gut ist, wie erträumt und irgendwo in der Nähe dessen, was ich mir unter Verzicht gerade noch leisten kann (wer braucht schon ein neues Auto, wenn die Welt eh kippt)), dann könnte es mich schon zurück zu Canonswitchen lassen. Mal abwarten ;-)

Space


Antwort von Darth Schneider:

Und Canon würde das mit dem neuen Sensor doch gar nicht erst kommunizieren wenn es nur ein lauwarmer Furz wäre.
Gruss Boris

Space


Antwort von MarcusG:

Ich denke es geht darum dem Sony A9 III Hype was entgegen zu setzen...wie viel Blenden dann in der Realität übrig bleiben muss man erst Mal sehen.

Sony FX3 schafft doch angeblich in Slog3 auch 15 Stufen laut Sony Angaben, wo ist da jetzt der große unterschied zu 15,84 ?

Space


Antwort von Darth Schneider:

15 Stops DR, die FX3 ?
Echt jetzt?
Ich denke alle Kamera Hersteller bis auf Arri übertreiben doch diesbezüglich ein wenig, oder ?
Meine S5 sollte ja auch 14 Stops haben, ich tippe mal eher auf 13. ;))
Gruss Boris

Space


Antwort von MarcusG:

Ja also warum sollte dann Canon tatsächlich das schaffen was sie angeben?

Für mich wäre viel wichtiger dass die DR welche die aktuellen Sensoren schaffen richtig abgespeichert werden. Ich hab einen Test gemacht mit RAW Fotos und Slog3 10bit HEIF JPEGS in Lightroom. Da wird einfach nicht die komplette DR in Log übertragen sondern ne Blende gekappt. Während man bei RAW den Highlight Regler ziehen kann und es flutscht fast endlos Daten von rechts in Histogramm rein und die Highlights sind recovered. So sollte das n Resolve einfach auch gehen mit Video Log

Space



Space


Antwort von MarcusG:

Ärgerlich ist in dem Zusammenhang auch, dass angeblich bei Sony 16bit RAW Output möglich ist, aber dieser Output zwingt dem Signal eine Slog3 Kurve auf und somit ist es nicht besser als interne 10bit Aufzeichnung, jedenfalls was die DR angeht. Nerv!

Space


Antwort von Axel:

Nur mal so als Gedankenspiel. Superschnell ausgelesene Sensoren mit 16,17,18 Blenden DR in, äh, SLog4, speicherbar in 12-bit. Wie lange bis dahin? 5 Jahre?

Space


Antwort von MarcusG:

Axel hat geschrieben:
Nur mal so als Gedankenspiel. Superschnell ausgelesene Sensoren mit 16,17,18 Blenden DR in, äh, SLog4, speicherbar in 12-bit. Wie lange bis dahin? 5 Jahre?
Bis dahin hoffe ich ja auf ein KI highlight Recovery Tool, das a la generative fill das Bild um überbelichtete Stellen herum analysiert und die fehlenden Details in den Highlights mit rendert. Wahlweise auch mit einem für Highlights belichteten Referenzbild das man vorher gemacht hat

Space


Antwort von Darth Schneider:

Hmm, ich denke womöglich kommt von Sony bald mal SLog4 beziehungsweise sowas wie SRaw, mit 12 Bit.
Wäre an der Zeit.
Aber 16 Bit RAW intern in einer kompakten Sony FX4, ich denke wohl kommt eher nicht….

Ich gehe mal davon aus das die aktuellen Sony Venice Modelle 16 Bit RAW Recording schon können, oder ?
Also neu erfinden müsste Sony nix.

Und Canon mit der C Linie schläft ja inzwischen auch nicht.;)
Gruss Boris

Space


Antwort von MarcusG:

Ja die venice macht richtiges RAW glaube ich, aber der 16bit angeblich RAW Output der Alphas ist halt zumindest was DR angeht fake weil Slog3 erzwungen wird.

Space


Antwort von Darth Schneider:

@Marcus
Das Thema wurde hier schon heftig diskutiert, muss wohl so sein.
(Ausser man filmt mit dem RAW Fotoburst der A1, oder mit der kommenden A9.
Die Fotos sind dann 16Bit RAW…;))
Gruss Boris

Space


Antwort von roki100:

MarcusG hat geschrieben:
Ja die venice macht richtiges RAW glaube ich
was VENICE macht, steht hier: https://pro.sony/de_DE/products/digital ... ock-venice
Also RAW mit Sony Recorder AXS-R7...?
aber der 16bit angeblich RAW Output 16Bit Linear, in wirklichkeit also (wie mit fast alle anderen RAW Formate): RAW 12Bit-LOG.
Außer Arri Alexa S35 ARRIRAW - das kann 13Bit-LOG.

Space


Antwort von Darth Schneider:

https://de.wikipedia.org/wiki/Raw_Film
Gruss Boris

Space


Antwort von Rick SSon:

Es gibt auch schon ein paar Jahre einen 14 Blenden Fairchild MFT Sensor, der auch bisher nirgendwo verbaut wurde 😄

Bevor das Ding nicht mit einem Kameragehäuse drumrum ausgeliefert wird ist es auch praktisch nicht existent.

Space



Space


Antwort von Darth Schneider:

Kein Wunder,
eine Panasonic Gh7 mit dem Fairchild Sensor wäre heute viel zu teuer, Blackmagic benutzt für ihre Cams lieber Sony oder ihre eigenen Bildwandler. Von ZCam fange ich gar nicht erst an was zu schreiben.
Und sonst gibt es ja keine anderen Kamera Hersteller die überhaupt (noch) MFT Cinema Kameras bauen….;)

Aber wer weiss, womöglich endet der MFT Fairchild ja in einer Drohne…
Gruss Boris

Space


Antwort von Rick SSon:

roki100 hat geschrieben:
MarcusG hat geschrieben:
Ja die venice macht richtiges RAW glaube ich
was VENICE macht, steht hier: https://pro.sony/de_DE/products/digital ... ock-venice
Also RAW mit Sony Recorder AXS-R7...?
aber der 16bit angeblich RAW Output 16Bit Linear, in wirklichkeit also (wie mit fast alle anderen RAW Formate): RAW 12Bit-LOG.
Außer Arri Alexa S35 ARRIRAW - das kann 13Bit-LOG.
Kann dazu nur sagen, dass zcam zum Beispiel selbst gesagt hat, dass es keinen sichbaren unterschied zwischen prores und ihrer h265 implementation gibt. Aber die Leute wollten unbedingt raw und prores und so.

Die meisten Sensoren schaffen bis maximal 60fps einen 12 bit 422 readout. Darüber droppen Sie in der Regel auf 10 bit 422, dann auf 10 bit 420.

Da sieht man wieder, dass die Leute auch verarscht werden wollen. Selbst wenn der Hersteller selbst sagt, dass es keinen Sinn macht 😄

Das ist so wie red in die dr Angabe seiner Kameras einfach das highlight recovery schon mit reinrechnet :D

Tatsächlich scheint Blackmagic da noch am ehrlichsten zu sein, das sieht man an der neuen Cinema Camera 6k. Die kann halt wirklich nur die Frameraten aufzeichnen, in denen aus dem Sensor noch 12 bit rauszuholen sind.

Space


Antwort von roki100:

"Rick SSon" hat geschrieben:
Kann dazu nur sagen, dass zcam zum Beispiel selbst gesagt hat, dass es keinen sichbaren unterschied zwischen prores und ihrer h265 implementation gibt.
Ich habe das selbst sehr oft getestet/verglichen, und ich sehe keine sichtbaren Vorteile im Vergleich zu h264/5 10Bit 422. Aber das scheint von Kamera zu Kamera anders zu sein.
"Rick SSon" hat geschrieben:
Die meisten Sensoren schaffen bis maximal 60fps einen 12 bit 422 readout.
Wenn der Sensor 12Bit 60fps kann, dann kann das auch in 12Bit 60fps RAW (LOG) gespeichert werden.
Soweit mit bekannt hat echtes RAW kein subsampling...
"Rick SSon" hat geschrieben:
Tatsächlich scheint Blackmagic da noch am ehrlichsten zu sein, das sieht man an der neuen Cinema Camera 6k. Die kann halt wirklich nur die Frameraten aufzeichnen, in denen aus dem Sensor noch 12 bit rauszuholen sind.
Ja, https://forum.blackmagicdesign.com/view ... p?t=162721 aber nicht nur Blackmagic. Soweit ich weiß, sind Sony und Red die einzigen, die mit großen Zahlen große Werbung machen. "Sony 16Bit RAW" das hat für viel Verwirrung und endlose Diskussionen gesorgt. Selbst Sony-Kamermänner, die bis zu 20 Jahre erfahrung mit Sony haben, glaubten, dass das alles 16Bit-RAW sei ohne den Unterschied zwischen Linear und Log zu kennen usw.

Space


Antwort von Darth Schneider:

@Rick
Das man keinen sichtbaren Unterschied sehen kann glaube ich dir sicher.

Ich hab trotzdem zumindest 2 gute Gründe die für ProRes und RAW sprechen.
Schon mal auf einem langsamen Mac versucht 10 Bit h265 zu bearbeiten oder zu rendern ?
Braucht sehr, sehr viel Geduld…;))
Das rendern geht locker 3 mal so lange, als mit ProRes, und locker 2 mal so lange als mit mit BRaw.

Und ausserdem auch sonst, benutze ich halt dann doch lieber die altbewährten Codecs die ich in und auswendig kenne, frei nach dem Motto:
„Never change a running System“

Gruss Boris

Space


Antwort von Rick SSon:

"Darth Schneider" hat geschrieben:
@Rick
Das man keinen sichtbaren Unterschied sehen kann glaube ich dir sicher.

Ich hab trotzdem zumindest 2 gute Gründe die für ProRes und RAW sprechen.
Schon mal auf einem langsamen Mac versucht 10 Bit h265 zu bearbeiten oder zu rendern ?
Braucht sehr, sehr viel Geduld…;))
Das rendern geht locker 3 mal so lange, als mit ProRes, und locker 2 mal so lange als mit mit BRaw.

Und ausserdem auch sonst, benutze ich halt dann doch lieber die altbewährten Codecs die ich in und auswendig kenne, frei nach dem Motto:
„Never change a running System“

Gruss Boris
kannste machen. Aber du kannst 4k50 h265 auf jedem aktuellen macbook air cutten. Die gibts für unter 1000€ und h265 ist bedeutend kleiner als ProRes. Das holste also relativ schnell wieder rein, weil du nicht soviele Festplatten zum Wegspeichern kaufen musst ;-)

Tatsächlich arbeiten wir gar nicht mit ProRes, ausser der Kunde will mal „nur HD“. Bei so Sachen fürs Fernsehen passiert das mal. Dann zeichnen wir parallel extern ProRes HD auf. Ansonsten nur BRAW, oder h265. BRAW ist auch effizienter als ProRes 😄

Deshalb bin ich auch son visl bei BMD gefangen, weil ich nicht mehr ohne diesen Codec arbeiten will 😂

Ich könnte noch zu Red gehen, aber das is mir zuviel militärjargon gepaart mit toxischer Maskulinität. Außerdem trage ich keine Basecaps.

Space


Antwort von Darth Schneider:

Hast ja recht. Ich nutze ProRes HQ ja auch nur wenn ich lange am Stück aufnehmen muss und wenn HD genügt. Der Vorteil bei der 4K Pocket dabei ist das das so auch ganz ohne Crop mit 2K geht.
Sonst filme ich natürlich auch nur mit 4K BRaw.

Und ja, nächstes Jahr kauf ich mir ein neuen Mac. Mit M2/3 oder was auch immer. Dieses Jahr lag das nicht drin.

Grüsse Boris

Space


Antwort von andieymi:

Bitte differenziert mal, ob ihr den Unterschied in der Wiedergabe nicht seht, oder nach der Weiterverarbeitung.

Das ist ja letztendlich worauf es hinausläuft: H265 ist genial, wenn es um selbst visuell (fast) verlustfreie Kompression zur Wiedergabe geht(Wobei ich mich neulich mal wieder erstaunt gewundert habe, wie viel besser AV1 ist!). Abe viel Info ist da dann nicht mehr da, wenn es mal ein paar mehr Korrekturen sein müssen.

Und darauf läuft es letztendlich raus - es wären ja alle blöd, die das dann noch mit ProRes oder Raw machen. Klar ist da viel "auf der sicheren Seite sein", aber es gibt halt auch Fälle (und da ist man schnell mal, wenn man nicht weiß was man tut) da zerbröselt komprimiertes Raw in der Post zu nichts, und ihr erzählt mir, dass H265 da nicht schlechter ausschaut?

roki100 hat geschrieben:
Wenn der Sensor 12Bit 60fps kann, dann kann das auch in 12Bit 60fps RAW (LOG) gespeichert werden.
Soweit mit bekannt hat echtes RAW kein subsampling...
Zeig mir mal die paar Sensoren, die überhaupt 60fps in mehr als 12-Bit auf A/D-Level können. Die gibt es, aber nicht viele. 12-Bit Log macht ja nur Sinn, wenn der Raw-Strom von 14-16Bit A/Ds kommt, sonst könnten sie auch bei Linear bleiben.
Quasi alle Sensoren, die für Fotos entwickeln wurden (vs. im Speziellen für Bewegtbild) und in einer Kamera verbaut werden, die mehr als stiefmütterlich Fotos macht, schafft in 14-Bit keine 25fps. Geschweige denn 60. Die meisten Fotokameras haben nicht mal 16-Bit Sensoren, geschweige denn 14-16 Bit mit 60fps.

Oder was erhoffst Du Dir von der Log-Speicherung von 12-Bit A/D-Readout in 12-Bit Log?

Space


Antwort von roki100:

andieymi hat geschrieben:
Bitte differenziert mal, ob ihr den Unterschied in der Wiedergabe nicht seht, oder nach der Weiterverarbeitung.
Es ging nicht darum.
Das ist ja letztendlich worauf es hinausläuft: H265 ist genial, wenn es um selbst visuell (fast) verlustfreie Kompression zur Wiedergabe geht H264/5 10Bit 422 oder 12Bit 422, Wiedergabe und Bearbeitung.

Space


Antwort von MarcusG:

andiyeimi
Es ging ursprünglich darum: der slashcam Artikel kündigt CanonSensor mit 15,84 stops an, und ich habe gesagt dass ich es ja schonmal einen Fortschritt fände wenn die Hersteller, in meinem Fall Sony, überhaupt dir DR ihrer aktuellen Sensoren vollständig abspeichern würden, was sie nämlich im Video-Bereich nicht tun, obwohl sie mit 16bit RAW Ausgabe extern werben zwingen sie dir dann Slog3 Kurve auf und dabei wird eben in den Highlights Dynamik weggeworfen die man aus einem Vergleich mit dem Foto noch super zur Verfügung hat.

Space



Space


Antwort von andieymi:

roki100 hat geschrieben:
H264/5 10Bit 422 oder 12Bit 422, Wiedergabe und Bearbeitung.
Da sind wir aber an einem Punkt, wo es fast keinen Sinn macht, das fix und fertig debayerte Signal zu komprimieren - wenn wir - und das steht wohl außer Zweifel, von Intraframe-Kompression reden und nicht von Long GOP.

Da ist es erheblich effizienter, näher an den Rohdaten zu komprimieren, weswegen das ja auch im Prinzip jetzt alle machen: Arri (HDE), Red sowieso, Sony (X-OCN) & BMD (Braw).
MarcusG hat geschrieben:
andiyeimi
Es ging ursprünglich darum: der slashcam Artikel kündigt CanonSensor mit 15,84 stops an, und ich habe gesagt dass ich es ja schonmal einen Fortschritt fände wenn die Hersteller, in meinem Fall Sony, überhaupt dir DR ihrer aktuellen Sensoren vollständig abspeichern würden, was sie nämlich im Video-Bereich nicht tun, obwohl sie mit 16bit RAW Ausgabe extern werben zwingen sie dir dann Slog3 Kurve auf und dabei wird eben in den Highlights Dynamik weggeworfen die man aus einem Vergleich mit dem Foto noch super zur Verfügung hat.
Das ist ja die Leier. Das 16-Bit externe Raw von Sonys (X-OCN ist über alle Zweifel erhaben), das aus max. 12-Bit Sensoren stammt und in standardisierten Tests weniger DR aufweist als die kamerainterne 10-Bit XAVC-I Aufzeichnung.

Das Argument "Ja aber nach Denoising..." - nach der Logik kann ich auch jeden Himmel ausblasen wenn's drauf ankommt und painten lassen, das geht unter Umständen sogar schneller als jeden Frame denoisen zu müssen, als Standardworkflow um überhaupt vergleichbare DR zur internen Aufzeichnung zu erhalten, das ist ja kein way to go. Und ein ziemliches Zeichen dafür, dass die Sensoren einfach nicht mehr hergeben, als eh intern ausgereizt ist.

Space


Antwort von Rick SSon:

andieymi hat geschrieben:
Bitte differenziert mal, ob ihr den Unterschied in der Wiedergabe nicht seht, oder nach der Weiterverarbeitung.

Das ist ja letztendlich worauf es hinausläuft: H265 ist genial, wenn es um selbst visuell (fast) verlustfreie Kompression zur Wiedergabe geht(Wobei ich mich neulich mal wieder erstaunt gewundert habe, wie viel besser AV1 ist!). Abe viel Info ist da dann nicht mehr da, wenn es mal ein paar mehr Korrekturen sein müssen.

Und darauf läuft es letztendlich raus - es wären ja alle blöd, die das dann noch mit ProRes oder Raw machen. Klar ist da viel "auf der sicheren Seite sein", aber es gibt halt auch Fälle (und da ist man schnell mal, wenn man nicht weiß was man tut) da zerbröselt komprimiertes Raw in der Post zu nichts, und ihr erzählt mir, dass H265 da nicht schlechter ausschaut?

roki100 hat geschrieben:
Wenn der Sensor 12Bit 60fps kann, dann kann das auch in 12Bit 60fps RAW (LOG) gespeichert werden.
Soweit mit bekannt hat echtes RAW kein subsampling...
Zeig mir mal die paar Sensoren, die überhaupt 60fps in mehr als 12-Bit auf A/D-Level können. Die gibt es, aber nicht viele. 12-Bit Log macht ja nur Sinn, wenn der Raw-Strom von 14-16Bit A/Ds kommt, sonst könnten sie auch bei Linear bleiben.
Quasi alle Sensoren, die für Fotos entwickeln wurden (vs. im Speziellen für Bewegtbild) und in einer Kamera verbaut werden, die mehr als stiefmütterlich Fotos macht, schafft in 14-Bit keine 25fps. Geschweige denn 60. Die meisten Fotokameras haben nicht mal 16-Bit Sensoren, geschweige denn 14-16 Bit mit 60fps.

Oder was erhoffst Du Dir von der Log-Speicherung von 12-Bit A/D-Readout in 12-Bit Log?
Es geht logischerweise nur um Nachbearbeitung, nich um die reine Wiedergabe. Steht aber alles auch schon in den bereits geschriebenen Posts.

Space


Antwort von roki100:

andieymi hat geschrieben:
roki100 hat geschrieben:
H264/5 10Bit 422 oder 12Bit 422, Wiedergabe und Bearbeitung.
Da sind wir aber an einem Punkt, wo es fast keinen Sinn macht, das fix und fertig debayerte Signal zu komprimieren - wenn wir - und das steht wohl außer Zweifel, von Intraframe-Kompression reden und nicht von Long GOP.
Und der visuelle Unterschied zu ProRes ist wo genau?

In manchen fällen (daher meinte ich weiter oben, dass das von Kamera zu Kamera scheinbar anders ist) ist LongGOP sogar besser.

https://www.youtube.com/watch?v=aeUMvEVwTvg

Wenn man die probleme aber nicht hat und h264/5 422 10Bit "sauber" ist (egal ob LongGOP oder all-intra), dann ist ProRes 10Bit 422 (und nicht nur ich sehe das so) doch kein muss mehr (für Leute die das nicht an dritte zur weiterverarbeitung abgeben müssen). Der Vorteil ist eben auch, dass man h264/5 kleine Dateien unbearbeitet gut und günstiger archivieren kann.

Space


Antwort von Darth Schneider:

https://de.wikipedia.org/wiki/ProRes
https://support.apple.com/de-ch/102207

Gruss Boris

Space


Antwort von Frank Glencairn:

roki100 hat geschrieben:


Und der visuelle Unterschied zu ProRes ist wo genau?

In manchen fällen (daher meinte ich weiter oben, dass das von Kamera zu Kamera scheinbar anders ist) ist LongGOP sogar besser.
Das kann man jedenfalls in einem hoch-komprimierten 8bit LongGOP Clip mit vielleicht 7-8 Blenden Umfang auf YT nicht sehen.

Space


Antwort von roki100:

Das Video auf YouTube zeigt m.M. sehr gut, dass all-intra sich nicht wirklich lohnt...

Das andere bzw. h264 10Bit 422 im Vergleich zu ProRes (HQ) 10Bit 422, das habe ich schon selbst genauer unter der Lupe genommen. Zumindest für mich sehe ich keine nennenswerten Unterschiede - beides lässt sich gut colorgraden.

Space


Antwort von Frank Glencairn:

roki100 hat geschrieben:
Das Video auf YouTube zeigt m.M. sehr gut, dass all-intra sich nicht wirklich lohnt...
Ja, weil All-I auf Sony schon immer schlecht war.
Man darf nicht vergessen, daß All-I ja immer noch hochkomprimiert ist (im Prinzip sogar höher als LongGOP).
All-I ist einfach nur ne Krücke für Rechner die keine Hardwareunterstützug für LongGOP Codecs haben.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
roki100 hat geschrieben:
Das Video auf YouTube zeigt m.M. sehr gut, dass all-intra sich nicht wirklich lohnt...
Ja, weil All-I auf Sony schon immer schlecht war.
Man darf nicht vergessen, daß All-I ja immer noch hochkomprimiert ist (im Prinzip sogar höher als LongGOP).
All-I ist einfach nur ne Krücke für Rechner die keine Hardwareunterstützug für LongGOP Codecs haben.
Man sollte mit Vereinfachungen und Generalisierungen vorsichtig sein.
Auch solche Aussagen sind ziemlich grob:

Long Gop empfiehlt sich, wenn keine allzu großen Maßnahmen bei der Farbkorrektur geplant sind bzw. nicht in einem flachen Farbprofil gefilmt wurde. Dann bekommt man gute Bildqualität mit geringem Speicherverbrauch. Darum benutze ich für meine Videoproduktion in München meistens diesen Codec.

All-Intra ist gut bei aufwendigen Werbeproduktionen und bei Aufzeichnung mit einem flachen Farbprofil. Dann hat man in der Postproduktion bei der Farbkorrektur genügend Spielraum.


https://motionside.de/long-gop

Lass es z.B. mal schön schneien und die Kamera aus der Hand filmen. Dann noch ein detailreiches Motiv.
Welcher Codec dabei dann zuerst ins Schwitzen gerät und unerwünschten Schweiß absondert, müsste sich dann auch erstmal zeigen.
Es hängt u.a. auch von der Komprimierungsrate ab.

Arri setzt auf lossless.
Red auf visuell lossless, aber das lässt sich dann so weit dehnen, bis es bei hoher Komprimierungsrate und herausfordernden Motiven doch zu Ende sein kann mit der nicht Wahrnehmbarkeit.

Letztlich kommt es darauf an, welcher Tier/Level eines Codecs genutzt wird.
Es macht einen gehörigen Unterschied, ob z.B. HEVC im High Throughput 4:4:4 16 Intra Level oder Main 10 genutzt wird.
https://en.wikipedia.org/wiki/High_Effi ... deo_Coding

Es wäre ja schon ein enormer Gewinn, wenn Canon das Main 4:2:2 12 HEVC-Profil nutzen und auch voll ausnutzen würde.
Im Vergleich zum oft genutzen Main 10 hat man dann z.B. auch High precision weighted prediction.

Space


Antwort von roki100:

iasi hat geschrieben:
Auch solche Aussagen sind ziemlich grob:
Long Gop empfiehlt sich, wenn keine allzu großen Maßnahmen bei der Farbkorrektur geplant sind bzw. nicht in einem flachen Farbprofil gefilmt wurde. Dann bekommt man gute Bildqualität mit geringem Speicherverbrauch. Darum benutze ich für meine Videoproduktion in München meistens diesen Codec.

All-Intra ist gut bei aufwendigen Werbeproduktionen und bei Aufzeichnung mit einem flachen Farbprofil. Dann hat man in der Postproduktion bei der Farbkorrektur genügend Spielraum.


https://motionside.de/long-gop
...
eben, solche grobe behauptungen sind entweder veraltet oder z.B. h264 LongGop 10Bit 422 (VLOG) von Panasonic, ist einfach nur so gut wie ProRes 10Bit 422. Wer einen ext. Recorder hat, einfach mal überprüfen (in DaVinci "Data Level" auf Full ändern und dann vergleichen).

Space



Space


Antwort von Darth Schneider:

https://www.provideocoalition.com/why-prores/
Edit:


Gruss Boris

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Auch solche Aussagen sind ziemlich grob:
Long Gop empfiehlt sich, wenn keine allzu großen Maßnahmen bei der Farbkorrektur geplant sind bzw. nicht in einem flachen Farbprofil gefilmt wurde. Dann bekommt man gute Bildqualität mit geringem Speicherverbrauch. Darum benutze ich für meine Videoproduktion in München meistens diesen Codec.

All-Intra ist gut bei aufwendigen Werbeproduktionen und bei Aufzeichnung mit einem flachen Farbprofil. Dann hat man in der Postproduktion bei der Farbkorrektur genügend Spielraum.


https://motionside.de/long-gop
...
eben, solche grobe behauptungen sind entweder veraltet oder z.B. h264 LongGop 10Bit 422 (VLOG) von Panasonic, ist einfach nur so gut wie ProRes 10Bit 422. Wer einen ext. Recorder hat, einfach mal überprüfen (in DaVinci "Data Level" auf Full ändern und dann vergleichen).
LongGop hat den Vorteil höhere Komprimierung erzielen zu können. Bei gleicher Datenrate wie intra ist das im Normalfall sogar ein Vorteil - abhängig vom Motiv. Ein Stadtpanorama vor blauem Himmel vom Stativ runtergefilmt ist für GoP paradisisch. Wenn´s im detailreichen Bild jedoch wild wuselt und die Kamera auch noch in Bewegung ist, wird´s für GoP schwierig.
Schon wenn die Kamera mit NR die Schatten nicht glattbügelt, wird´s kompliziert.

Space


Antwort von roki100:

iasi hat geschrieben:
Ein Stadtpanorama vor blauem Himmel vom Stativ runtergefilmt ist für GoP paradisisch. Wenn´s im detailreichen Bild jedoch wild wuselt und die Kamera auch noch in Bewegung ist, wird´s für GoP schwierig.
Schon wenn die Kamera mit NR die Schatten nicht glattbügelt, wird´s kompliziert.
Wie schon erwähnt, auch diese behauptung ist scheinbar nicht mehr aktuell. Schau dir das Video nochmal genauer an:

https://www.youtube.com/watch?v=aeUMvEVwTvg

Und von Kamera zu Kamera ist das dann auch noch anders. Auch manche Programme die ffmpeg für die Umwandlung nutzen, bringen völlig unterschiedliche ergebnisse, obwohl bei allen gleiche Bildrate, Bit usw. eingestellt ist, z.B. handbrake macht das besser als assimilate play pro usw. K.A. warum.

Space


Antwort von Axel:

Mythen, Mythen, Mythen. Nicht zuletzt befördert vom Netflix-Qualitätsmanagent: Wer mit der FX3 für Netflix produzieren will soll All-I oder ProResRaw benutzen. Dabei ist All-I nur im Falle dieser speziellen Kamera(-klasse) nicht vorteilhaft. Würde das All-I ProRes (noch nicht einmal HQ) entsprechen, dann säh die Sache (wahrscheinlich) schon anders aus.

Und PRR hat ebenfalls nur hypothetische Vorteile. Von allen mehr oder weniger kompetenten „ist es das wert?“-Reviews kommen mMn die zu dem Schluss, dass es das wert ist, für die Detail in Bewegungsunschärfe und in phantastischen Vergrößerungen irgendwie relevant ist. Was nicht sein darf das nicht sein kann.

Die pauschale Behauptung, dass Long-GoP zu durch Kompressionsartefakte bedingten „Problemen“ führt, muss heute auch stark relativiert werden. Es liegen Welten zwischen 2005-er AVCHD und 2018-er HEVC bei sinnvollen Datenraten.

Was alles nicht bedeutet, dass man nicht PR oder BRAW den Vorzug geben könnte, wenn es drauf ankommt. Nur, dass der Unterschied immer esoterischer wird.

Space


Antwort von Frank Glencairn:

Axel hat geschrieben:
Nicht zuletzt befördert vom Netflix-Qualitätsmanagent
Na ja, die Jungs im Netflix-Qualitätsmanagent machen das hauptberuflich, daher sollte man schon annehmen, daß die wissen wovon sie sprechen. Jedenfalls wäre mein Vertrauen da deutlich höher als in irgendwelche selbsternannten Youtuber.

Space


Antwort von Darth Schneider:

https://partnerhelp.netflixstudios.com/ ... -Practices
Gruss Boris

Space


Antwort von pillepalle:

Ich verstehe die ganze Diskussion eh schon lange nicht mehr. Die LongGOP-Fraktion versucht zu erklären, dass es keinen Unterschied gäbe und eigentlich überflüssig ist. Die RAW-Nutzer das es einen großen Unterschied macht. Hat vermutlich auch mit unterschiedlichen Erfahrungen und Arbeitsweisen zu tun. Aber irgendwie scheint es für manche schwer zu akzeptieren zu sein, dass unterschiedliche Leute durchaus unterschiedlich arbeiten können.

Ich kann mit dem Ninja HEVC, ProRes, DNxHR, oder ProRes RAW aufnehmen. Mit einem Video Assist wäre auch BRAW möglich. Es hat doch jeder heutzutage fast alle Optionen. Aber je mehr Möglichkeiten es gibt, desto verbitterter werden die Grabenkämpfe :)

VG

Space


Antwort von Darth Schneider:

@Pille
Die Grabenkämpfe gibt es unter anderem darum weil stur behauptet wird das ältere Aufnahmeformate die heute halt immer noch professionellen Standards entsprechen wären heue einfach veraltet.
Nur weil man andere persönliche Vorlieben hat.
Gruss Boris

Space


Antwort von Axel:

pillepalle hat geschrieben:
Aber je mehr Möglichkeiten es gibt, desto verbitterter werden die Grabenkämpfe :)
Oder jeder zieht sich den Schuh an. In welchem Graben bin ich verbuddelt? Was erbittert mich?
"Frank Glencairn" hat geschrieben:
Axel hat geschrieben:
Nicht zuletzt befördert vom Netflix-Qualitätsmanagent
Na ja, die Jungs im Netflix-Qualitätsmanagent machen das hauptberuflich, daher sollte man schon annehmen, daß die wissen wovon sie sprechen.
Die Jungs gaben einer nagelneuen Kamera der sogenannten „cinema line“ den modernen Ritterschlag. Der älteren A7Siii, die sich zu diesem Zeitpunkt nur in einem Monitor-Lut-Trick (Cine E.I.) und einem Tally-Licht von ihr unterschied, schenkten sie keine Beachtung.

Meine Verbitterung hat biblische Ausmaße ob dieser Willkür. Ich kündigte Netflix. Ich buddelte Stollen unter meiner Straße, um dem Widerstand eine Basis zu geben. Ich aß Bananen nur noch ungeschält. Weiter im Thread.

Space



Space


Antwort von roki100:

Axel hat geschrieben:
Mythen, Mythen, Mythen. Nicht zuletzt befördert vom Netflix-Qualitätsmanagent: Wer mit der FX3 für Netflix produzieren will soll All-I oder ProResRaw benutzen. Dabei ist All-I nur im Falle dieser speziellen Kamera(-klasse) nicht vorteilhaft. Würde das All-I ProRes (noch nicht einmal HQ) entsprechen, dann säh die Sache (wahrscheinlich) schon anders aus.

Und PRR hat ebenfalls nur hypothetische Vorteile. Von allen mehr oder weniger kompetenten „ist es das wert?“-Reviews kommen mMn die zu dem Schluss, dass es das wert ist, für die Detail in Bewegungsunschärfe und in phantastischen Vergrößerungen irgendwie relevant ist. Was nicht sein darf das nicht sein kann.

Die pauschale Behauptung, dass Long-GoP zu durch Kompressionsartefakte bedingten „Problemen“ führt, muss heute auch stark relativiert werden. Es liegen Welten zwischen 2005-er AVCHD und 2018-er HEVC bei sinnvollen Datenraten.

Was alles nicht bedeutet, dass man nicht PR oder BRAW den Vorzug geben könnte, wenn es drauf ankommt. Nur, dass der Unterschied immer esoterischer wird.
Am besten ist es, man testet und beurteilt selbst... ich finde z.B. BRAW im Vergleich zu ProRes, fraglicher, denn einige Test zeigten, dass ProRes mehr details hat als BRAW...

Und so siehts aus mit ProRes HQ und Panasonic int. LongGOP h264 (auch bewegungen etc. ändert nichts daran. Da sehe ich keine nennenswerte Unterschiede).
Bildschirmfoto 2023-11-11 um 14.23.59.png Bildschirmfoto 2023-11-11 um 14.24.08.png Bildschirmfoto 2023-11-11 um 14.26.50.png Bildschirmfoto 2023-11-11 um 14.27.03.png ProRes 1.97gb
h264: 466.9mb

Space


Antwort von Darth Schneider:

Keine Ahnung warum es immer noch Leute gibt die tatsächlich denken ein professionellen Aufnahme Codec macht nur alleine die sichtbare Bildqualität beziehungsweise was irgend ein Waveform von einen Hobbyfilmer anzeigt aus..;))

Dabei geht es doch den Profis in erster Linie um Stabiltät/Verlässlichkeit und möglichst gleichbleibender Bildqualität bei völlig verschiedenen Kamera/Aufnahme und Nachbearbeitungs Systemen…..
Gruss Boris

Space


Antwort von Frank Glencairn:

Die Waveform ist ja auch nicht wirklich das richtige Werkzeug um das zu beurteilen.


test.jpg

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Ein Stadtpanorama vor blauem Himmel vom Stativ runtergefilmt ist für GoP paradisisch. Wenn´s im detailreichen Bild jedoch wild wuselt und die Kamera auch noch in Bewegung ist, wird´s für GoP schwierig.
Schon wenn die Kamera mit NR die Schatten nicht glattbügelt, wird´s kompliziert.
Wie schon erwähnt, auch diese behauptung ist scheinbar nicht mehr aktuell. Schau dir das Video nochmal genauer an:

https://www.youtube.com/watch?v=aeUMvEVwTvg

Und von Kamera zu Kamera ist das dann auch noch anders. Auch manche Programme die ffmpeg für die Umwandlung nutzen, bringen völlig unterschiedliche ergebnisse, obwohl bei allen gleiche Bildrate, Bit usw. eingestellt ist, z.B. handbrake macht das besser als assimilate play pro usw. K.A. warum.
Nun ja - wer den Codec nur als Endformat betrachtet und vergleicht, blendet das Grading des Materials vollkommen aus.
Ein Kamera-Codec sollte aber schon auch mehr bieten und die besten Voraussetzungen für Grading liefern.
Natürlich profitiert jeder Codec von höheren Datenraten - ich erinnere mich an den Hack der Samsung NX1, der eben durch eine höhere Datenrate dem H265-Material nochmal mehr abgewinnen konnte.

Aber das ist ja leider das Problem:
Die Kamerahersteller nutzen nur niedrige Codec-Level bei vergleichsweise geringen Datenraten.
Da wird dann immer das Red-Raw-Patent vorgeschoben, aber dann doch z.B. nur ProRes HQ und nicht ProRes 4444 geboten.
Warum bekommt man denn keinen H265-12bit-4444-Codec bei Panasonic, Sony, ZCam und Co.?
Auch AV1 würde z.B. sogar verlustfreie Komprimierung unterstützen.

Space


Antwort von Darth Schneider:

Wobei ja genau das „veraltete“ ProRes 4444 XQ so gut wie verlustfrei wäre…:D
Aber das braucht halt dann logischerweise auch dementsprechend Speicherplatz und schnelle Schreibraten bei den Kameras.
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Wobei ja genau das „veraltete“ ProRes 4444 XQ so gut wie verlustfrei wäre…:D
Gruss Boris
Es wäre ein sehr gutes Kameramaterial.

Codecs, die bei vergleichbarer Qualität eine niedrigere Datenrate bietet, gibt´s ja mittlerweile auch. Die Kamerahersteller müssen sie nur nutzen - wenn ihnen das Red-Patent komprimierte Raw-Formate verbietet.

Space


Antwort von Darth Schneider:

Da gäbe es schon Wege um das doofe Red Patent herum…
Ich persönlich hätte als zu BRaw zusätzliche Aufnahme Codec Option bei der 4K Pocket auch viel lieber nur 2K mit ProRes 4444 XQ als ProRes HQ mit 4K…;)

Eine S5IIX könnte anstatt 6K mit was auch immer, auch 2K und 4K mit ProRes 4444 XQ bieten…
Wäre doch eigentlich besser.
Gruss Boris

Space


Antwort von Axel:

@iasi & Boris
Dafür gibt es ja dedizierte und dezidierte Kino-Kameras. Ich glaube zweierlei nicht. Erstens, dass Canon eine Prosumer-DSLM mit einem solchen Codec bringen wird. Zweitens, dass die Zielgruppe daraus einen sichtbaren Unterschied herausgraden würde/könnte.

Space


Antwort von Darth Schneider:

@Axel
Ja, aber nur die grossen und teuren Cine Cams können das, leider, oder ?
Und ganz viele von der Zielgruppe schaffen das tolle Grading ja nicht mal mit VLog, SLog3 oder ähnlichen Codecs…
Gruss Boris

Space



Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Da gäbe es scjhon Wege um das doofe Red Patent herum…
Ich persönlich hätte als zu BRaw zusätzliche Aufnahme Codec Option bei der 4K Pocket auch viel lieber nur 2K mit ProRes 4444 XQ als ProRes HQ mit 4K…;)
Gruss Boris
Ich nutze immer das bestmögliche Aufnahmeformat.

Bei vielen Herstellern würde ich mir jedoch wünschen:
Wenn schon kein komprimiertes Raw-Format, dann doch wenigstens ein 12bit-4444-Codec bei voller Auflösung mit verschiedenen Komprimierungsstufen bis hin zur maximalen Datenrate, die die Kamera schafft. Dann auch gern GoP.

ProRes 4444 XQ ist im Vergleich zu Raw-Formaten ziemlich dick.

Space


Antwort von Darth Schneider:

Ich nutze auch den (für mich) besten Codec der mein iMac noch packt, also für kurze Sachen BRaw möglichst nicht schlechter als 4K Q1 oder wenn es unbedingt sein muss Q3 und für lange Sachen halt 2K ProRes HQ.
Gruss Boris

Space


Antwort von iasi:

Axel hat geschrieben:
@iasi & Boris
Dafür gibt es ja dedizierte und dezidierte Kino-Kameras. Ich glaube zweierlei nicht. Erstens, dass Canon eine Prosumer-DSLM mit einem solchen Codec bringen wird. Zweitens, dass die Zielgruppe daraus einen sichtbaren Unterschied herausgraden würde/könnte.
Canon hat sogar ein 12bit-Raw-Format in seiner DSLM.

Prosumer-Grafikkarten würden auch 12bit-Codecs unterstützen.

Ich schätze mal, da geht es eher um die Hardwarekosten für die kamerainterne Komprimierung. Die wahrscheinlich 1-2 Dollar mehr pro Kamera sind es den Herstellern eben nicht wert, die mögliche Zielgruppe anzusprechen, die zu Raw- oder 12bit-Codec-Kameras greifen. :)
Die log-Lösung muss den Käufern genügen, denen man dann als Grund das böse Red-Patent präsentiert. :)

Space


Antwort von Rick SSon:

ihr habt jetzt auch irgendwie den codec vom sensor readout / color processing entkoppelt.

Es ging doch darum, dass bestimmte codecs keinen Sinn machen, wenn das Processing VORHER, oder sogar der Sensor Readout zum beispiel bereits auf 10 bit 422 reduziert ist.

Ich hab halt bei meiner zcam öfter mal den direktvergleich bei 400% in Resolve gemacht. Gefühlt kommt die die Texture insgesamt ein bißchen besser in ProRes als in h265, aber das kann auch wirklich nur ein Gefühl von mir sein. Habe auch die Farben mal schön finster verschoben und dort sind ProRes und h265 gleichermaßen“ zerbrochen. Man kann sich dann streiten, ob Prores 5% weniger hässlich zerbricht, aber usable war beides in dem Moment nicht mehr.

Auf jeden Fall sind gefühlte 5% nicht den Größenunterschied wert.

Space


Antwort von Darth Schneider:

Also das heisst jedenfalls schlechter ist nur schon ProRes HQ ganz sicher nicht, weil das wurde ja unter anderem weiter oben auch behauptet, das h265 eher besser seie und ProRes veraltet.
Dabei ProRes ist nur einfach speicherhungriger und gefühlt immer noch ein wenig besser…;)
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Also das heisst jedenfalls schlechter ist nur schon ProRes HQ ganz sicher nicht, weil das wurde ja unter anderem weiter oben auch behauptet, das h265 eher besser seie und ProRes veraltet.
Dabei ProRes ist nur einfach speicherhungriger und gefühlt immer noch ein wenig besser…;)
Gruss Boris
Das kann man so aich nicht generell sagen.
Es gibt h265-Profile, die sind bei gleichen oder sogar bei geringeren Datenmengen besser als ProRes. Die Rechenpower erlaubt heute nun einmal rechenintensivere Algorithmen, die dann auch bessere Komprimierungsergebnisse liefern.

Nur wird h265 immer (zumindest soweit ich das überblicken kann) in den niedrigen Stufen/Levels verwendet.

Space


Antwort von Frank Glencairn:

iasi hat geschrieben:

Die log-Lösung muss den Käufern genügen, denen man dann als Grund das böse Red-Patent präsentiert. :)
Raw ist ja auch LOG.

Space


Antwort von iasi:

"Rick SSon" hat geschrieben:
ihr habt jetzt auch irgendwie den codec vom sensor readout / color processing entkoppelt.

Es ging doch darum, dass bestimmte codecs keinen Sinn machen, wenn das Processing VORHER, oder sogar der Sensor Readout zum beispiel bereits auf 10 bit 422 reduziert ist.
Das kann ich mir nicht recht vorstellen, dass die Analog-Digitalwandlung nur in 10bit erfolgt.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:

Die log-Lösung muss den Käufern genügen, denen man dann als Grund das böse Red-Patent präsentiert. :)
Raw ist ja auch LOG.
Nur hatte bisher niemand versucht, 8bit-Raw als tolles log-Format anzupreisen - so wie es Sony mit 8bit-log getan hatte und heute (vom Markt getrieben) mit 10bit tut.

Letztlich werden wir auch einen 12bit-AV1 oder -H265 als Aufnahmecodec erhalten, nur dauert es leider immer länger als nötig, bis sich ein Hersteller mal bequemt.

Space



Space


Antwort von roki100:

"Rick SSon" hat geschrieben:
...Habe auch die Farben mal schön finster verschoben und dort sind ProRes und h265 gleichermaßen“ zerbrochen. Man kann sich dann streiten, ob Prores 5% weniger hässlich zerbricht, aber usable war beides in dem Moment nicht mehr.

Auf jeden Fall sind gefühlte 5% nicht den Größenunterschied wert.
Damit ist eigentlich alles gesagt.

Space


Antwort von Axel:

Ich habe jetzt die vielen Threadseiten zu The Creator nicht gelesen, weil der Film mich überhaupt nur wegen Greig Fraser interessiert, aber nach allem, was ich an Reviews gesehen habe, sind die Bilder (natürlich: Greig Fraser) amtlich, und das trotz Prosumer-Gurke (marginale ästhetische Unterschiede zu Oppenheimer im selben *IMAX*-Kino, sagt ein Red-Besitzer). Haben sie, wie imdb behauptet, „Sony Raw“ irgendwie abgegriffen oder handelt es sich um PRR via Atomos (der zumindest in den Rigs verbaut ist)?

Wie auch immer, die Spreu vom Weizen trennt nicht die Kompression, nicht das grenzwertige Orange-Teal-Grading, nicht die Overkill-Auflösung (die es ja nicht gab, der Sensor ist nur 4k): es ist das Konzept des DoPs, Set/Location und Ausstattung.

Ein 16-Blenden DR bedeutet für rec_709 nicht weniger, als dass der Highlight-Rolloff noch weniger digital aussehen wird. Aber auch nicht viel mehr. Das würde in 10-bit auch noch untergebracht werden können. Kein Stellungskrieg und keine Grabenkämpfe nötig.

Space


Antwort von roki100:

Axel hat geschrieben:
Haben sie, wie imdb behauptet, „Sony Raw“ irgendwie abgegriffen oder handelt es sich um PRR via Atomos (der zumindest in den Rigs verbaut ist)?
PRRAW. Angeblich waren sie damit aber nicht ganz zufrieden, weil sie angeblich nicht wussten, dass PRRAW von Programmen XY nicht unterstützt wird und sie erst umwandeln mussten usw. Zumindest habe ich das irgendwo so gelesen, ich bin mir aber nicht sicher, ob es direkt von den Leuten kam oder ob es nur von Dritten behauptet wurde (Du weißt, das ist wie Apostel Briefe bzw. der eine hat gesagt, dass der andere erzählt hat wie der dritte den Jesus reden gehört haben soll, dass dies & jenes die Wahrheit ist... ;) ). Auf jeden Fall findet man hier ein paar infos dazu: https://ymcinema.com/2023/09/30/the-too ... t=cmp-true

Space


Antwort von iasi:

Axel hat geschrieben:

Wie auch immer, die Spreu vom Weizen trennt nicht die Kompression, nicht das grenzwertige Orange-Teal-Grading, nicht die Overkill-Auflösung (die es ja nicht gab, der Sensor ist nur 4k): es ist das Konzept des DoPs, Set/Location und Ausstattung.
Dieser Vers ist ja nun schon oft heruntergebetet worden und dadurch immer noch nicht richtig.

Das Filmmaterial hatte früher und das Material, das eine Digi-Cam liefert, hat heute eine große Bedeutung für das Ergebnis.

Es ist gerade so, als würde man sagen: "16mm, 35mm oder 70mm - das macht doch keinen Unterschied."

Arri hat zudem eine andere Meinung zur Bedeutung von Kompression, als dieser Vers impliziert.
Grading hat - wie auch einst die Filmentwicklung und beim Zonensystem der Abzug - eine große Bedeutung für das Endergebnis. Digitales Grading ist die Fortsetzung des Zonensystems - wenn man es zu nutzen weiß.

Space


Antwort von Axel:

roki100 hat geschrieben:
Axel hat geschrieben:
Haben sie, wie imdb behauptet, „Sony Raw“ irgendwie abgegriffen oder handelt es sich um PRR via Atomos (der zumindest in den Rigs verbaut ist)?
PRRAW. Angeblich waren sie damit aber nicht ganz zufrieden, weil sie angeblich nicht wussten, dass PRRAW von Programmen XY nicht unterstützt wird und sie erst umwandeln mussten usw. …
Kann ich mir schwer vorstellen, da es in dem Artikel auch heißt, dass im Vorfeld intensive Tests gemacht wurden. Geschnitten wurde auf Avid. Haben sie zu CDNG gewandelt oder zu ProRes4444 (was ja sogar mit Compressor als Batch geht)?

Mein eher launischer Einwand weiter oben, dass ja die A7Siii sich kaum unterscheidet, ist in einem entscheidenden Punkt hier nicht zutreffend. Die meisten Szenen wurden am Stück durchgespielt, dann erst wurde die Perspektive gewechselt. 30-Minuten-Takes waren wohl die Regel. Da möchte man, zumal in Thailand, schon eine Gehäusekühlung haben. 12800 wurde wohl viel eingesetzt, damit man mit „available light“ drehen konnte, mit wenig Zusatzlicht, um Akzente zu setzen (irgendwo sogar Aputure MC und MT).

Space


Antwort von Darth Schneider:

Nur nützen mir der beste DoP, die innovative Guerilla Style Kameraführung, die sicher sehr tolle Ausstattung, ILM und ein IMAX Kino ? Absolut gar nix.

Weil für mich die Story und zum Teil auch die Hauptfiguren völlig unlogisch gestaltet waren.
Ich den Film als viel zu überladen mit Schauplätzen und nicht zuletzt voll von unmotivierter Action und unsinnigen Aktionen der Charaktere empfand.

So das die ganze Spannung im Kino ziemlich schnell einfach flöten ging und durch pure Langeweile und Gleichgültigkeit ersetzt wurde…;)

Und dabei mag ich ja eigentlich gute SF Filme sehr.

Edit, Anhang:


Und jetzt genug of Topic.
Gruss Boris

Space


Antwort von Mantas:

roki100 hat geschrieben:
https://www.youtube.com/watch?v=aeUMvEVwTvg
für die RAW Fanatiker

https://www.youtube.com/watch?v=PuQ2sSV ... EndBoredom

Space


Antwort von Axel:

Der so oft beschworene Gestaltungsspielraum ist in meinem Szenario gar nicht durch die Farbtiefe beschnitten. Farbkeys (HSL Qualifier, Hue vs. Hue und vor allem Hue vs. Luma) sind bzw. waren auch bei CDNG (O-Pocket) immer kritisch und wären es vielleicht bei 10-bit 422 umso mehr. Erstens habe ich gelernt, damit feinmotorischer umzugehen und sie überhaupt seltener einzusetzen, zweitens gibt es Alternativen (z.B. Power Window plus nur Luma-Key). Die Veränderung der Farbtemperatur - nicht zur „Rettung“ einer falschen Einstellung bei der Aufnahme, sondern i.d.R. zur sehr feinen Maximierung des Farbkontrasts - ist in ACES und RCM viel organischer als in CR (wo es immer mehr nach Orange > Blau aussah, ganz gewiss auch abhängig vom Raw-Typ bzw. dessen Interpretation). Mir haben auch Tutorials zur schonenden Verarbeitung von 8-bit sehr geholfen, in denen es regelmäßig heißt, der Workflow (bzw. der Node-Flow) ist überall derselbe.
Und 16 Blenden DR werden daran auch nichts ändern. Eher erweitert sich dadurch der Belichtungsspielraum bei der Aufnahme, zumindest für wysiwyg-run&gun-Shooters wie mich.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Nächster Canon Cinema EOS Sensor - 6K, 17:9 und fast 16 Blendenstufen Dynamik?
Manfrotto 645 Fast Twin Alu und Carbon Videostativ ? günstig, modular und mit schnellem Fast Lever Lock
Nikon entwickelt 1 Zoll 4K-Sensor mit 18 -22 Blendenstufen
Canon präsentiert die Canon EOS R3 - Stabilisierte Fullframe 6K Videos mit 60p RAW
Xiaomi präsentiert Mi 10 Ultra Flagship-Smartphone mit 8K und neuem 48MP Sensor
Canon entwickelt 4K-Bildsensor mit 148 dB Dynamik (24 Blendenstufen) - aber nicht für Filmer
die Schrift nur bis zur Mitte des Bildes scrollen, dann stehen bleiben
MacBook Pro M1 Pro - Die goldene Mitte unter DaVinci Resolve?
Panasonic präsentiert organischen 8K Sensor im S35-Format - näher an Serie?
Hat Canon ein Sensor-Ass im Ärmel? Global Shutter Sensor mit 120 dB Dynamik.
ARRI Alexa 35 mit 17 Blendenstufen - Neue Dynamik-Referenz?
Canon präsentiert RF 14-35mm F4 L IS USM Ultraweitwinkel-Zoomobjektiv
Canon stellt mit Canon EOS R100 günstigen Smartphone-Konkurrenten mit APS-C Sensor und 4K Video vor
„Twin Peaks: from Z to A“ BluRay Komplettbox ab Dezember im Handel
The Rise of Skywalker: Letzter Teil der Star Wars Skywalker Saga ab 18. Dezember im Kino - neue Trailer online
Apple Mac Pro im Anflug: Ab 10. Dezember bestellbar - Lieferdatum noch ungewiss
RAW-Ausgabe: Olympus OM-D E-M1X und E-M1 Mark III Update kommt am 3. Dezember
NAB 2021 findet im Oktober statt - IBC 2021 ist auf Dezember verschoben




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash