Zum Inhalt springen

Klar, kannste coole Rollerblade-Videos auf den Straßen der Stadt drehen, aber…

Wer hätte damit rechnen können?

15 Kommentare

  1. Herr Berrt13. Dezember 2019 at 12:31

    …..souverän zu Ende geracht, das Ding.
    Mit welcher Kamera hat das wer und wie gedreht?!
    Krass.

    • Jack13. Dezember 2019 at 13:58

      ich vermute eine action Weitwinkel cam am 2.5m Stock mit stabilisiertem 3-Achsen Gimbal – Und das dann vorallem ordentlich bearbeitet (zoom/Ausschnitt und Stick retouchiert + stabilisiert)..

    • Maze13. Dezember 2019 at 16:24

      Typischer Style einer Insta360 ONE X Kamera

  2. Daniel13. Dezember 2019 at 13:10

    Aber mal ganz ehrlich, da kann man der Person die aussteigen will keinen Vorwurf machen. Denn sehen hätte sie ihn nicht können.

  3. Antje Faber13. Dezember 2019 at 13:57

    Es ist rein logisch gesehen unmöglich, coole Rollerblade-Videos zu drehen.

  4. Donngal13. Dezember 2019 at 14:19

    Und wie kriegt er da die 360 Grad Drehungen der Kamera hin? Auf Knopfdruck mit nem Motor?

  5. Jan13. Dezember 2019 at 14:24

    Sehr geil. Die Aufnahmen, die Musik, das Ende. Sehr geil.

  6. Fritz13. Dezember 2019 at 20:20

    Gopro Fusion kann das auch. Nennt sich 360° Video. Is wohl die Zukunft.
    Aber ja, schönes Video. Auch das Finale ist doch noch recht glücklich im Unglück.

  7. Jack13. Dezember 2019 at 21:39

    Klar alles aufnehmen spart einem das ganze gimbal Aufhängungs gelerch – und wenn die Auflösung reicht die vom Ausschnitt bleibt. Eigentlich bräuchte man da aber grob 24k aber unser Gehirn/Auge Wahrnehmungs system verzeiht grade bei Video viel und ergänzt und solange das video nur in klein läuft – in VR sehen die 360 Videos dann aber arg pixelig aus. Normale Kameras nehmen ja ( bei 50mm) ~ 40°/30° Bildwinkel auf (entspricht dem menschlichen Auge). Für 360° braucht man also eigentlich 9× die Auflösung horizontal und 12× vertikal – grob 100× so viele Pixel.
    Da die Datenmengen kaum zu handhaben sind arbeiten selbst profi Kameras für 360° „nur“ mit 11k was also dann etwa der FullHD Auflösung eines Bildschirmauschnittes entspricht. (Bei Lichtfeld Kameras sieht das mit der Auflösung ja ebenso düster aus wo man mit 100megapixel für normale Bildwinkel arbeitet) – Kombiniert bräuchten wir also 10GP Kameras um in echtes 3D 360° zu haben. Bei 4Byte pro pixel sind das 40GB pro bild oder ~ 2 Terabyte pro Sekunde Film.. bei nichtmal 60fps .. Die Zukunft wird also noch etwas warten müssen.

  8. Bernd Anders13. Dezember 2019 at 23:05

    Ok.

  9. Felix14. Dezember 2019 at 13:33

    Kennt jemand den Song?

    • Ronny14. Dezember 2019 at 13:47

      Wenn ich es richtig blicke, ist der von ihm selbst.

  10. Martin Däniken15. Dezember 2019 at 05:53

    Das ARGUS-IS Optiksystem hat 1,8 Gigapixel Auflösung durch ca370x 5megapixel Kamerassensorchips und kann aus 6km Höhe Gegenstände von15cm erkennen und mehrere bewegliche Objekte auf 100qm verfolgen
    bei 1 mio Terabyte am tag…Stand 2013
    Isch kann auch mit Zahlen werfen ;-)
    die ixu 180 von phase one aus Dänemark wiegt wiegt weniger als ein Kilo, hat 10 k Auflösung und kostet $60.k
    und danndiePD-100 Black Hornet3 (militärische Drohne!)

    • Jack15. Dezember 2019 at 11:31

      ging mir nicht um Zahlenwerfen sondern ums Verstehen der Größenordnungen.
      Grade das ARGUS system bzw. dann auch Gorgon Stare haben ja ein völlig anderes Ziel (autonomes tracking) und auch hier ist man am technischen Limit daher werden ja nur Bilder niedriger Auflösung übermittelt und nur aus ausgewählten verschiedenen Ausschnitten dann die Videos in Echtzeit (12fps) – aber wie du siehst ist man selbst mit military grade Hardware noch weit unter dem was physikalisch notwendig wäre für 360° Echt 3D aufzeichnung.
      Es ist ja nicht schwer viele Kameras zusammenzusetzen (Gigapixel Bilder / Bullettime arrays) aber die Datenmengen davon zu handhaben ist ein Problem. https://www.3sat.de/wissen/nano/190430-nano-kamera-100.html

      Du bekommst ja derzeit mit DisplayPort2.0 maximal 80Gbit/s übertragen – also 8k mit 75fps (HD-SDI schaft grade mal 3Gbit/s (24)) da wird also eine Blue-Ray (25GB) an Daten alle 2 Sekunden übertragen. Die neuen VR-Systeme nutzen daher ja schon EyeTracking um nur noch zu übertragen/berechnen wo man hinschaut – weil wir da eben ein Flaschenhals haben.

Schreibe einen Kommentar zu Jack Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert