Wie es Tradition geworden ist, treten Google Pixel 4-Lecks vor der Veröffentlichung des Telefons im nächsten Monat weiterhin stark und schnell auf. Und die neuesten Details zeigen, dass das Kamerahandy einige aufregende neue Funktionen wie Bewegungsunschärfemodus, Audiozoom, dynamische Tiefendaten und Live-HDR bietet.
Die neuen Modi zeigen Googles kontinuierliche Innovation in Bezug auf die Telefonfotografie, insbesondere auf der softwaregesteuerten Seite der Bildgebung, auf der der Kampf zunehmend ausgetragen wird.
•
Während das iPhone 11 endlich über mehr als zwei Kameras verfügt, aber nur wenig über neue Bildgebungsfunktionen verfügt, scheint das Google Pixel 4 neue Wege zu beschreiten - sowohl bei der Transplantation traditioneller Fototechniken als auch bei softwaregesteuerten Effekten.
Die Überschriftenfunktion wird laut einer Codedissektion der durchgesickerten Google Camera 7.0 durch XDA-Entwickler (danke, DP Review) der Bewegungsmodus sein. "Damit können Sie angeblich Aufnahmen von sich bewegenden Motiven im Vordergrund machen, während Sie den Hintergrund verwischen. Dies ist ideal für Fotos von Sportereignissen", sagt die Website und zeigt den Effekt des Schwenkens von Fotografie mit herkömmlichen Kameras.
Es gibt auch ein bisschen mehr Informationen über den zuvor durchgesickerten Astrofotografiemodus von Google Pixel 4. "Google wird die GPU (den Adreno 640 im Qualcomm Snapdragon 855) verwenden, um die Segmentierung des Himmels zu beschleunigen und das Bild dann zu optimieren, indem die Sterne 'gefunden' und aufgehellt werden."
Es wurde auch ein Live-HDR-Modus vorgestellt, der "zum Anwenden von HDR in Echtzeit auf den Kamerasucher und zum automatischen Retuschieren von Fotos Millisekunden nach der Aufnahme verwendet werden kann".
Es sieht so aus, als würde das Pixel 4 die von HTC beliebte Audio-Zoom-Funktion einführen (was naheliegend ist, da Google einige der Technologien und Ingenieure von HTC übernommen hat) sowie die Unterstützung eines neuen Dateiformats namens DDF: Dynamic Depth Format.
Diese Dateien zeichnen die Tiefendaten für Fotos auf und behalten sie bei, sodass Apps auf die Daten zugreifen und diese bearbeiten können, ohne die Originaldatei zu beeinträchtigen. So kann beispielsweise die Schärfentiefe nachträglich von einer anderen Software angepasst werden.
Das alles begeistert uns unglaublich für die Ankunft von Google Pixel 4 im Oktober - und erinnert uns daran, wie ehrgeizig Apple mit den Foto- und Imaging-Funktionen des iPhone 11 war.
Google Pixel 4-Leck: Der Astrofotografiemodus kommt!
Die Produktion von Google Pixel wurde aus China zurückgezogen, da die USA / Trump gegen China weiter bestehen
Das beste Kamerahandy im Jahr 2022-2023: ultimative Smartphone-Kameras im Vergleich