Durchgesickerte Google Camera 7.0-App enthüllt fast alle Funktionen der Google Pixel 4-Kamera

Wir haben heute einen Artikel veröffentlicht, in dem alle Änderungen an der Benutzeroberfläche und die neuen Einstellungen für die Benutzeroberfläche aufgeführt sind, die wir in Google Camera 7.0 mit Google Pixel 4 finden konnten. Diese Version der Google Camera-App wurde uns von unserem Tippgeber Hani (@ HANI_4K) gesendet ), der die APK von Vietnamese YouTuber ReLab erhalten hat . In der neuesten Version der Pixel-Kamera-App wurden viele Änderungen an der Benutzeroberfläche vorgenommen, aber es gibt auch eine Menge Code, der die Kamerafunktionen von Pixel 4 enthüllt.

Letztes Wochenende haben wir die neueste öffentlich verfügbare Version der Google Camera-App, Version 6.3, analysiert und festgestellt, dass Google an mehreren neuen Funktionen gearbeitet hat, von denen wir glauben, dass sie auf den 2019 Pixel-Smartphones verfügbar sein werden. Wir haben Funktionen wie Audio-Zoom, Live-HDR, Mesh-Warping zur Korrektur von Weitwinkel-Selfie-Verzerrungen und mögliche Nachtsichtverbesserungen gefunden. Die durchgesickerte Version 7.0 der Google Camera-App setzt die Arbeit an diesen Funktionen fort und bestätigt deren Vorhandensein auf dem Pixel 4. Die durchgesickerte APK enthüllt auch die Arbeit an mehreren, zuvor nicht veröffentlichten Funktionen sowie eine mögliche Liste von Pixel 4-Kamerafunktionen.

Bewegungsunschärfe auf dem Pixel 4

Obwohl es sich wie vor einer Ewigkeit anfühlt, war es erst letzte Woche, als wir zum ersten Mal hörten, dass der Pixel 4 in der Google Camera App einen „Bewegungsmodus“ haben wird. Laut einer Quelle, die mit 9to5Google spricht, wird der neue Kameramodus eines der Hauptmerkmale von Pixel 4 sein. Damit können Sie angeblich Aufnahmen von sich bewegenden Motiven im Vordergrund machen, während der Hintergrund unscharf wird. Ideal für Fotos von Sportereignissen.

Diese Funktion "Bewegungsmodus" ist in den letzten Lecks nicht aufgetreten. Dies liegt jedoch wahrscheinlich daran, dass die Funktion in der Google Camera-App auf den Vorabversionsgeräten immer noch ausgeblendet ist. Wir haben eine Zeichenfolge für einen neuen Kameramodus gefunden, obwohl in der Zeichenfolge selbst nur der Codename des Modus aufgeführt ist: "paneer".

 Paneer 

Als Referenz wird Night Sight intern als „Tintenfisch“ und Time Lapse intern als „Gepard“ bezeichnet. Wir sind uns nicht sicher, warum der Paneer-Codename ausgewählt wurde, aber es ist klar, dass es sich um eine neue Bewegungsunschärfe-Funktion in der Google Camera-App handelt. Möglicherweise ist "Motion Mode" der Marketingname für diese "Motion Blur" -Funktion.

Testen von Zero Shutter Lag Night Sight und Astrofotografie

Die Quelle von 9to5Google behauptet auch, dass Googles berühmte Nachtsichtfunktion, die computergestützte Fotografiealgorithmen verwendet, um bei schlechten Lichtverhältnissen detaillierte Bilder zu erstellen, nicht nur schneller wird, sondern auch in der Lage sein wird, Fotos des Sternenhimmels aufzunehmen. Ein durchgesickertes Werbevideo bestätigte die Astrofotografie von Pixel 4, aber der neue Night Sight-Code, den wir in Google Camera 6.3 gefunden haben, blieb hinter unseren Erwartungen zurück. Mit Google Camera 7.0 sind wir jedoch zuversichtlicher, dass Night Sight bei Google Pixel 4 verbessert wird. In einer Konfigurationsklasse für Hundefutter haben wir mehrere Flaggen entdeckt, die zeigen, wie Google wesentliche Verbesserungen bei Night Sight getestet hat.

Während wir in der vorherigen APK nur einen vagen Verweis auf Zero Shutter Lag für Night Sight (zsl_ns) gesehen haben, macht die neueste APK die Dinge ziemlich klar. ZSL_NIGHT_SIGHT bestätigt, dass Google ein viel schnelleres Nachtsichtgerät testet, wahrscheinlich für Pixel 4. Für die Astrofotografie wird Google die GPU (das Adreno 640 im Qualcomm Snapdragon 855) verwenden, um die Segmentierung des Himmels zu beschleunigen und dann Optimieren Sie das Bild, indem Sie die Sterne „finden“ und aufhellen. Die Stativerkennung wurde ebenfalls verbessert, da nun der Auslöser in einen Stoppknopf geändert wird und die Bildanzahl in der Mitte hinzugefügt wird, wenn der Countdown abläuft.

Live HDR, HDRNet und Mesh Warping

Während unseres Herunterfahrens von Google Camera 6.3 haben wir Hinweise auf einen „Live HDR“ -Modus entdeckt, der anscheinend mit dem von MIT- und Google-Forschern entwickelten „HDRNet“ -Algorithmus zusammenhängt. Dieser Algorithmus kann verwendet werden, um HDR in Echtzeit auf den Kamerasucher anzuwenden, und er kann auch verwendet werden, um Fotos nach der Aufnahme in Millisekunden automatisch zu retuschieren. Mesh Warping bezieht sich wahrscheinlich auf eine neue Technik, die von Google-Forschern entwickelt wurde, um die Verzerrung von Weitwinkelkameras mit Blick nach vorne zu korrigieren. Das Vorhandensein von Mesh Warping in der Google Camera-App lässt auf das Gerücht schließen, dass das Pixel 4 über eine nach vorne gerichtete Weitwinkelkamera verfügt.

In Google Camera 7.0 wurden erneut Verweise auf Live HDR, HDRNet und Mesh Warping festgestellt, obwohl diesmal die Verweise weniger verschleiert waren. Diese Funktionen sind auf Smartphones mit 2019 Pixeln beschränkt (außer Pixel 3a und Pixel 3a XL, da Google die Pixel 3a-Zeile im Code als "PIXEL_2019_MIDRANGE" bezeichnet), da für sie neue Kamerabibliotheken erforderlich sind.

Audio Zoom auf dem Google Pixel 4

Einige Smartphones verwenden ihre Mikrofone, um beim Heranzoomen der Kamera auf eine wichtige Audioquelle zu fokussieren. LG und HTC tun dies bereits seit einigen Jahren, und Samsung hat sie kürzlich auf das Galaxy Note 10 zurückgebracht, nachdem sie einige Male entfernt wurden Generationen zurück. Das neue Apple iPhone 11 verfügt außerdem über eine eigene Audio-Zoom-Funktion. Wir sind also nicht überrascht, dass Google Pixel 4 mit dieser Funktion wahrscheinlich ebenfalls ausgeliefert wird. Immerhin hat Google viel von HTCs IP und Talent erworben. Die Konfiguration für die 2019 Pixel listet „AUDIO_ZOOM_SUPPORTED“ als wahr auf, sodass sie wahrscheinlich auf der Pixel 4 gestartet wird.

Unterstützung für dynamisches Tiefenformat

Android 10 bietet Unterstützung für ein neues Dateischema mit dem Namen Dynamic Depth Format (DDF). Laut Google enthalten DDF-Dateien die Tiefenangaben für Fotos, sodass Apps die Daten verwenden können, um die Unschärfe bei der Nachbearbeitung zu ändern, ohne das Originalbild zu berühren. In der Pixel 4-Kamerakonfiguration sind "EMBED_DYNAMIC_DEPTH_REAR" und "EMBED_DYNAMIC_DEPTH_FRONT" als "true" aufgeführt, was darauf hinweist, dass die Geräte das Speichern der Tiefendaten als DDF-Datei unterstützen. Wir haben auch festgestellt, dass die Google Photos-App die Unterstützung für die Verarbeitung des dynamischen Tiefenformats testet.

Mögliche Photobooth-Integration mit AR-Aufklebern für Spielplätze

Photobooth ist eine in Google Pixel 3 eingeführte Google-Kamerafunktion. Mit dieser Funktion werden automatisch Fotos aufgenommen, wenn im Rahmen ein Lächeln oder lustige Gesichter erkannt werden. Obwohl wir nicht genau wissen, welche Art von Verbesserungen an der Funktion vorgenommen werden, sieht es so aus, als würde Google einige Änderungen unter der Haube einführen. Im gesamten Code wurde geprüft, ob "Photobooth2019" im Vergleich zu "Photobooth" unterstützt wird, was bedeutet, dass dies eine Aktualisierung der vorhandenen Photobooth-Funktion ist.

Eine Methode überprüft insbesondere, ob die Aktivität "com.google.vr.apps.ornament.funshot.activity.FunshotActivity" auf dem Gerät gefunden wurde, bevor "Photobooth2019" aktiviert wird. Diese Aktivität ist auf einem Pixel 2 XL oder Pixel nicht vorhanden 3 XL mit Android 10. Da "com.google.vr.apps.ornament" der Paketname für "Playground" ist (früher als "AR Stickers" bezeichnet), ist möglicherweise eine Integration von AR-Aufklebern in Photobooth möglich. Seit der Umbenennung der Funktion in Playground hat Google AR-Aufkleber ausdrucksvoller und interaktiver gestaltet. Wir wissen jedoch nicht, ob die aktualisierte Photobooth Fotos basierend auf den Ausdrücken von AR-Zeichen aufnimmt.

Messmodus, Rücklaufmodus und „Rocky“

Bereits im April konnten wir Beweise dafür finden, dass Google die Integration der ARCore-gestützten Augmented-Reality-Mess-App Measure in die Google Camera-App vorbereitete. Code für diese Funktion ist in Google Camera 7.0 noch vorhanden, es ist jedoch unklar, ob Google plant, sie mit dem Pixel 4 zu starten.

Als Nächstes haben die letzten Versionen der Google Camera-App einen Hinweis auf den Rückspulmodus mit dem Codenamen „McFly“ (nach dem Protagonisten „Zurück in die Zukunft“) gegeben. Wir sind uns nicht sicher, wie er funktioniert. Alles, was wir wirklich wissen, ist, dass es sich bei dem Symbol um ein Rückspul-Symbol handelt.

Ein weiteres Feature, das uns noch unbekannter ist, ist „rockig“. Wir haben in ViewfinderEffectElement und im „MultiCropModule“ Hinweise darauf gefunden, wissen aber noch nicht, was es tun soll.

Alle Funktionen der Google Pixel 4-Kamera laut Google Camera Config

Schließlich listet die Konfigurationsklasse für Hundefutter im Wesentlichen alle Kamerafunktionen für Google Pixel 4 auf. Es gibt auch Argumente, in denen die aktualisierten Kamerakonfigurationen für die Pixel 2016, 2017, 2018 und Mitte 2019 aufgeführt sind nur die neuen Geräte. Die Kamera-Konfiguration schlägt vor, dass Folgendes zutrifft:

  • Das Google Pixel 4 unterstützt Audio-Zoom
  • Google Pixel 4 unterstützt das Speichern von Tiefendaten mithilfe des neuen dynamischen Tiefenformats (DDF).
  • Das Pixel 4 hat ein Teleobjektiv (ein Ergebnis, das mehrfach bestätigt wurde.)
  • Die Geräte unterstützen längere Belichtungszeiten in Night Sight.
  • Die Geräte unterstützen den HDRNet-Algorithmus.