Pixel (XL): Google erklärt die „Magie“ hinter der Kamera

Rafael Thiel
4

Eine Paradedisziplin des Google Pixel ist die Kamera. Trotz gewöhnlicher Hardware kommen ersten Testberichten zufolge überragende Fotos zustande. Wie ist das möglich? Laut Marc Levoy, Entwickler und Fotografieexperte bei Google, ist das schlicht und ergreifend der Mathematik hinter der Software zu verdanken.

Pixel (XL): Google erklärt die „Magie“ hinter der Kamera

Natürlich befindet sich auch bei GIGA ein ausführlicher Testbericht zum Google Pixel in der Mache und wird in Kürze erscheinen – erste Beispielbilder gibt es in der Galerie. Allerdings konnten diverse US-Publikationen bereits früher Hand anlegen und das Smartphone auf Herz und Nieren prüfen. Daraus folgte ein überraschender Konsens: Die Kamera des Pixel ist großartig und übertrumpft womöglich sogar die des Galaxy S7 und iPhone 7.

Bildergalerie Google Pixel: Beispielfotos

Zu diesem Schluss gelangte auch The Verge. Obwohl das Magazin dafür bekannt ist, eher Apple denn Google zugetan zu sein, mussten die Kollegen vor der Fotoqualität des Pixel den Hut ziehen. Doch um die eingangs gestellte Frage noch mal aufzugreifen: Wie ist das möglich? Das Pixel besitzt im Gegensatz zur Konkurrenz keinen optischen Bildstabilisator und verfügt ebenso über keine Dual-Vorrichtung. Woher also die Qualität?

Zum Thema: Google Pixel XL im Test

Im Angesicht von iPhone 7 und Google Pixel: So werden Smartphones wieder spannend (5 Thesen) GIGA Bilderstrecke Im Angesicht von iPhone 7 und Google Pixel: So werden Smartphones wieder spannend (5 Thesen)

Ohne HDR+ geht (fast) gar nichts

Im Gespräch mit The Verge erklärt Marc Levoy, dass die Kamera des Pixel sich hauptsächlich auf Software stütze. Der Leiter eines Fotografie-Teams in Mountain View arbeitete bereits an einer 360-Grad-Kamerakugel für Virtual-Reality-Zwecke, war in die Google Glass involviert und hielt sogar bereits Vorlesungen an der prestigeträchtigen Stanford University in Kalifornien. In der Vergangenheit brachte Levoy bereits HDR+ für die Nexus-Geräte auf Vordermann. Mit dem Pixel erreicht der Modus eine neue Qualität und ist daher auch standardmäßig aktiviert. Dabei soll es auch bleiben: „Ich schalte [den HDR+-Modus] nie aus.“, gibt Levoy zu: „Dafür gibt es keinen Grund.“

Google-Pixel-XL-Black-05607

Das hängt auch mit dem neuen Snapdragon 821 von Qualcomm zusammen. Dessen DSP („Digital Signal Processor“) ist dazu in der Lage, kontinuierlich RAW-Aufnahmen zu verarbeiten, ohne kurze Denkpausen zu benötigen. „Wenn [der Nutzer] den Auslöser drückt, nimmt das Pixel genau genommen kein Foto auf – es hat das Foto bereits aufgenommen!“, gesteht Levoy stolz. „Es hat sogar eine Reihe von Fotos aufgenommen. Beim Tippen auf den Auslöser merkt sich [das Smartphone] nur die Zeit und kombiniert die aufgenommenen Fotos zu einem Bild.“

Das Geheimnis des Pixel ist Mathematik

Allerdings entspricht der HDR+-Modus des Pixel auch nicht dem herkömmlichen Verständnis von HDR-Aufnahmen. Denn in der Regel nimmt der Sensor bei aktiviertem HDR mehrere Bilder rasch infolge auf, variiert dabei jedoch in der Belichtung. Hinterher werden die Aufnahmen zusammengesetzt und ergeben ein gleichmäßig belichtetes Foto. Mit HDR+ nimmt das Smartphone auch mehrere Bilder auf, diese sind aber allesamt unterbelichtet. Das dient laut Levoy dazu, Details einzufangen:

Google-Pixel-XL-Black-05612

„Mathematisch gesehen verfügt ein Foto einer dunklen Szene über die richtigen Farben. Das Ergebnis ist nur stark verrauscht, weil nur wenige Photonen auf den Sensorpixeln landeten.“, erklärt er. Darauf kommt aber noch die Mathematik ins Spiel: „Wenn ich neun Fotos schieße, reduziere ich das Rauschen um den Faktor drei – die Quadratwurzel der Anzahl der aufgenommenen Fotos.“ Auf diese Weise kann das Pixel auch im Dunkeln noch vergleichsweise viele Details aufnehmen, ohne nach der Zusammenrechnung aller Aufnahmen unerwünschte Artefakte zu hinterlassen. Um jeden Preis galt es Ghosting zu vermeiden: „Jede Aufnahme sieht identisch aus, bewegende Objekte ausgenommen. Nichts ist in einer Aufnahme überbelichtet und in der nächsten plötzlich nicht mehr, nichts ist einmal verrauscht und dann nicht mehr. Das macht die Zusammensetzung sehr robust.“

Das Pixel macht realistische und detailreiche Fotos

Infolge braucht das Pixel auch gar keine starke Nachbearbeitung, wie es etwa bei Fotos des Galaxy S7 zu beobachten ist. Die resultierenden Farben sind realistisch und das Rauschen auf ein verträgliches Maß eingedämmt – weitere Bearbeitung per Software würde nur zulasten der Details gehen, die in Aufnahmen vieler Smartphones oft untergehen. Während die meisten Hersteller diese Abkürzung über Instagram-ähnliche Filter mit übersättigten Farben gehen, packten Levoy und sein Team das Problem bei der Wurzel. Durchaus beeindruckend.

Quelle: The Verge

Weitere Themen: Google Pixel XL, Google

Neue Artikel von GIGA ANDROID

GIGA Marktplatz