Anzeige
Anzeige
Smartphone Kamera Ai
"Echte" Kamera vs. Smartphone – das Wettrennen um die besten Bilder wird immer knapper (Foto: 123rf.de)
Smartphone Kameras Künstliche Intelligenz

Warum sind Smartphone-Kameras eigentlich so gut?

Nokias Smartphone-Kamera mit fünf Linsen oder das Xiaomi Mi 9 mit 48-Megapixel-Kamera: Die Bildqualität, die aktuelle Smartphones liefern, wird immer brillanter. Doch wie kann das sein, dass ein nur wenige Millimeter dickes Smartphone Bilder liefert, für die früher eine Spiegelreflex notwendig war? LEAD erklärt das Foto-Wunder und verrät, wie die Zukunft aussieht.

Anzeige
Anzeige

Erst gestern hat Apple die Gewinner seines Wettbewerbs "Shot on iPhone" präsentiert. Die zehn Bilder, aufgenommen mit Smartphones vom iPhone 7 bis zum iPhone XS Max, sehen so fantastisch aus, dass man die Bezeichnung "Handyfotos" gar nicht mehr verwenden will. Brillante Farben, messerscharfe Details und kreative Tricks mit der Hintergrundunschärfe sorgen für große Fotokunst.

Und andere aktuelle Top-Smartphones, vom Google Pixel 3 bis zum Huawei Mate 20 Pro, würden in einem Wettbewerb zweifellos ähnlich exzellente Bilder zustande bringen – obwohl sie, ebenso wie das iPhone, gegenüber "echten" Kameras in Sachen Hardware stark gehandicapt sind.

1 Shot On I Phone
It's not a trick, it's a Smartphone: Eines der Siegerbilder aus Apples aktuellem iPhone-Fotowettbewerb (Foto: Alex Jiang)

Kein Platz für aufwändige Optik

Sonys aktuelle Vollformatkamera A7R III für 3.100 Euro ist 7,3 Zentimeter dick – das entspricht ziemlich genau zehn iPhone XS. Und dabei ist das Objektiv der Sony noch nicht einmal mitgerechnet. Ohne Zweifel schießt die A7R III immer noch bessere Bilder als ein Smartphone. Sie fotografiert schneller, noch detailreicher, in höheren Auflösungen. Und sie kommt viel besser mit schlechten Lichtverhältnissen zurecht.

Anzeige
2 Sony A7 R Iii
Viel Platz für Optik und Fototechnik: Sonys Vollformat-Kamera A7R III (Foto: Sony)

Aber der Vorsprung schmilzt – vor allem, wenn Smartphone-Kameras bei gutem Licht ihre Stärken ausspielen können. Dann ist die Qualität der Fotos oft kaum mehr zu unterscheiden. Und das, obwohl iPhone & Co. kaum Platz für aufwändige Optik und Bildtechnik bieten. Zum Vergleich: Der Fotosensor der A7R III, der das Licht einfängt, ist 862 Quadratmillimeter groß. Beim iPhone XS, dessen Sensor ebenfalls von Sony stammt, sind es 40,6 Quadratmillimeter – nicht einmal fünf Prozent der Fläche.

Und für die Objektive ist im iPhone, ebenso wie bei anderen Smartphones, so wenig Platz, dass Apple mit dem gefürchteten Kamerabuckel auf der Rückseite wenigstens noch einen weiteren Millimeter herausschinden muss. Denkbar schlechte Voraussetzungen für gute Bilder also. Dass es dennoch funktioniert, dafür sorgt künstliche Intelligenz.

3 I Phone Xs
Kaum Platz für Optik und Fototechnik: iPhone XS (Foto: Apple)

Das Geheimnis der Smartphone-Kameras

Maschinelles Lernen, das Bildinhalte erkennt und Fotos entsprechend einsortiert, gibt es bei Google bereits seit dem Start des Bilderdienstes Google Photos 2015. The Verge erklärt, wie der Algorithmus beispielsweise lernt, wie sich das schwarz-weiße Muster eines Pandas von dem einer Holsteiner Kuh unterscheidet.

Doch für den Durchbruch sorgte erst der nächste Schritt – nämlich diese künstliche Intelligenz in Echtzeit für Smartphone-Kameras zu verwenden. Seit das möglich ist, "erkennen" die Kameras im wahrsten Sinne des Wortes, was sie fotografieren, und optimieren die Bilder entsprechend.

Auch interessant: Auf der Jagd nach dem magischen Moment

Call To Action 1200X1200 Lead September
Fokussier dich!

Die LEAD-Ausgabe 3/2018 entführt dich in die Welt der Fotografie. Welche Rolle sie und ihre digitale Weiterverwertung heute spielen und was es für Möglichkeiten gibt, erfährst du in 3 spannenden Geschichten im Heft. Aber auch Themen wie E-Sports, künstliche Intelligenz und Marketingtechnologien sind Teil der aktuellen Ausgabe.


Ein Meilenstein war Apples Doppel-Kamera im iPhone 7 Plus. Sie ermöglichte 2016 erstmals das Freistellen von Portraits und anderen Objekten vor einem unscharfen Hintergrund – ein attraktiver Effekt ("Bokeh"), den davor nur Spiegelreflexkameras und andere hochwertige Kameras beherrschten. Die Software erkennt dabei das Motiv im Vordergrund, und lässt den Hintergrund verschwimmen. Bei "echten" Kameras sorgt das Objektiv mit seiner aufwändigen Glas-Konstruktion für diesen Effekt.

Bei Smartphones steckt ein reiner Software-Trick dahinter und liefert zusagen ein Fake-"Bokeh" – das sich bei den aktuellen iPhones sogar nachträglich verändern lässt. Ein amüsanter neuer Werbeclip von Apple, in dem sich eine Mutter darüber aufregt, dass ihr Kind "wegbokeht" wird, zeigt, wie diese "Tiefenkontrolle" funktioniert.

Zweieinhalb Jahre ist das iPhone 7 Plus gerade mal alt. Und seitdem hat sich die Qualität von Smartphone-Bildern in atemberaubender Geschwindigkeit weiter gesteigert. Weil Linsen und Fotosensoren bei dem wenigen Platz, der im Handy zur Verfügung steht, zunehmend an die Grenzen der Physik stoßen, ist dafür vor allem künstliche Intelligenz verantwortlich – und neue Hardware wie die "Neural Engine" im aktuellen iPhone-Chip A12 Bionic, die die Berechnungen für die künstliche Intelligenz übernimmt.

Experten sprechen von der Neural Processing Unit (NPU) – eines der Zauberworte für das Fotografieren von morgen, das mittlerweile unter dem Schlagwort "Computational Photography" gehandelt wird.

Mit den extrem starken Prozessoren, mit der NPU und mit der künstlichen Intelligenz aktueller Top-Smartphones halten klassische Kameras längst nicht mehr mit – und könnten deshalb in den nächsten Jahren auf vielen Bereichen des Fotografierens weiter ins Hintertreffen geraten.

Grundsätzlich ließe sich zwar auch eine Top-Kamera mit dieser aufwändigen Hard- und Software ausstatten. Sie wäre dann aber kaum bezahlbar. Und sie würde beim extrem schnellen Entwicklungstempo der Smartphone-Hersteller technisch schnell wieder in Rückstand geraten.

Der Google-Effekt

Zwei Linsen auf der Kamera-Rückseite, drei oder gar fünf, wie beim neuen Nokia 9 PureView? Das Wettrennen ist in vollem Gange. Nur Google hält sich in Sachen Hardware bisher zurück, und setzt auch bei seinem aktuellen Smartphone Pixel 3 unverdrossen weiter auf eine einzige Single-Kamera. Dass das Google-Handy bei allen Tests trotzdem ganz weit vorne oder gar auf Platz eins liegt, zeigt laut The Verge, "dass es bei Smartphone-Kameras längst mehr auf die Software als auf die Hardware ankommt".

Selbst das Freistellen von Objekten, für das Apple bisher noch eine Dual-Kamera benötigt, schafft das Pixel 3 mit einer einzigen Linse. Der Trick: Googles künstliche Intelligenz teilt die Pixel eines Fotos quasi in linke und rechte Hälften auf. Das genügt, um eine 3D-Ansicht und damit ein ordentliches Bokeh zu erzeugen.

Google Nightsight
Googles Pixel 3 sieht nachts mehr als das menschliche Auge – und dafür reicht eine einzige Linse (Foto: Google)

Googles aktuelles AI-Meisterwerk für Smartphone-Bilder nennt sich "Night Sight" – ein Nachtsicht-Modus, der mehr sieht als das menschliche Auge. Night Sight funktioniert mittlerweile auf allen Pixel-Smartphones, sorgt aber vor allem auf dem Pixel 3 für verblüffende Ergebnisse. Es setzt aus mehreren Belichtungen ein Foto zusammen, bei dem die künstliche Intelligenz Farben und Licht so optimiert, dass es beinahe taghell erscheint.

Mit der Realität, die das Auge wahrnimmt, hat das allerdings nicht mehr viel zu tun. Auch dafür gibt es bereits einen Fachbegriff: "Fauxtography". Der Wissenschaftler Stephen D. Cooper spricht von Bildern, "die einen fragwürdigen oder komplett falschen Eindruck von dem erwecken, das sie scheinbar fotografieren".

Die Zukunft der Smartphone-Fotos

Das Smartphone als die weltweit dominierende Kamera ist nicht mehr aufzuhalten. Schon jetzt werden nach aktuellen Untersuchungen knapp 90 Prozent aller Fotos mit Handys aufgenommen, und der Anteil steigt weiter. "Echte" Kameras werden zur Nische für Liebhaber – wie heute Plattenspieler und Vinyl-LPs.

6 Nokia 9 Pureview
Fünf Linsen am Nokia 9 PureView – die nächste Generation von Smartphone-Kameras (Foto: Nokia)

Auf dem MWC 2019 in Barcelona ist bereits die nächste Generation der Smartphone-Kameras zu sehen. Das Nokia 9 PureView soll mit seinen fünf Zeiss-Linsen erstmals ein Bokeh von der Qualität einer Spiegelreflex erzeugen. Oppo zeigt den ersten Prototypen eines verlustfreien optischen Zehnfach-Zooms für Smartphones. Wie in einem Periskop gelangt das Licht dabei über Spiegel auf den Fotosensor. Das soll eine Brennweite von 16 bis 160 Millimetern ermöglichen.

7 Light L16
16 Linsen – die Technik der revolutionären Kamera Light L16 könnte bald auch in Smartphones einziehen (Foto: Light)

Sony kooperiert neuerdings mit der Firma Light, dem Hersteller der revolutionären Kamera L16, die mit 16 Linsen echte Spiegelreflex-Bildqualität in Smartphone-Größe liefern sollte. Die L16 scheiterte unter anderem an der miserablen Qualität ihrer Software, doch das Konzept gilt nach wie vor als brillant. Sony will es nun für Smartphones umsetzen und einen weiteren Quantensprung schaffen.

Apple bringt im Herbst am iPhone XI mutmaßlich seine erste Dreifach-Kamera. Und auch Google dürfte beim Pixel 4 um ein System mit mehreren Linsen nicht mehr herumkommen. Diese Hardware, gepaart mit Googles künstlicher Intelligenz – klassische Kamerahersteller wie Canon oder Nikon sollten sich warm anziehen.

Auch interessant: Analogkamera mit smarten Moves: Die Polaroid OneStep+ im Test

Newsletter & Messenger

Mit dem LEAD Newsletter und dem LEAD Tech Newsletter immer top informiert zu allen Themen des digitalen Lebens. Egal ob beruflich oder privat. In deiner Inbox oder per Messenger.

Anzeige
Verlagsangebot
Anzeige
Aktuelle Stellenangebote
Alle Stellenangebote
Anzeige