Auf diese Weise hat Google AI erstellt, um bessere Fotos auf Pixel 3 aufzunehmen
Inhaltsverzeichnis:
Der Porträtmodus ist für sich genommen zu einer der Funktionen geworden, die Benutzer am meisten überraschen und begehren, wenn sie sich für das eine oder andere Mobiltelefon entscheiden müssen. Fotos mit diesem Porträtmodus, bei denen ein Objekt, eine Person oder ein Tier im Vordergrund erscheint, während der Hintergrund unscharf bleibt. Um diesen Effekt zu erzielen, haben die Hersteller eine Kombination aus zwei Objektiven in das Telefon integriert, sodass jedes Objektiv seine Arbeit separat erledigt. Google wollte jedoch für seine Palette von Pixel-Handys mit einer einzigen Kamera testen und diesen Effekt dank der Nachbearbeitung mithilfe der Technologie der künstlichen Intelligenz erzielen.
Das Google Pixel 3 will mit einer Kamera das erreichen, was andere mit drei
Diese Methode zum Erreichen des Porträtmodus führte jedoch zu einigen Fehlern, die im nächsten Google Pixel 3 auf etwas radikale und zumindest merkwürdige Weise behoben werden sollten. Um seine Technologie der künstlichen Intelligenz zu trainieren, baute Google eine Art mutiertes Mobiltelefon, das aus fünf miteinander verbundenen Telefonen besteht und die Sucher der Kamera ungehindert lässt, um verschiedene Fotos aus verschiedenen Perspektiven mit geringfügigen Unterschieden aufzunehmen. Diese kleinen Unterschiede ermöglichen es den Computern, die sie analysieren, zu bestimmen, wie weit ein Foto von einem anderen entfernt ist, und so eine Tiefenkarte zu erstellen, die später zum Zeichnen des Hintergrunds verwendet wird, der dann extrahiert wird, um es zu verwischen.
Das Google-Team, das eine so eigenartige Erfindung gebaut hat, hielt es für angebracht, sie "Frankenphone" zu nennen, und spielte damit auf den berühmten Doktor an, der "die Kreatur" durch Stücke verschiedener Leichen zum Leben erweckte. Der Forscher Rahul Garg und der Programmierer Neal Wadhwa sprechen letzten Donnerstag auf Googles Blog:
Es ist eine Tatsache, dass Handykameras noch nicht mit den herkömmlichen Bildgebungssystemen konkurrieren können, die wir in professionellen Kameras sehen können. Diese haben noch kleine Bildsensorendie nicht die überlegene Qualität eines Reflexgeräts erreichen. Dank dieser ausgeklügelten Methoden, die Software und Hardware kombinieren, werden die Entfernungen jedoch verkürzt. Google möchte dank der Methoden der rechnergestützten Fotografie, mit denen unscharfe Hintergründe erzielt, die Bildauflösung erhöht, die Belichtung angepasst, Schattendetails verbessert und Fotos bei schlechten Lichtverhältnissen aufgenommen werden, an der Spitze der mobilen fotografischen Innovation bleiben. Eine andere Sache ist, dass es dies erreicht, wenn man bedenkt, dass es mit Beispielen wie dem Samsung Galaxy Note 9 und seiner Kamera mit doppelter Brennweite oder dem Huawei P20 Pro und seinem dreifachen fotografischen Sensor konfrontiert ist.
Mit diesem "Frankenphone" möchten Google-Forscher unsere Vision der Welt auf die fotografische Abteilung übertragen. Menschen haben zwei Augen, die sich in einer bestimmten Entfernung befinden und eine tiefe Sicht auf die Welt bieten. Dies wurde versucht, auf den fotografischen Sensor von Google Pixel 2 und Google Pixel 3 zu übertragen. Jedes Pixel eines Fotos, das von einem dieser beiden Terminals aufgenommen wurde, wird von zwei Lichtdetektoren erstellt, die sich links und rechts befinden. Dieser Unterschied in der Entfernung zwischen den beiden Detektoren emuliert die Entfernung unserer Augen und schafft es somit, ein Gefühl von Tiefe zu vermitteln und einen Porträtmodus zu erstellen, ohne dass zwei Sensoren gleichzeitig verwendet werden.
![Auf diese Weise hat Google AI erstellt, um bessere Fotos auf Pixel 3 aufzunehmen Auf diese Weise hat Google AI erstellt, um bessere Fotos auf Pixel 3 aufzunehmen](https://img.cybercomputersol.com/img/varios/530/cre-google-la-ia-para-sacar-mejores-fotos-en-el-pixel-3.jpg)