So korrigiert Google Fotos mit einem Weitwinkelobjektiv
Inhaltsverzeichnis:
- So funktioniert der Google-Algorithmus
- Automatische Korrektur unter Berücksichtigung des Kontexts
- Vielleicht sehen wir diese Technologie im Pixel
Forscher von Google und MIT haben einen Algorithmus entwickelt, mit dem die Fehler von Weitwinkelaufnahmen korrigiert werden sollen.
Möglicherweise haben Sie gesehen, dass die Gesichter einiger Personen auf Fotos gestreckt, leicht abgeflacht oder verzerrt aussehen. Obwohl dies möglicherweise auf die wenigen Fähigkeiten des Fotografen zurückzuführen ist, ist die Wahrheit, dass Aufnahmen mit dem Weitwinkelobjektiv von Mobilgeräten normalerweise zu Verzerrungen bei Objekten oder Personen führen, die sich am Rand des Bildes befinden.
Es gibt verschiedene Methoden, um dieses Problem zu lösen, aber bisher war keine so effektiv wie der neue Vorschlag von Google. Es scheint zwar einfach zu beheben zu sein, ist es aber nicht, da es eine komplexe lokale Bearbeitung erfordert, die sich nicht auf den Rest der Objekte auf dem Foto auswirkt.
So funktioniert der Google-Algorithmus
Wie die Forscher erklären, erkennt dieser Algorithmus Gesichter und erstellt ein Netz, mit dem diese Art der Verzerrung automatisch umgekehrt werden kann, wenn eine Aufnahme mit einem Weitwinkel gemacht wird, wie im Bild dargestellt:
Wir können den Unterschied bei der Anwendung dieses Algorithmus in den folgenden Bildern erkennen. Es ist ein Selfie, das mit einem Weitwinkelobjektiv mit einem Sichtfeld von 97 ° aufgenommen wurde.
Das erste Bild zeigt die Verzerrungen in den Gesichtern und das zweite zeigt, wie der Algorithmus die Gesichtsformen in ihren ursprünglichen Zustand zurückversetzte.
Das heißt, dieser Vorgang wird bei Verwendung des Weitwinkelobjektivs automatisch aktiviert, wodurch Gesichter besonders unterstützt werden, ohne dass Änderungen am Rest des Bildes vorgenommen werden. Und natürlich macht es die Geschwindigkeit dieser automatischen Korrektur (ca. 920 Millisekunden) dem Benutzer unmöglich, sie zu erkennen.
Nach ihren Tests arbeitet dieser Algorithmus im Sichtfeld erfolgreich im Bereich von 70 ° bis 120 ° und deckt nahezu alle Möglichkeiten eines Mobilgeräts ab.
Um das Potenzial dieses Algorithmus auszuschöpfen, müsste der Benutzer keine Maßnahmen ergreifen oder einen speziellen Kameramodus aktivieren. Diese Funktion wird nur dann automatisch implementiert, wenn festgestellt wird, dass das Weitwinkelobjektiv verwendet wird.
Automatische Korrektur unter Berücksichtigung des Kontexts
Wir können die Dynamik dieses Algorithmus im folgenden Video sehen:
Der Algorithmus korrigiert automatisch unter Berücksichtigung der übrigen Objekte, die in der Szene erscheinen, und stellt so sicher, dass der gesamte Kontext des Fotos übereinstimmt. Die Ergebnisse sind natürlich ohne Details, die zeigen, dass das Foto überhaupt geändert wurde.
Das Team hinter diesem Projekt hat eine Fotogalerie auf Flickr geteilt, die zeigt, wie unterschiedliche Methoden dieses Problem im Vergleich zur Dynamik ihres Algorithmus angehen. Es gibt mehr als 160 Fotos (wie das am Anfang des Artikels gezeigte), mit denen wir die Ergebnisse bewerten können.
Vielleicht sehen wir diese Technologie im Pixel
Wir könnten hoffen, dass dieser Algorithmus oder eine abgeleitete Technologie in der nächsten Generation von Pixel angewendet wird, da das an diesem Projekt teilnehmende Team Google-Mitarbeiter sind.
In dem Dokument, das sie geteilt haben, haben sie jedoch nichts darüber erwähnt. Diese ersten Tests des in Aktion befindlichen Algorithmus haben erneut gezeigt, wie das Potenzial künstlicher Intelligenz die Dynamik mobiler Geräte verbessern und den Benutzern das Leben erleichtern kann.
Da eine ähnliche Dynamik in unserem Mobilgerät ohne Zweifel viel Kopfschmerzen und Zeit sparen würde, wenn Sie versuchen, diese Verzerrungen auf den Fotos zu bearbeiten.
