Mitarbeiter der Google-Forschungsabteilung haben einer künstlichen Intelligenz beigebracht, Personen in Selfie-Videos von ihrem Hintergrund zu unterscheiden und den Hintergrund nach Belieben auszutauschen. Durch die Funktion wird es beispielsweise möglich, sich auf die Mondoberfläche zu versetzen, den Anschein einer anderen Tageszeit zu erwecken oder andere Späße zu treiben, berichtet TechCrunch. Eingeführt wird die Funktion in der YouTube-Funktion Stories.
Segmentierung in Stories-Funktion
Stories steht derzeit nur einigen Beta-Testern der YouTube-App zur Verfügung. Die Funktion ist ähnlich wie die Stories-Funktionen bei Instagram oder Facebook gestaltet und soll den Austausch kurzer Videos zwischen YouTube-Nutzern ankurbeln. YouTube erwartet sich davon mehr Interaktion innerhalb seiner Community.
Der Austausch von Teilbereichen eines Videobildes nennt sich Videosegmentierung. In Filmstudios wird dieser Effekt üblicherweise durch den Einsatz von Green Screens erzielt. Die Google-Forscher haben dagegen einem neuronalen Netzwerk beigebracht, die Bestandteile eines Menschen in einem Selfie-Video (z.B. Haare, Gesicht, Haut, Brillen, Oberkörper) herauszufiltern und den Rest des Bildes beliebig zu verändern.
Ressourcenschonendes Training
Der entsprechend generierte Code sollte außerdem so ressourcenschonend sein, dass er auf einem Smartphone ausgeführt werden kann. Um die künstliche Intelligenz zu trainieren, wurden ihr zehntausende Selfie-Videos vorgelegt.
Dieser Artikel erschien zuerst bei futurezone.at.