Hyperlapse : une application Instagram pour créer des time-lapses stabilisés

Hyperlapse : une application Instagram pour créer des time-lapses stabilisés

Simple et efficace, voilà une bonne idée !

Avatar de l'auteur
Sébastien Gavois

Publié dans

Internet

27/08/2014 3 minutes
13

Hyperlapse : une application Instagram pour créer des time-lapses stabilisés

Facebook et Instagram viennent d'annoncer le lancement d'une nouvelle application : Hyperlapse. Disponible uniquement sur iOS, elle vous permet de créer facilement des vidéos stabilisées et de les accélérer jusqu'à douze fois si vous le désirez.

Dans la besace de Facebook depuis maintenant plus de deux ans, Instagram continue de se développer et lance de temps en temps de nouveaux services. En guise de réponse à Vine, Facebook avait eu une « grande idée » : des vidéos de 15 secondes maximum. De plus, le mois dernier nous avons aussi eu droit à Bolt qui se veut rapide comme l'éclair pour partager du contenu multimédia avec vos contacts.

Hyperlapse d'Instagram : des vidéos stabilisées qui peuvent être accélérées

Désormais, il faut également compter sur Hyperlapse. Cette application se focalise sur la vidéo uniquement et vous propose de stabiliser vos enregistrements, mais aussi de les accélérer si vous le souhaitez. Nous l'avons rapidement prise en main et son utilisation est des plus simples puisqu'il n'y a aucun paramètre à régler et vous n'avez même pas besoin de créer un compte.

 

Une fois l'application installée et que vous l'avez autorisée à accéder à votre caméra, il suffit d'appuyer sur le rond central pour commencer à enregistrer et de recommencer pour arrêter. Dommage par contre qu'il ne soit pas possible de régler la définition de la vidéo qui est apparemment limitée à du 720p.

 

Vous pouvez capturer des vidéos Hyperlapse et les sauvegarder afin de revenir les éditer plus tard. Une fois votre film terminé, vous avez le choix entre plusieurs vitesses de lecture, allant de 1x à 12x. Le résultat final s'enregistre dans votre carrousel et vous pouvez évidemment partager votre film sur Facebook et Instagram uniquement, Twitter et Google+ n'étant pas pris en charge. Voici un exemple mis en ligne par le National Geographic :

 

Un rapport avec Hyperlapse de Microsoft Research ? 

Si ce nom d'Hyperlapse vous rappelle quelque chose, c'est normal : Johannes Kopf de chez Microsoft Research a publié une vidéo intitulée « First-person Hyperlapse Videos ». Si le nom Hyperlapse est présent dans les deux cas et que le but est le même (stabiliser une vidéo), les deux technologies ne sont pour autant pas complètement identiques. En effet, la société de Redmond utilise des séries de photos et se charge de reconstituer votre trajet afin d'assembler les clichés et ainsi créer un film. La similitude n'en reste pas moins troublante, mais sur son blog, Instagram n'évoque pas du tout la technologie de Microsoft.

 

Hyperlapse est d'ores et déjà disponible, mais pour iOS uniquement. Rien n'est précisé concernant Android et nous ne parlerons même pas de Windows Phone. En effet, si une application officielle est bien disponible depuis neuf mois, elle est toujours en bêta et ne prend en charge ni les messages directs ni les vidéos par exemple.

 

 

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Hyperlapse d'Instagram : des vidéos stabilisées qui peuvent être accélérées

Un rapport avec Hyperlapse de Microsoft Research ? 

Fermer

Commentaires (13)


y’a pas de durée maximum en fait ? je vais tester je trouve ça sympa <img data-src=" />




En effet, la société de Redmond utilise des séries de photos et se charge de reconstituer votre trajet afin d’assembler les clichés et ainsi créer un film.





Ce n’est ce que je comprends de la vidéo de démonstration des salariés de Microsoft, ni de l’explication de vos collègues des Numériques : dans les deux l’application part d’une vidéo, en extrait des plans fixes reconstitués (recadrés ?) en fonction de la trajectoire et de la vitesse paramétrées afin de générer une nouvelle vidéo “stabilisée”.



La version “photo” avait par contre me fait penser à la méthode utilisée pour un épisode du Doctor Who (1er de la saison 5 me semble-t-il).



Dommage que sur un site censé être plutôt technique, il n’y ai pas un mot sur la technique employée, relativement nouvelle dans son implémentation sur un smartphone :



Plutôt que d’utiliser un algorithme lourd en calcul qui comparerait chaque image pour stabiliser la vidéo, le gyroscope est utilisé.



Ainsi, chaque mouvement enregistré au gyroscope est compensé dans la vidéo.



D’ailleurs le mode accéléré n’est pas obligatoire, en 1x la vidéo est extrêmement fluide !



Quand on sait que l’iPhone n’a (pour l’instant) pas de stabilisateur optique, faire ça en quasi temps réel est une prouesse.


Comme expliqué sur FrAndroid, les applications ont le même résultat, mais ne répondent pas du tout au même besoin.



La solution d’instagram repose sur l’acquisition de données de mouvement (accéléromètre et gyroscope) pour aider l’algorithme de stabilisation avec des valeurs pré-calculées.La stabilisation d’une vidéo sur un ordinateur est souvent longue, ou requiert une accélération GPU plutôt intensive avec une bonne dizaine de minutes de travail (ce que permettait Nvidia Badaboom à l’époque).

L’avantage est donc d’avoir une solution de stabilisation peu gourmande en ressources, mais qui demande forcément un “crop” de la vidéo. Elle doivent être filmées en 1080p mais réduites à 720p (cadre de rognage).



La solution de Microsoft fonctionne justement en l’absence de métadonnées (l’application d’Instagram ne permet pas de faire des hyperlapse avec des vidéos prises en dehors de l’appli). Le but est de réaliser un tracking de la scène et de détecter les changements de mouvement par comparaison d’objet, et de créer un chemin 3D reconstituant lesdites métadonnées pour lisser les transitions.



Au final, la solution de Microsoft sera la seule utile en l’absence de données de pré-processing. Mais l’avantage, c’est que les constructeurs pourront éventuellement s’en inspirer pour systématiquement inclure les données de mouvement en métadata vidéo, et les combiner à une stabilisation optique pour encore plus de VVS.








RedWave a écrit :



Comme expliqué sur FrAndroid, les applications ont le même résultat, mais ne répondent pas du tout au même besoin.



La solution d’instagram repose sur l’acquisition de données de mouvement (accéléromètre et gyroscope) pour aider l’algorithme de stabilisation avec des valeurs pré-calculées.La stabilisation d’une vidéo sur un ordinateur est souvent longue, ou requiert une accélération GPU plutôt intensive avec une bonne dizaine de minutes de travail (ce que permettait Nvidia Badaboom à l’époque).

L’avantage est donc d’avoir une solution de stabilisation peu gourmande en ressources, mais qui demande forcément un “crop” de la vidéo. Elle doivent être filmées en 1080p mais réduites à 720p (cadre de rognage).



La solution de Microsoft fonctionne justement en l’absence de métadonnées (l’application d’Instagram ne permet pas de faire des hyperlapse avec des vidéos prises en dehors de l’appli). Le but est de réaliser un tracking de la scène et de détecter les changements de mouvement par comparaison d’objet, et de créer un chemin 3D reconstituant lesdites métadonnées pour lisser les transitions.



Au final, la solution de Microsoft sera la seule utile en l’absence de données de pré-processing. Mais l’avantage, c’est que les constructeurs pourront éventuellement s’en inspirer pour systématiquement inclure les données de mouvement en métadata vidéo, et les combiner à une stabilisation optique pour encore plus de VVS.





Merci <img data-src=" />









RedWave a écrit :



Comme expliqué sur FrAndroid, les applications ont le même résultat, mais ne répondent pas du tout au même besoin.



La solution d’instagram repose sur l’acquisition de données de mouvement (accéléromètre et gyroscope) pour aider l’algorithme de stabilisation avec des valeurs pré-calculées.La stabilisation d’une vidéo sur un ordinateur est souvent longue, ou requiert une accélération GPU plutôt intensive avec une bonne dizaine de minutes de travail (ce que permettait Nvidia Badaboom à l’époque).

L’avantage est donc d’avoir une solution de stabilisation peu gourmande en ressources, mais qui demande forcément un “crop” de la vidéo. Elle doivent être filmées en 1080p mais réduites à 720p (cadre de rognage).



La solution de Microsoft fonctionne justement en l’absence de métadonnées (l’application d’Instagram ne permet pas de faire des hyperlapse avec des vidéos prises en dehors de l’appli). Le but est de réaliser un tracking de la scène et de détecter les changements de mouvement par comparaison d’objet, et de créer un chemin 3D reconstituant lesdites métadonnées pour lisser les transitions.



Au final, la solution de Microsoft sera la seule utile en l’absence de données de pré-processing. Mais l’avantage, c’est que les constructeurs pourront éventuellement s’en inspirer pour systématiquement inclure les données de mouvement en métadata vidéo, et les combiner à une stabilisation optique pour encore plus de VVS.







Il n’y a aucun merci ou aucune comparaison. La demonstration de microsoft n’as RIEN À VOIR ou même à comparer en termes de solution avec cette vidéo car tout simplement la démonstration de microsoft utilise une vidéo accéléré de 10x. Donc a moins d’enregistrer à 300 fps en Full HD, il n’y a aucun intérêt à faire venir sur cette news cette technique tout simplement car il n’y a pas encore de matériel pour utiliser cette technique en temps réel (en tout cas pour un enregistrement normal).









juandante a écrit :



Il n’y a aucun merci ou aucune comparaison. La demonstration de microsoft n’as RIEN À VOIR ou même à comparer en termes de solution avec cette vidéo car tout simplement la démonstration de microsoft utilise une vidéo accéléré de 10x. Donc a moins d’enregistrer à 300 fps en Full HD, il n’y a aucun intérêt à faire venir sur cette news cette technique tout simplement car il n’y a pas encore de matériel pour utiliser cette technique en temps réel (en tout cas pour un enregistrement normal).





Bah si, expliquer aux lecteurs qui ne maitrisent pas le sujet, non ?

Rien que ton intervention est utile.



Je te rappelle juste le leitmotiv de NXi :

Si tu ne sais pas demande, si tu sais partage !



Avec vos 2 comms, j’en ai plus appris qu’avec la news, que j’avais lu auparavant en substance ailleurs.



Il me semble surtout que la solution de MS est faite pour les vidéos type GoPro qui sont beaucoup plus “secouées” que ce que présente Instragram.



Du coup MS extrait les images de la vidéo qui ont un cadrage similaire et exclut les images extrêmement “décadrées”. Pour compenser ces images en moins dans la vidéo, MS accélère le rendu pour obtenir à nouveau une vidéo fluide.



Instagram propose une solution innovante de stabilisation optique, mais je serai curieux de voir ce que ça donne avec les vidéo type GoPro, pas sûr que le résultat soit aussi agréable…








Arttt a écrit :



Instagram propose une solution innovante de stabilisation optique, mais je serai curieux de voir ce que ça donne avec les vidéo type GoPro, pas sûr que le résultat soit aussi agréable…





C’est à voir en effet.

Difficile d’en juger sur papier car même dans une vidéo “sport extrême” les mouvements sont tout de même composés de nombreuses frame… Au final ça peut “stabiliser” sans pour autant faire un rendu au niveau des premières 3dfx (allusion sur la technique grossière).

Par contre, si ça joue trop sur le crop des “marges”, on va finir en vidéo tunnel ?



La crainte est plus une perte de caractère, à mon sens. Tout ne s’y prêtera sans doute pas.



Dans le cas de MS, le soft fait une extrapolation de la trajectoire (à partir des points détectés dans chaque image de la vidéo) de manière à calculer une nouvelle trajectoire plus fluide.

Ensuite, une image / N de la vidéo est utilisée (selon le coefficient voulu). Cependant, la trajectoire différent de l’initial, la photo sera recadrée / déformée. Pour compenser les pans manquants suite à recadrage, le process pioche dans toutes les images intermédiaires et effectue une projection de ces dernières pour recomposer une finale complète.

J’ose pas imaginer le temps du rendu. Mais c’est complètement génial comme idée, et beaucoup beaucoup plus avancé par rapport à ce que propose instagram. Qui est juste une stabilisation vidéo en fait. Et pas de la stabilisation “optique”, ce n’est pas hardware, c’est software.



D’ailleurs c’est marrant mais leur image c’est avec une caméra posée dans une voiture, qui par définition sur une route ne tressaute pas, donc bon…



D’ailleurs la news est erronnée :





a société de Redmond utilise des séries de photos et se charge de reconstituer votre trajet afin d’assembler les clichés et ainsi créer un film





Absolument pas, le but est d’utiliser n’importe quelle vidéo en first person pour obtenir ce rendu. C’est bien expliqué dans la vidéo en lien.



@juandante : c’est surtout que leur solution n’est pas encore disponible ;) Par contre je ne vois pas l’intérêt du “temps réel” dans ta phrase.


L’ancêtre de l’Hyperlapse pour le “Retour du Jedi” :

http://www.theasc.com/magazine/starwars/gallery/jedi/stcm/pg1.htm



Finalement, rien de bien nouveau <img data-src=" />








Dez a écrit :



Qui est juste une stabilisation vidéo en fait. Et pas de la stabilisation “optique”, ce n’est pas hardware, c’est software.





Si ca s’appuie sur les gyro de l’iphone, c’est un peu hardware quand meme, certe l’appli utilise un hardware externe.

Il y a aussi l’intérêt de faire de l’accéléré, pertinent : je ne sais pas, mais ca fait (selon eux) stylé comme au cinema/series <img data-src=" />



Pour ceux qui le souhaitent,

Voilà les détails techniques complexes derrière cette app qui semble simple :



http://instagram-engineering.tumblr.com/post/95922900787/hyperlapse