Nous nous sommes capté de deux manières pour le moment :
-nous avons enregistré notre première séance de travail (audio)
-nous avons filmé notre seconde séance de travail (vidéo)
Les moyens que nous avons utilisés étaient ceux que nous avions sous la main (ordi et caméra).
De plus ces deux modes de captation sont les plus courants, les plus utilisés (parmi ceux qui
permettent de retranscrire un espace temps dans sa durée, ce qui n’est pas la cas de la photo
par exemple). Ils sont ce qu’on peut avoir de plus commun, ce qu’on pourrait qualifier de « brut« .
La qualité de la prise de vue/prise de son ce justifie par les outils utilisés, et devient une
variable des résultats que nous obtenons dans la suite du processus.
Nous avons choisi de nous limiter à ces deux captations, bien suffisantes pour servir de point
de départ.
Dans les postes précédents nous avons présenter des expérimentations texte avec la
captation audio, nous voudrions faire de même avec la captation vidéo.
En cherchant des outils/programmes capables de transformer de l’image en texte
nous avons trouvé ceci !
« Les progrès récents commencent à permettre aux machines de décrire l’image avec des phrases. »
Neural Talk, un programme qui légende/sous-titre/décrit l’image/la vidéo en temps réel !
aller voir :
–Generating Captions
–NeuralTalk2 results visualization
–NeuralTalk install #1
–NeuralTalk install #2
–Neural Talk & Walk
–ça
-et ça
–et plus
Neural Talk & Walk (vimeo)
Installation NeuralTalk2 en cours
https://www.youtube.com/watch?v=Oam7EA9mmrM
UNE ALTERNATIVE A NEURALTALK, LA NOUVELLE API DE GOOGLE