Prochain événement    Gros Multi Onward jeudi 8 déc. à 21h00 !    du 08/12/2016 (21:00) au 08/12/2016 (23:45)

ACTUALITÉ
Le futur de la VR (partie I)

Publié par
Article de la communauté
le 15/09/2016 à 01:25
La réalité virtuelle est vraiment une avancée technologique extraordinaire. Pourtant, la génération de question actuelle est loin d’être parfaite, et les pistes d’améliorations sont nombreuses.
Plusieurs facteurs peuvent influer sur ce que sera la référence VR de la prochaine décennie, tel que le prix, la faisabilité technique ou encore la sécurité. Le but de cet article est de lister (de manière non exhaustive) les améliorations technologiques à venir, ainsi que leurs avantages et inconvenant.
Bien que j’essaye de rester neutre, il est possible que certaines de mes convictions se ressentent, ou que j’omette parfois quelques informations de manière involontaire. Je précise que je suis développeur d’application VR, électronicien, et que j’ai bossé en tant que concepteur machine en industrie, ce qui signifie que, bien que loin d’être incollable sur le sujet, j’ai quelque notion des sujets que j’aborderais ici.
Bon, c’est pas tout ça, mais il faut y aller !









1) La VR sans fils
Quel possesseur de Vive n’a jamais rêvé de jouer en roomscale sans devoir faire en permanence attention au câble ?
Bien entendu, on sait très bien envoyer des informations sans fils depuis quelques années (radios, Bluetooth, Wifi,…). Enfin, pour être franc, deux problèmes majeurs rendent l’utilisation de ses technologies complexe dans le cas d’un casque de réalité virtuelle :
  • Le débit :
Pour comprendre l’ampleur de la tâche, faisons un peu de math. Imaginons que l’on souhaite transférer un signal vidéo de qualité 4K à 90 FPS. 4K, ça veut dire quoi ? On va s’éviter le débat de la « vrai » et de la « fausse » 4K, et on prendra par exemple une résolution de 3840 × 2160. Cela signifie qu’il faut envoyer 8 294 400 pixels par images. Comme nous sommes à 90 FPS (images par secondes), il faut donc envoyer 746 496 000 pixels par secondes, soit 746,5 Mpx/sec… rien que ça !
Mais c’est pas fini. Un pixel est constitué de trois couleurs, qui se codent sur 24 bits ou 48 bits selon le choix du paramètre de nombre de couleurs que peut rendre l’écran. En théorie, tous les bons écrans sont en 48 bits.
En bref, si je dois envoyer 746 496 000 × 48 = 35 831 808 000 bits par secondes, soit un débit nécessaire de 35,9 Gbits/s (ou 35832 Mbits/s). Le wifi à la norme 802.11n (le plus récent), par exemple, supporte difficilement les 450 Mbits/s, soit 80 × moins que nécessaire. Ouille…
 
La solution normalement retenu est de compresser l’image. Il existe deux types de compression, qui sont la compression sans pertes et la compression avec pertes. Si la compression possède des pertes (comme une compression .jpeg, par exemple) l’image sera plus légère au prix d’une perte d’information, et donc d’une perte de qualité. Cette perte, peu visible dans l’exemple d’une vidéo converti pour être visionner sur un téléphone portable, devient vite flagrante en VR.
Vous allez me dire qu’il suffit de faire une compression sans pertes, qu’il existe déjà des récepteur TV HD sans fil, et que ça doit donc être faisable… oui mais c’est sans compter sur la seconde problématique d’une solution VR sans fil, et pas des moindre !
 
  • La latence :
La VR nécessite une latence motion-to-photon extrêmement faible (voir http://www.etr.fr/actualite/3020-l-asynchronous-time-warp-de-l-oculus-rift-qu-est-ce-que-c-est.html). La transmission doit donc non seulement être extrêmement rapide (35,9 Gbits/s pour ceux qui ne suivent pas), mais le traitement des données pour l’envoie et la réception doit être très court. Admettons que je souhaite diffuser une vidéo sur ma TV depuis mon ordinateur en wifi, si la vidéo met 5 sec à être compressée par mon ordinateur, puis 5 sec à être décodé par ma TV, j’aurais un décalage de 10 sec entre l’écran de mon PC et celui de ma TV, ce qui n’est absolument pas gênant vu que je ne fais que regarder une vidéo (en vrai la plupart des logiciel préfère diffuser les flux en même temps en prenant en compte le temps de transfert et de décodage, mais c’est pour l’exemple). Si je veux jouer sur ma TV en streaming, ça se corse. Il est inconcevable d’avoir ne serrais ce que 1 sec de décalage entre l’appuient sur la touche « saut » et le saut de mon personnage dans le jeu. Je vais donc être obligé d’utiliser des algorithmes de compression avec pertes, plus rapide à décoder.
 
EN BREF : La réalisation d’un casque VR sans fils offrant la qualité visuel de l’Oculus Rift ou du HTC Vive est aujourd’hui mission (quasiment) impossible. Le simple fait de rendre un casque sans fils jouable serait un exploit. Certaine solutions commencent à voir le jour (http://www.etr.fr/actualite/2436-nitero-promet-une-solution-pour-la-realite-virtuelle-sans-fil-au-second-semestre-2016.html , http://www.etr.fr/actualite/2680-un-casque-de-realite-virtuelle-pc-sans-fil-pour-bientot.html , http://www.etr.fr/actualite/3192-la-vr-sans-fil-c-est-reel.html) mais personne n’a encore réussit le défi à 100%. Une chose est sure, le sans fils serait une avancée considérable pour la VR, mais le pari n’est pas encore gagné. Wait & see.





2) La reconnaissance de mouvement (kinect, leap motion,…)
Les manettes à reconnaissance de mouvement, c’est bien (voir http://www.etr.fr/actualite/3032-les-systemes-oculus-constellation-rift-et-steamvr-lighthouse-vive-expliques.html), mais on est loin d’un système permettant de saisir les Objet de manière réaliste. Plusieurs systèmes basés sur des caméras sont sortis ces dernières années, mais force est des constater que ce n’est pas parfaitement au point. Pourquoi ? Pour plusieurs raisons :
PAR CAMERAS ?
  • Le débit :
Pour comprendre l’ampleur de la tâche, faisons un peu de math… on l’a déjà fait ? Bon, dans ce cas, vous avez bien compris que pour enregistrer de manière précise un mouvement de main, il est nécessaire d’enregistrer à haute vitesse et avec une qualité potable… ce qui engendre un grand flux de données. D’autant plus que pour capturer un objet en 3D dans l’espace, il est nécessaire d’enregistrer sous au moins 2 angles différents.
Cependant, le débit est loin d’être l’élément qui pose le plus de problème dans ce cas, car la liaison n’a pas besoin d’être sans fil. Ouf…
 
  • La latence :
Oui, je sais, je me répète, mais ici le problème est diffèrent. En informatique traditionnel, il est extrêmement difficile de programmer un ordinateur à reconnaitre un objet à partir d’une capture vidéo. Kinect et Leap motion se basent sur des algorithmes qui reconnaissent les jointures (les articulations) afin de reconstituer la partie du corps souhaité virtuellement. Le problème est qu’en plus d’être très imparfait, le calcul est très lourd, et donc très lent.
Plusieurs solutions, tel que des algorithmes de prévision, permettent de fortement réduire cette latence, mais force est de constater qu’elle est toujours présente sur toutes les solutions basées sur la reconnaissance optique.
Une nouvelle technologie va peut-être tout changer, il s’agit du deep-learning. Je n’ai pas la prétention de vous l’expliquer en détails, mais je vous conseille la vidéo suivante : https://www.youtube.com/watch?v=trWrEWfhTVg
 
  • Les interférences lumineuses
L’exposition d’un sujet est déterminant pour la qualité d’une photo… et donc pour la qualité d’un suivi efficace. Les systèmes fonctionnant par caméras couleurs sont très sensible à la sous-exposition (pas assez de lumière), et encore plus à la surexposition (trop de lumière), cependant la plupart des systèmes moderne utilise des caméras infrarouge. De cette manière, la caméra peut intégrer un projecteur infrarouge qui se charge l’éclairer le sujet de manière optimal… à condition qu’un autre appareil n’est pas besoin d’éclairer la scène différemment, mais sur la même bande d’ondes lumineuse, comme le système Lighthouse (http://www.etr.fr/actualite/3032-les-systemes-oculus-constellation-rift-et-steamvr-lighthouse-vive-expliques.html).
 
 
PAR CAPTEUR DE TORSION, L’AVENIR ?
 
La miniaturisation des composants amène à penser que des gants à détection de position des doigts vont être fonctionnel prochainement. Reste qu’il est difficile de les concevoir, ou en tout cas d’en réaliser avec un cout de revient suffisamment bas pour convaincre le grand public. La latence est encore une fois un ennemi.



On en restera la pour la partie I... Je ne promets rien sur la sortie de la partie II. J'espère que j'aurais réussi à vous intéresser, et merci d'avoir lu ce pavé (au moins en partie).


Tag(s) associé(s) : Actualité
4 COMMENTAIRES

Connectez-vous pour commenter.