Gagne de la cryptomonnaie GRATUITE en 5 clics et aide institut numérique à propager la connaissance universitaire >> CLIQUEZ ICI <<

Introduction générale

Non classé

La vidéo regroupe l’ensemble des techniques permettant l’enregistrement ainsi que la restitution d’images animées, accompagnées ou non de son, sur un support électronique [66]. En faisant défiler une série d’images à une certaine vitesse, on parvient à recréer l’impression du mouvement ; si certains films animés peuvent être visionnés à une cadence de 12ips (images par secondes), le cinéma lui exige 24ips, le standard vidéo PAL (Europe, Asie et Afrique) en exige 25 et le standard NTSC (Amérique et Japon) en impose 30. Lors du procédé de numérisation, ce débit d’image entraîne la production d’une grande quantité de données.

Prenons un exemple afin de mieux cerner le problème : une vidéo de qualité DVD au standard PAL ayant une résolution de 720×576 pixels, chacun de ces pixels étant codés sur 16bits voire 24 dans l’optique d’assurer un rendu optimal des couleurs. On arrive à une taille d’environ 1,2Mo pour une image, soit près de 30Mo pour une seconde de vidéo. Ce chiffre paraît toujours bien faible par rapport aux 210 Go requis uniquement pour stocker les images sans compression.

Cette quantité de données, bien que théoriquement stockable, s’avère en pratique gourmande et ruineuse. En effet, 210 Go suffisent amplement à remplir un disque dur “grand public” et équivalent à plus de 20 DVD. Il est donc nécessaire de trouver une solution pour réduire le poids de la vidéo.

L’encodage vidéo est une opération qui consiste à réduire le poids d’une vidéo. Elle repose, le plus souvent, sur une compression avec perte de données (« lossy compression »), c’est-à-dire une compression qui va privilégier la réduction du poids des images au détriment de leur qualité.

Il existe des algorithmes de compression vidéo et audio sans aucune perte d’informations (on parle alors de « lossless compression ») mais ceux-ci n’apportent en moyenne qu’un gain de 50% en terme de poids. Ils sont donc surtout utilisés dans le milieu professionnel (exemple : montage vidéo) et par certains puristes ou alors dans le cadre d’utilisation spécifiques (exemple : vidéos à base de captures d’écran). On citera pour exemple les codecs HuffYUV, AviZLIB et MotionSZH).

Cette compression lossless repose sur des principes similaires à ceux de la compression de fichiers quelconques (compressions ZIP, TAR.GZ, etc.), incluant l’élimination optimale des redondances dans les données. Par exemple, si on trouve dans un fichier trente octets d’affilés ayant la même valeur, il est beaucoup plus économique de remplacer ces trente octets par un caractère spécial suivi du nombre de redondances (ici trente) et enfin de la valeur concernée. L’optimisation de ce principe pour des données vidéo aboutit à un codec de compression vidéo lossless. Prenons pour illustrer, une image contenant 8 pixels consécutifs ayant exactement la même couleur, le 1er pixel est codé normalement et il suffit ensuite d’indiquer que les 7 suivants ont la même couleur.

D’autres solutions sont envisageables pour réduire la taille d’une vidéo. En fait il suffit de réduire la valeur d’une ou plusieurs caractéristiques de cette vidéo. Ces différentes possibilités offertes pour la manipulation des objets audio-visuels ouvrent les portes à la diffusion de la vidéo.

La vulgarisation de l’Internet a ouvert un nouvel horizon pour l’industrie de la vidéo-diffusion. Deux mondes qui étaient à peine reliés, sont sur le point d’être fusionnés, à savoir : vidéo à temps réel et l’Internet. Grâce à la transition du médium vidéo de l’analogique au numérique, et la montée en puissance des techniques de compression vidéo telles que H.264 et MPEG-4, il est désormais possible de combiner vidéo, audio et données dans le même signal et le transmettre sur un réseau à commutation de paquets, tel que l’Internet. Ces progrès mèneront à l’émergence des nouvelles applications multimédias puissantes, avec des possibilités quasi illimitées et de grand potentiel commercial. Par exemple, les ordinateurs peuvent être transformés en des récepteurs de télévision numériques traditionnels et les décodeurs peuvent héberger des applications telles que la télévision interactive, l’e-commerce et la visioconférence.

L’utilisation du protocole internet (IP) comme un moyen de transmission en temps réel des applications multimédias est un problème difficile. Ces applications nécessitent de garantir les performances en temps réel en termes de délai de transfert, de gigue, de perte de paquets bas et de bande passante. IP est une technologie de commutation de paquets best effort (qui fait du mieux qu’il peut). Il ne garantit pas en lui-même une qualité de service (QoS) telles que le délai d’attente, la gigue et la perte.

Le streaming des données multimédia est actuellement en plein essor, car la demande de contenus audiovisuels en temps réel est en pleine croissance. Cette effervescence a conjointement mobilisé les chercheurs et les industriels pour concevoir et mettre en place des systèmes permettant la diffusion en continu de données audiovisuelles. En une décennie, de nombreux prototypes et une multitude de serveurs commerciaux, comme YouTube ou DailyMotion, ont vu le jour. Ces serveurs se sont spécialisés dans le streaming audiovisuel, permettant ainsi aux utilisateurs de partager leurs contenus multimédias à une échelle mondiale.

Les serveurs de streaming se sont alors trouvés face à l’un des défis qui ont accompagné l’Internet depuis sa naissance : la transmission simultanée de contenus à de nombreux utilisateurs, tout en évitant une augmentation des coûts proportionnels à la taille de l’auditoire.

La montée en puissance de la mobilité évoque beaucoup celle d’Internet à la fin des années 1990, quand la croissance spectaculaire du nombre d’utilisateurs s’accompagnait d’une frénésie d’innovation. Les consommateurs sont aujourd’hui friands de mobilité dans leur vie personnelle et, de plus en plus, ils la réclament pour leur vie professionnelle. En matière d’appareils mobiles, les innovations sont introduites à un rythme effréné, avec de nouvelles catégories et sous-catégories qui émergent régulièrement à quelques mois d’intervalle (par exemple, des tablettes conçues spécifiquement pour les professionnels). Chaque innovation est synonyme d’utilisations et de possibilités nouvelles. Mais la question des contraintes de gestion qui pèsent sur l’innovation reste ouverte.

L’adaptation au débit est un problème crucial pour les applications de diffusion mises en œuvre dans des réseaux à bande passante limitée et susceptibles de perdre des paquets. Dans une grande majorité des cas pratiques, le serveur de médias se trouve très en amont du réseau et des couches protocolaires propres à la radio, dans le cas d’un réseau sans fil, rendant ainsi très difficile l’estimation en temps réel de l’état du canal.

Au travers de la conception et de la mise en œuvre d’un système de streaming adaptatif, nous voulons tester la faisabilité d’un système de streaming où la transmission d’un contenu est assurée par une décomposition en couches superposables de ce dernier. Par ailleurs, les utilisateurs de notre système peuvent être équipés de terminaux plus ou moins puissants, en termes de capacités de traitement et/ou d’affichage, car notre prototype permet d’adapter les images des vidéos transmises en fonction de la configuration du terminal récepteur (adaptation spatiale). Dans l’état actuel de nos connaissances, notre prototype est le premier qui intègre le streaming avec adaptation de contenus multimédias par couches d’images superposables dans le sens de la chrôminance.

Ce mémoire est organisé en 4 chapitres :

Systèmes de streaming – vue d’ensemble : ce chapitre préliminaire est consacré à la présentation du domaine très vaste du multimédia, et en particulier les concepts de base du streaming audiovisuel. Nous y présentons notamment un état de l’art des techniques de gestion des serveurs vidéo. Nous décrivons l’évolution des architectures logicielles de ces serveurs en fonction des équipements les hébergeant, jusqu’au déploiement massif. Nous présentons aussi les divers types de cache dans un système de streaming, ainsi que leurs rôles respectifs.

Streaming en environnements légers : ce chapitre introduit le streaming en environnement léger et souligne les difficultés inhérentes à la gestion d’un tel environnement. Nous passons d’abord en revue les caractéristiques des équipements dans un réseau de stations légères et les techniques proposées dans la littérature pour l’interconnexion dans un tel milieu. En suite, nous jetons un coup d’œil sur les systèmes de streaming adaptatif et faisons un point d’horizon sur les solutions existantes. Nous clôturons ce chapitre en passant au peigne-fin ces solutions afin d’en extraire les limites.

Adaptation de streaming par encodage multicouches : Face aux limites exprimées dans le chapitre précédent, nous recadrons le contexte de notre travail en exposant notre idée d’adaptation par encodage multiple-couches superposables, idée que nous validons par la proposition d’une architecture. Nous détaillons notre approche pour remédier aux difficultés inhérentes à notre environnement d’exploitation.

Implémentation et validation : Ce chapitre présente les détails de notre architecture ainsi que les considérations techniques retenues pour sa mise en œuvre : modes de communication, environnement de développement, gestions des ressources etc. Le chapitre se termine par une évaluation des performances du système.

Page suivante : CHAPITRE 1 : SYSTÈME DE STREAMING : VUE D’ENSEMBLE

Retour au menu : Adaptation de flux vidéo en environnements limités et dynamiques : Proposition d’une solution par encodage vidéo multicouche