Mémoire de Projet de Fin d’ÉtudesPour l’Obtention du Titre Master Spécialisé Réseaux et Systèmes Par Benjieda Hicham Encadré par Pr. Fakhri Youssef Mr.Elbachraoui Mohamed Sujet « La mise en place d’une plateforme de vidéo surveillance logicielle, basée sur des technologies de compression vidéo récentes » Soutenu le 10 juillet 2010, devant le Jury : M. Jaafar ABOUCHABAKA, Faculté des Sciences de Kenitra, président M. Youssef FAKHRI, Faculté des Sciences de Kenitra M. Mohammed LAAROUSSI, Faculté des Sciences de Kenitra Année Universitaire 2009-2010 Dédicace A mes très chers parents, Aucun mot et aucune langue ne pourra exprimer mes sentiments envers vous. A mes chères sœurs Naima et Fatimazahra A mes chers frères Rachid et Ayoub A toute ma famille. A tous mes chers amis, A mes chers amis de la faculté, Pour tout le soutien que vous m’avez offert, je vous dis MERCI. A tous ceux qui m’aiment. Hicham Benjieda Remerciements Il m’est agréable d’exprimer ma reconnaissance auprès de toutes les personnes, dont l’intervention au cours de ce projet, a favorisé son aboutissement. Ainsi, je tiens à exprimer ma grande estime et toutes mes reconnaissances à mon encadrant M. Youssef FAKHRI pour ses directives précieuses et ses conseils pertinents qui ont été d’un appui considérable dans ma démarche. J’exprime mes profonds respects et mes sincères gratitudes à M. Mohamed ELBACHRAOUI, de m’avoir accueilli au sein de sa direction à l’ONEP. Je tiens à remercier, M. Jaafar ABOUCHABAKA, pour son soutien et son apport tout au long de ces deux années d’études universitaires. Je saisis l’occasion pour remercier tous les membres du jury qui nous ont fait l’honneur d’accepter de juger notre travail. Je ne saurais oublier dans mes remerciements tout le cadre professoral de la FSK, pour la formation qu’il nous a prodigué. Que tous ceux qui nous ont aidés, de près ou de loin, trouvent ici l’expression de mes meilleurs sentiments. Résumé La vidéo surveillance est généralement déployé dans de nombreuses sociétés a fin de protéger des bien ainsi que des zones spécifique au sein de l’infrastructure d’une entreprise .Néanmoins ce genre de solution est bien souvent trop onéreuse en raison de l’investissement dans le matériel dédié mais également du fait qu’il est souvent nécessaire qu’un employé soit à la source du system pour superviser l’ensemble. Ce projet de fin d’études mené au sein de l’ONEP (Office National d’Eau Potable) consiste à développer sous linux une plate forme de vidéo surveillance logicielle, basée sur des technologies de compression vidéo récentes. Pour cela il faut développer du socle logiciel permettant d’assurer les fonctions de bases d’un system de vidéo surveillance numérique, en utilisant des technologies de compression vidéo pour minimiser la taille du flux transféré et aussi bien enregistré. Suite à une comparaison entre les technologies de streaming existantes, nous avons opté pour « RealSystem » de « RealNetworks » qui offre une solution complète comprenant : le codeur, le serveur et le client. Mots clés : Vidéo surveillance, Compression vidéo, RTP (Real-time Transport Protocol), RealSystem, RealNetwork, suivi. .................................. 67 Figure 26 : Fonctionnement codeur/serveur dans le cas normal ..................................................................................................................62 Figure 22 : Initialisation des communications entre RealServer et RealPlayer ......................................................................................................................................................................................... 57 Figure 19 : Les communications client/serveur en mode TCP seul ...Table des figures Figure 1 : Organigramme de l’ONEP ...................261 .................................................... 40 Figure 9 : Exemple d’agencement d’un GOP ......................................................... 16 Figure 2 : Architecture réseau de l’ONEP............ 44 Figure 12 : Schéma de codage H...................... 65 Figure 24 : Enregistrement des présentations Real Media .............................. 58 Figure 21 : Les composants de real system…………………………………………………...................................... 70 Figure 27 : Fonctionnement codeur/serveur dans le cas d’un pare-feu ........ 50 Figure 14 : Transmission multipoint d’un flux .................................................................................................................................................... 66 Figure 25 : Enregistrement d’une présentation pour différentes largeurs de bande ........................................................................... 73 Figure 31 : Schéma de la back-Channel multicast ......................................................................................................... 18 Figure 4 : Caméras de surveillance ........................ 28 Figure 6 : Le format YUV 4 :1 :1......................................................................... 56 Figure 18 : Les communications client/serveur en mode RDT .................... 57 Figure 20 : Fonctionnement de RTSP .................................................................... 71 Figure 30 : Schéma de multipoint ........... 71 Figure 29 : Phase de transfert de données entre le client et le serveur ................................. 39 Figure 8 : schéma général d’un codeur vidéo................................. 17 Figure 3 : Organigramme de la DSI ................ 52 Figure 16 : Principe du RSVP ........................................................................................................... 43 Figure 11 : Exemple d’image mosaïque construite à partir d’un ensemble d’images ............................ 39 Figure 7 : Introduction des pertes dans le processus de compression ... 22 Figure 5 : Evolution du matériel de vidéosurveillance........................................................... 50 Figure 15 : Paquets RTP et RTCP ........................................................................................... 42 Figure 10 : Allure typique d’une courbe du rapport débit / distorsion ................................................................................................................... 63 Figure 23 : Comparaison des technologies de streaming ........ 74 Figure 32 : Schéma du scalable multicast…………………………………………………….................................................................... 46 Figure 13 : Transmission unipoint d’un flux .................................74 .. 53 Figure 17 : Les communications client/serveur dans le cas du RTP ............... 71 Figure 28 : Phase initial de la communication client/serveur ......................................................................................................................................................... 80 Figure 37 : Plate-forme réalisée………………………………………………………………81 Figure 38 : Création du sous réseau R1…………………………………………………….Figure 33 : Type de permission………………………………………………………………...79 Figure 35 : Options de transport pour le protocole RTSP……………………………………79 Figure 36 : Utilisations des proxys…………………………………………………………...77 Figure 34 : Préférences de transmission……………………………………………………...83 .. .................................2 2 2........................................................................................................................................................................................................................................................... 12 Chapitre 1 ... 23 Évolution des systèmes de vidéosurveillance .................. 29 Troisième génération : le tout numérique IP .................................................................................................................1 3................................ 14 Principales activités ....................................................................................................................5 2......................................................................................................... 5 Table des matières ................................................................................. 11 Contexte du projet ...................................................... 32 ....................................................................................................... 28 Vidéosurveillance IP ................................................................................................................................................................................2 Missions de la DSI .................................................................... 18 5...... 13 Organisme d’accueil : ONEP ................................................................................................................................ 17 Présentation de la DSI ..........................2 2................................................................................................................................... 21 1..............1 1.....................................................................1 Organigramme de la DSI « Direction contrôle de gestion et Systems d’information » ..... 19 Conclusion ......... 16 Architecture réseau de l’ONEP ............................................................................................. 21 vidéosurveillance .......... 22 Acquisition ........................................................................................6 3 3......................................................................................................................................................................... 25 Compression .................................... 28 Première génération : le tout analogique ................................................................................................................................... 20 Etude théorique et analyse du projet de vidéosurveillance .................................................................................................................................................... 24 Transmission .................. 7 Introduction générale .3 4 Sécurité .............. 15 Organigramme de l’ONEP .......... 13 1 2 3 4 5 Historique de l’ONEP ................................................. 18 5......................................................................................4 2.................................................................................................................................................. 26 Archivage ..... 29 Deuxième génération : système hybride .........................................................Table des matières Table des matières Table des figures ..... 19 Chapitre 2 ................................................................................... 25 Traitement ....................................................2 3........................ 20 1 Définition du domaine .................. 31 Composantes d’un système de vidéosurveillance ................................................................................................3 2......................................................................................................................................... 27 Affichage .....................................................................................................1 2. ......... 37 1 La représentation d’une séquence vidéo ................................................................................................................................................................ 51 RTCP : Le Protocole de contrôle ......... 41 4 Les images de référence .......................... 55 Les formats de paquets de données ................... 48 Chapitre 4 .........................................2 1................. 57 Les méthodes RTSP ...........................................................................................1 5..........................................................................................................................................................................................................................1 3.......................................................2................................................................................................................................................................................................................................. 53 Le temps réel sur un serveur dédié ..........................1 3.......................................................................................................................................................1 2............. 37 Compression vidéo ................................................................................................1 3................Table des matières 5 Architecture d’un réseau de vidéosurveillance intelligente ........................................................1 3................. 44 5 Les normes de compression excitantes .............................................................................................................................. 49 L’approche Streaming .................................................................................................................. 50 RTP : Le Protocole temps réel .........4 2....................................................................................................................................2. 53 3 Le protocole RTSP .......................... 38 1...2 Le format YUV 4 :1 :1 ...............2.......................................... 35 Conclusion ..2 Architecture centralisée ............................................................................................... 55 ........................... 49 1 Notions sur la transmission des médias.............. 35 5............................................................................. 42 Appréciation des erreurs de compression ...2 3......................................... 39 3 Codage vidéo par estimation et compensation de mouvements ......................................................................................................................................................... 50 1.................................... 44 5.........................1 2.. 56 Utilisation de TCP seul .......... 56 Utilisation de RDT ............ 47 Conclusion ................................ 35 Architecture distribuée ........... 40 La structuration du flux vidéo ........3 1............... 45 Les normes de l’ISO-IEC ............................................................................ 54 RTSP et HTTP .......................................................... 55 Utilisation de RTP ... 51 RSVP : Réservation des ressources ..............................................3 3.................................... 36 Chapitre 3 ...............................................................................................................1 5.................... 57 2 Les méthodes de streaming ................................................................ 43 2 La compression de données .........1 Les normes de l’UIT-T .............................................1 1................................................2 3................................................................................................2 3.............................................................................3 La transmission multipoint ............................................................................. 52 Le temps réel sur un serveur web ................................................................................... 38 La réduction de l’entropie ............................... ......3...................................................2 3..........2 3............................................................................................................. 63 3 Étude du cas de RealNetworks .....................1 3......................... 60 1 Introduction ..................................................................................................................................................................................................1 2.....................................................6 3............................... 80 Schéma de la plate-forme réalisée .............................................................3.................................................................................................................................. 59 Chapitre 5 ............................................................. 69 Conditions de fonctionnement ..............................1.......................... 66 Realvideo ..........................................1.......... 60 Solution et réalisation ........................................ 78 Fonctionnement .......................3 3...... 86 2 Comparaison entre les technologies de streaming ................................................... 61 1............1 4. 75 La Sécurité .................................................................... 69 Fonctionnement .......2 3..................................................1...........................................................1 3........... 78 Transport des données ............................ 85 Configuration .......1 4................................................2 4.......... 81 ...............................................................................................................1 3......... 85 Le serveur web apache .................................................................................... 67 Options de compression .......................................................... 84 Configuration requises du noyau ...1 3.......................................................1 2... 63 Scalabilité ............ 65 Fonctionnement de RealProducer ..........................................2......... 75 RealPlayer ................................................................................. 72 Le multipoint ......................................................................4.......................4 3.......................................................................2..................................3 3....................................................... 85 Fonctionnement .................. 65 SureStream ..................... 81 Principe de l’ARP Proxy ........................................................................................................................ 64 Administration et sécurité ...............................3............................................................................... 82 L’utilitaire ipchains .................5 3...................................4 4................................3 3............................................2............. 78 Autres configurations ..................... 69 Méthode de livraison des médias ................................................ 61 Coût ..............................................................2 3...................................................... 65 4 Plate-forme réalisée ....................... 84 Logiciels utilisés ...2 3..2 3........................................................................4.............................................. 68 Le serveur de RealNetworks .................... 73 Gestion de la bande passante ...................................................Table des matières Conclusion ................4 4.... 64 Le codeur de RealNetworks ......................3 4.......1.........................................................................................................2.............................2....2.................................................................................................4..........................................................................................3 4.................................................................................3 Présentation de RealSyetem ...........................................2 4.................2 2................... .................................................Table des matières Conclusion ......................................................................................................................................................................................................................................... 88 ..................... 86 Conclusion Générale ....... 87 Bibliographie ..................................................... et les axes de recherche et d’exploitation d’aujourd’hui se sont totalement transformés. le premier chapitre est consacré à l’ONEP : son historique. le signal est dorénavant maitrisé sur le plan programmatique. et le quatrième chapitre je vais expliquer les méthodes de streaming utilisées et leur fonctionnement avant d’exposer la solution réalisée et ses résultats dans le dernier chapitre. ses activités et son organigramme. Ce progrès a aussi changé la manière dont on a pu exploiter nos systèmes classiques : la vidéosurveillance de nos jours ne répond pas seulement au problème de la sécurité mais elle aide aussi à dégager des statistiques sur le trafic routier sur des larges échelles.Introduction générale Introduction générale Le progrès en télécommunications numériques s’est conjugué au progrès calculatoire qui l’a précédé pour offrir la réalisation d’architectures complexes de systèmes communiquant entre eux dont la mise en liaison a permis de résoudre beaucoup de problèmes dans beaucoup de domaines. Il y a quelques années. et des données de comportement de la clientèle d’un centre commercial sur la petite échelle pour dorénavant assister à la prise des décisions ! La vidéosurveillance est dorénavant un domaine à part qui comporte des techniques et des objectifs totalement nouveaux. Dans ce projet. des systèmes de codage et des techniques de capture du signal images. 11 . de la représentation vers la transmission ou du traitement vers l’exploitation. le second chapitre traite l’étude générale du projet de vidéosurveillance. le troisième chapitre détaille l’aspect théorique des technologies de compression vidéo. on ne cite la vidéosurveillance que pour parler des systèmes de numérisations. et du coup tout a changé. La vidéosurveillance a ainsi évolué depuis les simples systèmes analogiques indépendants vers le client-serveur analogique numérique et depuis le client serveur simple vers les architectures distribuées qui délivrent un résultat riche et pertinent déduit à partir de la fusion de plusieurs informations issues de plusieurs caméras. Mais aujourd’hui. L’environnement utilisé est le suivant : · Système d'exploitation : Windows server 2003 et Linux 12 . utilisation des technologies de compression vidéo récentes.Contexte du projet Contexte du projet Environnement Ce projet comporte deux grandes parties : La mise en place d’une plateforme de vidéo surveillance logicielle permettant d’assurer les fonctions de bases d’un système de vidéo surveillance numérique. Chapitre 1 Organisme d’accueil : ONEP Historique Principales activités L’organigramme de l’ONEP Architecture réseau de l’ONEP Présentation de la DSI Résumé Ce chapitre introduit l’organisme d’accueil : Office National de l’Eau Potable (ONEP) son historique. et son . ses activités organigramme. Le statut de cet établissement est public. Sans oublier la direction de centre de formation aux techniques de l’eau interne à l’ONEP qui participe à la formation continue et aux diverses formations programmées pour assurer aux agents ONEP les performances requises. Ses missions principales vont de la planification à la distribution de l’eau potable en passant par les phases de l’étude. 14 . L’objectif de l’ONEP est fixé par les missions principales dont elle est investie telles qu’elles sont définies par son dahir de création. il vise l’intérêt général à caractère industriel et commercial. Sa création a permis un meilleur rapport qualité prix et l’élargissement du champ d’action au petit centre et au monde rural et la distribution de l’eau via les régies seulement lorsque les communes sont dans l’incapacité de le faire (l’ONEP à 200 centres en gérance). gestion et exploitation des unités de production et de distribution et du contrôle de la qualité des eaux (41 laboratoires) jusqu’à la protection de la ressource et ses derniers temps l’assainissement également.Chapitre 1 Organisme d’accueil : ONEP 1 Historique de l’ONEP L’Office National de l’Eau Potable a été créé en 1972 suite à la régie d’exploitation industrielle créée par le dahir du 19 juillet 1929 qui avait une activité très diversifiée durant le protectorat C’est le 1er établissement public qui a régi un contrat plan avec l’état prévoyant les obligations et les droits de chaque partie. l’ONEP est doté de l’autonomie financière et de l’autonomie de gestion. conception. réalisation (Travaux et prévisions financières). De plus. placé sous la tutelle du ministère de l’équipement. CONTROLER La qualité des eaux produites et distribuées et la pollution des eaux susceptibles d'être utilisées pour l'alimentation humaine. des projets de textes législatifs et réglementaires nécessaires à l'accomplissement de sa mission. GERER La production d'eau potable et assurer la distribution pour le compte des communes qui le souhaitent. en liaison avec les ministères intéressés. 15 . ASSISTER En matière de surveillance de la qualité de l'eau PARTICIPER aux études.Chapitre 1 Organisme d’accueil : ONEP 2 Principales activités PLANIFIER L'approvisionnement en eau potable du Royaume et la programmation des projets. ETUDIER L'approvisionnement en eau potable et assurer l'exécution des travaux des unités de production et de distribution. Chapitre 1 Organisme d’accueil : ONEP 3 Organigramme de l’ONEP Figure 1 : Organigramme de l’ONEP 16 . Chapitre 1 Organisme d’accueil : ONEP 4 Architecture réseau de l’ONEP Figure 2 : Architecture réseau de l’ONEP 17 . 1 Organigramme de la DSI « Direction contrôle de gestion et Systems d’information » Figure 3 : Organigramme de la DSI 18 .Chapitre 1 Organisme d’accueil : ONEP 5 Présentation de la DSI 5. net. Mettre en place et piloter un système de pilotage et de reporting à la Direction Générale.Chapitre 1 Organisme d’accueil : ONEP 5. Assurer la préparation et le bon déroulement des sessions du Conseil d’Administration « CA » de l’office . opérer des contacts et gérer des situations quasi nouvelles Et c’est bien en ce sens que nous considérons cette expérience très déterminante parce qu’elle nous a permis de mettre à l’épreuve notre savoir et perfectionner nos études et établir des communications écrites et orales avec les intervenants internes et externes de l’ONEP.2 Missions de la DSI MISSIONS Assurer le suivi et le pilotage du système de contractualisation interne . Conclusion Ce stage m’a été très bénéfique. Migration d’une application de gestion de mobilité de personnelles vers l’ASP. Participer à l’élaboration des contrats programmes. Piloter l’élaboration du budget et ses mises à jour . car il m ’a permis. Mettre en place un système de contrôle des performances . d’une part d’avoir plus d’informations concernant tout qu’est en relation avec les réseaux et systèmes et aussi bien la programmation Orientée Objet et d’autre part. 19 . il m’a permis de reconnaître des gens. ensuite nous dévoilons l’évolution de ce système vers le IP et enfin nous parlons de l’architecture d’un réseau de vidéosurveillance intelligente.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance Définition du domaine Composantes d’un système de vidéosurveillance Evolution des systèmes de vidéosurveillance Vidéosurveillance IP Architecture d’un réseau de vidéosurveillance intelligente Résumé Dans ce deuxième chapitre du présent rapport nous présentons une étude théorique du projet de vidéosurveillance en commençant par une définition du domaine de la vidéosurveillance et introduire les composantes d’un système de vidéosurveillance. . La sécurité logique cible la protection d’actifs informatiques d’une organisation et vise la mise en vigueur d’un ensemble de mesures de sécurité permettant d’assurer la confidentialité et l’intégrité des biens informatiques immatériels et des opérations informatiques. intervention. les lieux et les données. On cherche des méthodes et des technologies qui permettront de détecter les événements suspects et d’en prévenir les dommages sur les personnes.1 Sécurité La sécurité comprend deux aspects : la sécurité physique et la sécurité logique. et de les protéger contre toute forme de menace accidentelle ou humaine. Avec l’informatisation et la cybercriminalité qu’elle entraîne. quoiqu’encore récente. empêcher tout accès non autorisé aux équipements. la sécurité logique relève de spécialistes en technologies de l’information et administrateurs de systèmes informatiques. services de police. Dans son application. L’expression biens informatiques immatériels désigne les logiciels.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance 1 Définition du domaine 1. la sécurité logique. les biens. La sécurité physique traite des mesures physiques prises pour sauvegarder le personnel. installations. à l’heure où la protection physique et la surveillance reposent de plus en plus sur des technologies informatiques. la sécurité peut se répartir en cinq fonctions : protection civile. les données et les réseaux. Elle couvre donc la protection des personnes. 21 . les détériorations et le vol. On vise davantage la prévention d’incidents potentiellement catastrophiques plutôt que l’enquête après le fait. etc. gardiens. gagne en importance. Toutefois. investigation et rétablissement. des biens et des lieux. prévention. on note un changement de paradigme en sécurité. sécurité physique et logique ont tendance à converger. matériels et documents et à les protéger contre l'espionnage. Depuis les événements du 11 septembre 2001 survenus aux États-Unis.). Alors que la sécurité physique est habituellement prise en charge par du personnel de sécurité (agents de sécurité. le sabotage. le plus souvent motorisées. la détection et le contrôle d’incendies. elle constitue un outil d’enquête irremplaçable pour la résolution de crimes. le Royaume-Uni constitue d’ailleurs la société « la plus surveillée » avec un nombre estimé à plus de quatre millions de caméras de surveillance déployées sur son territoire. les systèmes assurant la sécurité des personnes et la détection d’intrusion. la gestion technique de bâtiments. Cette dernière inclut aussi le contrôle d’accès.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance 1. Celle-ci s’avère indispensable pour le suivi des opérations et la gestion des incidents de sécurité dans les lieux publics et privés. et puis ceux de Londres en 2005. mais elle a connu un développement fulgurant suite aux attentats de septembre 2001 aux États-Unis. Elle capte sur image les flux de personnes pour surveiller les allées et venues. prévenir les vols. principalement au Royaume-Uni. De plus.2 vidéosurveillance La vidéosurveillance est un segment de l’industrie de la sécurité physique. agressions et fraudes. L’implantation de la vidéosurveillance s’est intensifiée au cours des années 1990. ainsi que pour gérer les incidents et mouvements de foule. À l’heure actuelle. pour lutter contre les activités terroristes. qui transmettent les images saisies à un équipement de contrôle qui les enregistre ou les reproduit sur un écran (Figure 4). de méfaits ou de 22 . La vidéosurveillance consiste à surveiller à distance des lieux publics ou privés. La peur grandissante face au terrorisme n'est pas le seul facteur d’adoption de la technologie de vidéosurveillance. Figure 4 : Caméras de surveillance Bien que ses premières utilisations remontent aux années 1950. la surveillance au moyen de systèmes de télévision en circuit fermé (TVCF) s’est vraiment développée à partir des années 1970. à l'aide de caméras. • Passive : un employé surveille un petit nombre d’écrans de télévision en s’adonnant à d’autres tâches. Les enregistrements sont conservés pendant une durée déterminée. les réseaux TVCF intègrent maintenant des composantes numériques. de façon sommaire. Toutefois.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance litiges. la preuve ne semble pas encore faite que la vidéosurveillance actuelle permette de prévenir les incidents de sécurité ou qu’elle fasse chuter la criminalité. Une description plus détaillée de l’infrastructure des systèmes de vidéosurveillance 23 . dépendant des besoins et des limites des espaces d’archivages. à des fins d’enquête et de preuve. 2 Composantes d’un système de vidéosurveillance Cette section présente. Un réseau de télévision en circuit fermé (TVCF) est un système vidéo qui transmet des images en boucle fermée. Seuls des utilisateurs détenant des droits d’accès au réseau peuvent accéder à l’information fournie par les caméras. Les activités de sécurité d’un réseau de TVCF sont : • Dissuasion • Observation • Surveillance • Collecte de renseignements • Évaluation d’un incident probable et intervention connexe • Évaluation d’un incident en cours et intervention connexe • Analyse judiciaire après l’incident • Analyse des éléments de preuve après l’incident Il existe trois types de vidéosurveillance : • Active : surveillance d’une aire pour appuyer le travail sur place d’agents de sécurité ou lors d’intervention d’urgence. dans certains cas. L’accès au réseau de transmission peut. Autrefois uniquement analogiques. • Enregistrement : permet de collecter des renseignements. se faire par Internet. les différentes composantes matérielles et logicielles des systèmes de vidéosurveillance. Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance 2.1 Acquisition Il existe une panoplie de modèles de caméras répondant à différents besoins de surveillance. Elles sont analogiques ou numériques et peuvent être motorisées ou non. Plus spécifiquement, on retrouve les types de caméras suivants. Fixe : Pointée dans une direction unique, elle couvre une zone définie (une entrée, une portion de stationnement, etc.). C’est la caméra de surveillance traditionnelle. Elle constitue un excellent choix lorsqu’on désire que la présence de la caméra, ainsi que sa direction de surveillance, soient visibles. PTZ (Pan-Tilt-Zoom) : Motorisée, elle peut être actionnée, manuellement ou automatiquement, dans des mouvements panoramique/inclinaison/zoom. Elle sert à suivre des objets ou des individus se déplaçant dans la scène ou à zoomer sur des régions d’intérêt (par exemple, sur une plaque d’immatriculation). * Dôme : Recouverte d’un caisson hémisphérique, ce qui la rend discrète et, dans certains modèles, résistante au vandalisme et aux intempéries. Elle peut être fixe ou mobile. Les versions motorisées couvrent une zone très large, grâce à leur balayage horizontal de 360° et de 180° à la verticale. Bien qu’en « tour de garde », elle puisse remplacer dix caméras fixes en balayant l’aire à surveiller, elle n’observe qu’une seule direction à la fois. * Mégapixel : Offre une résolution plus élevée que les caméras standards, allant de 1 à 16 mégapixels. Elle permet soit de capter une image plus détaillée, soit de couvrir un plus large champ visuel, réduisant le nombre de caméras nécessaires pour couvrir une aire à surveiller. Lorsqu’utilisée avec un grand angle, elle possède un espace de visualisation allant généralement de 140° à 360°. Offrant la possibilité de zoomer de façon logicielle dans l’image, elle peut ainsi devenir une alternative à la caméra PTZ mécanique qui entraîne l’usure des pièces. Sa résolution élevée contribue à l’amélioration de la performance des algorithmes de détection et de reconnaissance exigeant un haut niveau de détails, telles que la lecture de plaques d’immatriculation et la reconnaissance de visage. * Infrarouge et thermique : Sensible au rayonnement infrarouge (IR), elle est capable de produire une image de bonne qualité dans le noir pour une surveillance nocturne. De nuit, elle filme en noir et blanc, mais elle peut produire une image couleur le jour. Certaines caméras infrarouges sont équipées de leur propre source de lumière IR, allumée lorsque le niveau d’éclairage chute sous un certain seuil. Des projecteurs IR séparés (lampe ou LED) peuvent 24 Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance aussi être utilisés. Les caméras thermiques enregistrent le rayonnement de chaleur des objets. Elles ne requièrent aucune source d’illumination. * Panoramique : Grâce à une optique spéciale, elle offre 360° de visibilité avec une seule caméra. Elle permet un PTZ virtuel dans l’image. Les principales technologies panoramiques pour la surveillance sont le fisheye, la lentille à miroirs et la lentille panomorphe. Toutefois, la résolution de ces caméras est souvent insuffisante pour des analyses nécessitant un niveau de détail élevé. 2.2 Transmission La vidéo captée par les caméras de surveillance doit être transmise aux systèmes d’enregistrement, de traitement et de visionnement. Cette transmission peut se faire par câble (câbles coaxiaux ou à fibre optique, fils de cuivre torsadés) ou à travers l’air (signaux infrarouges, transmission radioélectrique). La vidéo filaire prédomine largement dans les systèmes de vidéosurveillance. Elle offre une plus grande bande passante et une meilleure fiabilité que les connections sans fil, à un coût inférieur. Cependant, la transmission vidéo sans fil s’impose parfois comme solution, par exemple dans le cas de surveillance de grands périmètres où l’installation de câblage s’avérerait trop coûteuse, ou lorsque les zones à surveiller sont impossibles à rejoindre par câble. Qu’il transite par fil ou sans fil, le signal vidéo peut être analogique ou numérique. Encore aujourd’hui, la majeure partie des transmissions vidéo pour la surveillance sont analogiques. Néanmoins, les réseaux informatiques (LAN, WAN ou Internet) sont de plus en plus utilisés pour transporter la vidéo grâce au protocole IP. Les caméras IP peuvent se connecter directement sur ces réseaux, tandis que les flux vidéo émergeant de caméras analogiques doivent, au préalable, être numérisés par un encodeur, aussi appelé serveur vidéo, pour passer par les réseaux IP. 2.3 Compression La vidéo numérisée représente une grande quantité de données à transmettre et à archiver. L’envoi d’une séquence vidéo peut nécessiter jusqu’à 165 mégabits de bande passante et la vidéo d’une seule caméra pour une journée peut occuper sept gigaoctets d’espace disque. C’est pourquoi la vidéo de surveillance doit être compressée grâce à des codecs, algorithmes permettant de réduire la quantité de données en supprimant les redondances, par image ou entre les trames d’une séquence, ainsi que les détails imperceptibles à l’œil humain. Selon le type de compression, l’usage du processeur requis pour l’exécution du codec est plus ou 25 Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance moins intensif. Un compromis s’impose donc entre le taux de compression et les ressources du processeur qui sont accaparées. Il existe deux grands groupes de standards internationaux de compression : JPEG, créés par le Joint Photographic Experts Group, et MPEG, élaborés par le Moving Photographic Experts Group. Dans le premier groupe, on retrouve les formats JPEG pour les images fixes, et MJPEG pour les séquences vidéo. Le second groupe comprend les formats MPEG-1, MPEG-2, MPEG-4 et H.264. À l’heure actuelle, MJPEG et MPEG-4 sont les standards les plus répandus en vidéosurveillance. Toutefois, avec les améliorations en qualité et efficacité (taux de compression, latence, résistance à l’erreur) qu’il apporte, H.264 devrait bientôt remplacer MPEG-4. En effet, sans affecter la qualité de l’image, l’encodeur H.264 permet de réduire la taille de celle-ci de plus de 80 % par rapport à la compression MJPEG, et de 50 % par rapport à la compression MPEG-4. Et je vais parler de la compression vidéo plus en détail dans le chapitre suivant. 2.4 Traitement Les systèmes de gestion vidéo opèrent les traitements des images de vidéosurveillance, tels que la gestion des différents flux vidéo, le visionnement, l’enregistrement, l’analyse et la recherche dans les séquences enregistrées. Il existe quatre grandes catégories de systèmes de gestion vidéo. • Enregistreur vidéo numérique (DVR) : Appareil qui dispose d’un disque dur interne pour l’enregistrement numérique de la vidéo et d’un logiciel intégré de traitement de la vidéo. Il n’accepte que les flux provenant de caméras analogiques, qu’il numérise. Les modèles récents permettent de visionner la vidéo à distance sur ordinateur. Encore très répandus, ils laissent toutefois peu à peu leur place aux systèmes supportant la vidéo IP de bout en bout. • Enregistreur vidéo hybride (HDVR) : Similaire à l’enregistreur numérique, mais accepte à la fois le branchement de caméras analogiques et IP. Il est possible de rendre hybrides plusieurs modèles d’enregistreurs vidéo numériques par l’ajout d’un logiciel. • Enregistreur numérique réseau (NVR) : Conçu pour les architectures réseaux IP de vidéosurveillance, il ne peut traiter que les signaux vidéo provenant de caméras IP ou d’encodeurs. • Logiciel de vidéosurveillance IP : Solution purement logicielle de gestion de la vidéo sur un réseau IP. Dans le cas de systèmes de surveillance comportant peu de caméras, un navigateur Web peut suffire à gérer la vidéo. Pour de plus gros réseaux de vidéosurveillance, 26 Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance un logiciel dédié de gestion vidéo doit être utilisé. Celui-ci s’installe sur un ordinateur personnel ou un serveur. Plus complexe à installer, en raison des configurations nécessaires du serveur, il offre une plus grande flexibilité pour le choix et l’ajout de composantes au réseau de vidéosurveillance. Les logiciels de vidéosurveillance IP représentent une tendance forte en gestion vidéo, surtout dans les infrastructures comportant un grand nombre de caméras. Les plateformes ouvertes permettent d’intégrer facilement des caméras et composantes matérielles de différents manufacturiers. 2.5 Archivage La période d’archivage des séquences vidéo varie selon les besoins de surveillance, allant de quelques jours à quelques années. En moyenne, les organisations conservent les preuves vidéo entre 30 et 90 jours. Le déploiement de vastes réseaux de caméras et l’utilisation de vidéosurveillance à haute résolution fait exploser les demandes pour les systèmes de stockage. Bien que le coût des supports d’enregistrement ait considérablement baissé dans les dernières années, l’archivage représente souvent une part importante des dépenses d’infrastructure en vidéosurveillance, en raison de la quantité toujours croissante de données vidéo à stocker. Les solutions de stockage sont de deux types : • Interne : Les disques durs intégrés aux enregistreurs vidéo numériques ou aux serveurs représentent la forme d’archivage la plus répandue. Elle peut offrir jusqu’à quatre téraoctets d’espace. Certaines caméras IP disposent même d’une carte mémoire ou d’un disque USB permettant d’enregistrer des heures, voir des jours de vidéo. Les solutions internes d’archivage conviennent bien pour les systèmes de vidéosurveillance de taille modeste, comprenant jusqu’à 50 caméras. • Rattaché : L’archivage se fait sur des appareils externes aux enregistreurs ou serveurs vidéo. De type NAS (Network Attached Storage) ou SAN (Storage Area Network), ces systèmes offrent un espace de stockage partagé entre les différents clients du réseau. Sur un système de stockage en réseau NAS, un fichier est archivé sur un même disque dur, alors qu’avec le réseau de stockage SAN, un fichier peut être sauvegardé en fragments répartis sur plusieurs supports de stockage. Ces solutions d’archivage rattachées sont particulièrement avantageuses pour les grands réseaux de vidéosurveillance comportant un grand nombre de caméras. Bien que plus onéreuses que les systèmes internes d’archivage, ces solutions rattachées sont supérieures en termes d’extensibilité, de flexibilité et de redondance. 27 utilisent souvent un mur d’écrans vidéo. les agents peuvent faire une revue périodique des différentes sources vidéo. sur un téléphone ou dispositif portable. il est possible de regarder la vidéo directement de l’enregistreur. Sans nécessairement regarder toute la vidéo captée. des agents de sécurité visionnent. l’on retrouve plusieurs systèmes hybrides. au cas où un visionnement soit nécessaire suite à un incident.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance 2. Amorcée avec l’apparition de l’enregistreur numérique. intégrant composantes analogiques et numériques. de façon mobile. Ceux-ci offrent une grande surface de visionnement et permettent d’afficher différents flux vidéo. les images provenant des caméras de surveillance. elle se poursuit vers une conversion totale à l’infrastructure IP. Toutefois. supervisant des centaines de caméras. 3 Évolution des systèmes de vidéosurveillance La transition numérique en vidéosurveillance s’est opérée en plusieurs étapes. La vidéo de surveillance peut être visionnée sur différents appareils. les images seront regardées à distance. Elle est simplement archivée. simultanément à son enregistrement. sur un ordinateur ou. La figure ci-dessous présente les jalons importants qui ont marqué l’évolution vers la vidéosurveillance intelligente sur réseau IP. Dans de petites installations. en temps réel. la vidéosurveillance a principalement servi comme outil d’enquête.6 Affichage Une grande partie de la vidéo captée par les caméras de surveillance n’est jamais regardée. Figure 5 : Evolution du matériel de vidéosurveillance 28 . Plus généralement. dans plusieurs cas de surveillance. où la vidéo est transmise sur réseau intranet ou Internet de la caméra à l’écran de visionnement. Traditionnellement. Dans ce passage. Les grands centres d’opérations de sécurité. • Avantages . 3. Il permet d’afficher quatre. .Les systèmes analogiques sont très fiables . selon les besoins de surveillance. Avec un magnétoscope conçu à cet effet. comme sur les réseaux numériques. • Inconvénients . Les transmissions vidéo se font sous protocole IP à partir de l’enregistreur 29 . soit à partir de l’enregistrement.Ne permet pas le visionnement à distance.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance 3. Les modèles récents sont équipés d’un port Ethernet. . soit en temps réel.Il faut changer les cassettes fréquemment (aux trois jours ou plus). Aucune compression n’est effectuée sur les signaux vidéo. l’enregistrement à taux de trame (frame rate) réduit permet d’économiser de l’espace sur la bande vidéo. l’enregistreur numérique remplace à la fois le multiplexeur et le magnétoscope analogique. ou d’enregistrer ceux-ci sur un même système d’archivage.Nécessite un nettoyage et un entretien régulier des magnétoscopes. à un magnétoscope qui enregistre la vidéo sur cassette. des caméras analogiques sont connectées par câbles coaxiaux (un câble par caméra) aux écrans de surveillance et.Simple à utiliser. . Un multiplexeur peut être utilisé pour grouper les flux vidéo de plusieurs caméras en un seul signal composite qui est transmis au magnétoscope ou à un moniteur analogique. permettant la connexion à un réseau et l’accès à distance à la vidéo.La qualité de la vidéo est inférieure à celle des systèmes numériques.2 Deuxième génération : système hybride Le remplacement du magnétoscope à cassette par un enregistreur numérique (DVR) représente la première étape de la transition numérique en vidéosurveillance. les enregistreurs numériques archivent la vidéo sur des disques durs.La qualité de la vidéo enregistrée se détériore avec le temps.1 Première génération : le tout analogique Dans le réseau TVCF analogique traditionnel. neuf ou 16 signaux vidéo sur un même écran. Apparus dans les années 90. ils ne requièrent pas de compétences informatiques. Comportant souvent plusieurs entrées vidéo. pour des fins d’archivage.Ce sont des systèmes propriétaires. . . . quant à lui. ils permettent un passage presque complet à l’infrastructure réseau pour la vidéosurveillance.Possibilité de chercher rapidement dans les enregistrements vidéo. sans détérioration avec le temps. les enregistreurs numériques et les enregistreurs numériques hybrides sont des technologies très répandues. . L’enregistreur numérique hybride (HDVR).Aucune cassette à changer. • Inconvénients : . peut recevoir à la fois les flux vidéo de caméras analogiques et IP.Surveillance vidéo et opération du système à distance à partir d’un PC.Concentration des tâches de numérisation. Ils sont offerts sous une plateforme ouverte (un ordinateur muni d'un logiciel de gestion vidéo) ou dans un matériel propriétaire dédié. . ce qui augmente les coûts de maintenance et de mise à jour. . sont utilisés pour convertir les signaux provenant de caméras analogiques et les transmettre en flux IP sur un réseau via un commutateur. 30 .L’enregistreur numérique est un appareil propriétaire. Les encodeurs vidéo peuvent être utilisés avec l’enregistreur vidéo réseau (NVR). Alors qu’on estime que 95 % des caméras sont encore analogiques.La vidéo archivée est de meilleure qualité. compression vidéo. • Avantages . tout en conservant les caméras analogiques existantes en place. Sous cette dernière forme. Les encodeurs vidéo. puisque que la vidéo est constamment transmise sous le protocole IP à travers le réseau. excepté qu’il nécessite l’usage d’encodeurs pour opérer avec des caméras analogiques. l’enregistreur vidéo réseau se compare à un enregistreur numérique hybride.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance numérique. aussi appelés serveurs vidéo. Tout en conservant les caméras analogiques. Il représente une solution efficace pour moderniser un système de vidéosurveillance en profitant des avantages des nouvelles caméras IP. Ceux-ci ne peuvent traiter et enregistrer que des flux vidéo IP.Le nombre d’entrées vidéo de l’enregistreur numérique (souvent un multiple de 16) contraint l’ajout de caméras. . enregistrement et réseautage dans la même machine. tout en conservant les caméras analogiques. Ils permettent la transition vers un système hybride de vidéosurveillance sur réseau IP. un système de vidéosurveillance est complètement IP.Chapitre 2 • Avantages Etude théorique et analyse du projet de vidéosurveillance .Gourmand en bande passante..Si l’enregistrement centralisé n’est pas requis. notamment ses avantages et inconvénients. beaucoup de gens considèrent qu’un système de vidéosurveillance dont la vidéo est transmise sous protocole IP à partir des encodeurs.3 Troisième génération : le tout numérique IP Au sens strict. les caméras peuvent être analogiques. Ces réseaux comprennent donc des caméras réseau. 3. . de façon centralisée). . sont fournis dans la section suivante. Il s’agit de caméras intégrant leur propre encodeur. centralisation des enregistrements). la quantité d’espace disque nécessaire à l’enregistrement. L’enregistrement est fait sur serveur ou sur des enregistreurs vidéo réseau propriétaires. . . à des serveurs (ordinateurs personnels). via des commutateurs réseau.Utilisation d’ordinateurs et de matériel standards de réseau pour l’enregistrement et la gestion de la vidéo.Si le réseau tombe en panne. . Toutefois. constitue un système réseau IP. 31 .Architecture distribuée qui offre flexibilité. le taux de trames. Plus de détails sur la vidéosurveillance IP et. l’enregistrement peut être interrompu. l’utilisation d’enregistreurs vidéo réseau est souvent plus coûteuse que celle d’enregistreurs numériques. Les traitements sont effectués sur le serveur ou dans les périphériques. en autant qu’elles soient reliées à des encodeurs. si l’enregistrement est fait hors du site de surveillance (par ex. munis d’un logiciel de gestion vidéo. Celles-ci sont reliées. • Inconvénients . aussi appelées IP.Possibilité d’enregistrer à l’extérieur du site de surveillance (par exemple. extensibilité (peut ajouter une caméra à la fois) et redondance (en cas de bris ou pannes). Dans ces systèmes.Nécessitent des calculs complexes pour déterminer le nombre de flux vidéo pouvant être supportés par le serveur. lorsque toutes ses composantes sont numériques et toutes les transmissions sont effectuées sous le protocole IP. le niveau de compression et d’autres facteurs liés aux capacités du réseau. via Internet ou un réseau LAN ou WAN.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance 4 Vidéosurveillance IP Depuis deux ans. l’infrastructure réseau est rapide et facilement extensible. En effet. • Ils peuvent inclure de l’analytique vidéo. Elle repose sur une infrastructure plus souple que la vidéo analogique. combinant transmission câblée et sans fil. encore aujourd’hui. environ le double des caméras analogiques. La vidéosurveillance sur réseau IP offre de nombreux avantages. tels qu’une meilleure qualité d’image. le marché de la vidéosurveillance migre de la vidéo analogique à la vidéo IP. réseaux. n’importe quand. le règne des caméras analogiques pourrait se prolonger encore quelques années. les caméras IP offrent des avantages techniques sur les caméras analogiques. Le coût élevé des caméras IP. Les caméras constituent le facteur de résistance. PTZ. Avec les améliorations apportées par les manufacturiers aux enregistreurs vidéo et l’existence d’enregistreurs vidéo hybrides. La sauvegarde se fait sur réseau (NVR). n’importe où. etc. enregistrement. reste le principal frein à l’achat. On peut y accéder à distance. Les réseaux IP de vidéosurveillance de dernière génération présentent les caractéristiques suivantes : • • • • • • Ils sont numériques de A à Z : caméras. seulement un acheteur sur quatre choisit des caméras IP. une résolution plus élevée et de l’intelligence embarquée. elle ne fait que débuter et il est difficile de prédire à quel rythme le « tout IP » prendra le dessus sur les technologies analogiques en vidéosurveillance. accès. Ils utilisent du matériel non propriétaire. Cet essor de la vidéosurveillance réseau est favorisé par le perfectionnement des processeurs. Bien que cette transition s’observe. il est estimé que 95 % des 40 millions de caméras installées à travers le monde sont encore analogiques. etc. panoramiques. Ils fonctionnent avec des serveurs distribués et multiplateformes. la baisse des coûts de stockage et l’amélioration des algorithmes de compression. De plus. Il n’y a pas de limite au nombre de caméras qui peuvent s’y ajouter. sur un cellulaire ou un assistant numérique personnel. sans fil. Pourtant. Ils peuvent inclure différents types de caméras : intelligente. De plus. mégapixel. Considérant que les systèmes actuels peuvent 32 . soit d’un centre de contrôle. Par exemple. une seule caméra mégapixel peut souvent remplacer plusieurs caméras. etc. C’est pourquoi les caméras IP sont surtout déployées pour la surveillance d’institutions. intégrant des processeurs. car le coût du câble coaxial est très élevé. le logiciel de gestion vidéo pourra activer automatiquement le zoom optique ou numérique sur une caméra du 33 . en réponse à un événement suspect. de bout en bout du système. La configuration de ces réseaux avec redondance. Il est ainsi possible de sélectionner les composantes les plus adaptées à son application de surveillance. Par exemple. telles que les établissements scolaires. Ces caméras. en fonction de la vidéo traitée. De plus. réduit les pertes de qualité qu’occasionnent les conversions d’analogique à numérique. les caméras mégapixel IP offrent des avantages indéniables au niveau de la vidéosurveillance. dans ces réseaux. contrôle d’accès. le mauvais fonctionnement d’une caméra ou d’un enregistreur peut signifier une perte définitive de vidéo. Bien que son coût soit élevé. L’architecture ouverte des réseaux de vidéosurveillance IP permet de combiner le matériel de différents manufacturiers. comparativement à 25 à 30 il y a quatre ans. Ces métadonnées servent ensuite à indexer le contenu vidéo pour permettre des recherches plus performantes dans les séquences captées. De plus. dont les coûts ne cessent de baisser. assure une meilleure fiabilité. de ménager la bande passante en ne transmettant que les données pertinentes pour la sécurité. Il suffit d’ajouter des disques durs pour augmenter la capacité de stockage. De plus. permet de conserver des années de vidéo plutôt que quelques jours ou semaines avec les magnétoscopes ou enregistreurs numériques. l’architecture IP facilite l’intégration de différents systèmes de sécurité (vidéo. Dans ces réseaux. il est possible de filtrer les événements pertinents dans la vidéo et de ne transmettre que les métadonnées les décrivant.). les campus de grandes entreprises. Les caméras intelligentes. cette facilité d’étendre le réseau de vidéosurveillance est très attrayante lorsqu’on pense déployer un nouveau système. Les caméras IP apportent de nombreux bénéfices techniques. ainsi. tant au niveau de la transmission que de l’archivage. la transmission numérique de la vidéo. apportent des gains techniques aux systèmes de vidéosurveillance de nouvelle génération. Il est aussi possible.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance facilement comporter entre 400 et 500 caméras. Ceci permet d’économiser de la bande passante. de transmettre des commandes aux caméras. Elles permettent de distribuer les calculs pour les traitements d’analytique vidéo et. les caméras IP deviennent un choix avantageux. ont le potentiel de résoudre plus de crimes. par des traitements logiciels intelligents. l’archivage sur réseau. Dans un réseau entièrement analogique. présentant une résolution nettement supérieure à celle des caméras analogiques. les municipalités et les bases militaires. Pour les installations étendues comportant de grandes distances entre les caméras et les systèmes d’enregistrement. alarmes de feux. dont les données transitent par les réseaux Ethernet ou Internet. afin de rester compétitive. Les enregistreurs numériques offrent désormais plusieurs avantages comparables aux technologies sur réseaux IP : accès à distance. l’installation de systèmes de vidéosurveillance sur réseau IP requiert des compétences en technologie de l’information. Le second problème touche à la gestion de ces systèmes. Aussi.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance réseau pour un suivi plus précis de la situation. est responsable du système de vidéosurveillance : le personnel de sécurité physique ou les services informatiques ? Le flou qui existe encore sur cette question dans les organisations retarde bien souvent le passage à la vidéosurveillance IP. dans le cas d’infrastructures analogiques existantes. l’utilisation de caméras analogiques avec enregistreurs numériques offre donc un excellent rendement. dans l’organisation. Dans ce cas. capacité analytique. la technologie des enregistreurs numériques a beaucoup progressé. les réseaux IP de vidéosurveillance offrent de nombreux avantages. qui est maintenant bien répandue. Le passage à la vidéosurveillance IP comporte tout de même certains inconvénients. à des coûts moindres que la vidéo IP.). Bien que sur le plan technologique. etc. La plupart des intégrateurs et installateurs en vidéosurveillance sont issus du secteur de la sécurité physique. capacité de gérer un grand nombre de caméras. l’utilisation d’encodeurs pour numériser les signaux analogiques permet de conserver les caméras en place et d’implanter un réseau hybride. 34 . Finalement. qui. détection d’intrusion. Le premier réside dans l’installation. le bon fonctionnement de la vidéosurveillance devient tributaire de la fiabilité du réseau. passer d’un réseau de télévision en circuit fermé à un système de vidéosurveillance. Pour de petites installations de vidéosurveillance. ceci nécessite de mettre en place les mécanismes de sécurité adéquats pour protéger la vidéo de surveillance. Évidemment. Une fois installés. l'intégration de la vidéosurveillance sur réseaux IP suivra peut-être celle de la téléphonie IP. Encore peu d’intégrateurs et installateurs de vidéosurveillance sont spécialisés dans ce domaine. particulièrement en réseautique. Par exemple. soulève les questions de sécurité informatique. refaire tout le filage réseau peut représenter un coût élevé. intégration avec les autres systèmes (contrôle d’accès. À cet égard. De plus. le déploiement de ceux-ci pose certains problèmes organisationnels. systèmes de points de vente. Or. Comme ils doivent aussi gérer l’encodage. les encodeurs ou dans les commutateurs réseau. plutôt que d’envoyer des flux vidéo à l’enregistreur numérique ou à un ordinateur central.1 Architecture centralisée Dans une architecture centralisée. 35 . 5. De plus. tous les traitements intelligents sont concentrés en un même endroit. l’architecture distribuée répartit les traitements intelligents dans les différents nœuds du système de vidéosurveillance. L’intelligence peut aussi être partagée entre les périphériques et l’unité centrale de traitement. Ainsi. les enregistreurs numériques et serveurs ne peuvent accomplir des tâches d’analytique vidéo que sur un nombre restreint de caméras. elle offre une meilleure extensibilité. commander le déplacement d’une caméra PTZ pour opérer une surveillance active. sur des caméras intelligentes dotées de processeurs. Le réseau informatique doit pouvoir soutenir ce trafic. c’est un serveur informatique (un PC) qui opérera les traitements analytiques. puisque l’ajout de caméras n’est pas nécessairement limité par la puissance de calcul de l’enregistreur numérique ou du serveur. seules des métadonnées extraites sur la vidéo sont transmises. Dans les systèmes traditionnels. c’est l’enregistreur numérique qui récoltera tous les flux vidéo pour en faire l’analyse. Dans cette architecture. 5. au besoin. dans le cas des systèmes de vidéosurveillance sur réseau. les calculs nécessaires à l’analytique pourront être faits en périphérie.Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance 5 Architecture intelligente d’un réseau de vidéosurveillance Les systèmes de vidéosurveillance intelligente peuvent être déployés selon deux grands types d’architecture. l’enregistrement et le visionnement des flux vidéo. la transmission de tous les flux vidéo en un point centralisé consomme beaucoup de bande passante.2 Architecture distribuée Comme son nom l’indique. Pour les infrastructures en réseau. L’une comme l’autre opèrent des traitements intelligents pour extraire des données sur les images vidéo et peuvent. De plus. L’analyse vidéo nécessite une grande puissance de calcul qui monopolise une part importante des ressources du processeur. Cette infrastructure aide à diminuer les coûts de câblage et la bande passante requise dans un réseau de vidéosurveillance. soit centralisée ou distribuée. Nous étudions dans ce qui suit l’aspect théorique de compression vidéo qu’est une composante importante d’un système de vidéosurveillance dans le but d’apporter des solutions théoriques qui se prêtent bien à une implémentation pratique. 36 .Chapitre 2 Etude théorique et analyse du projet de vidéosurveillance Conclusion Ce chapitre a présenté le sujet et les contraintes qui se posent. Chapitre 3 Compression vidéo La représentation d’une séquence vidéo La compression de données Codage vidéo par estimation et compensation de mouvements Les images de référence Les normes de compression existantes Résumé Dans ce troisième chapitre nous abordons l’axe principal de notre service qui est la compression vidéo. Le traitement de la vidéo passe par des étapes justifiées soit par les défauts de l’organe humains relatifs ou par les propriétés statistiques de l’image pour cela nous allons développer dans ce chapitre les normes de compression vidéo existantes. . et une composante V (voir Figure 6). Celle-ci est généralement de 8 bits pour les niveaux de gris et de 24 bits pour les séquences en couleurs. une solution pour réduire ce débit est de sous-échantillonner les composantes de chrominance de la séquence. U et V les composantes Rouge et Bleu (chrominances). nécessitera un débit de 137 Mb/s (mégabits par seconde). en sous-échantillonnant les composantes U et V. Dans ce sigle. La résolution spatiale. un codage des couleurs sur 24 bits. Le débit d'une séquence vidéo brute est très élevée compare aux débits et à l'espace offerts par les moyens de stockage et de transferts actuels. La valeur de ces trois paramètres détermine l'espace mémoire nécessaire pour stocker chaque image de la séquence. Mais surtout la partie Y (luminescence) permet une parfaite compatibilité avec les anciens équipements en noir et blanc. et une fréquence de 25 images par seconde. La résolution en luminance détermine le nombre de nuances ou de couleurs possibles pour un pixel.Chapitre 3 Compression vidéo 1 La représentation d’une séquence vidéo Une séquence vidéo brute est une suite d'images fixes. le format YUV est utilisé pour la transmission des signaux vidéo analogiques couleurs. soit 4 composantes de chrominance pour une composante U. quant à elle. 1. Historiquement et techniquement. L'œil humain étant plus sensible aux variations de luminance que de chrominance. on utilise l'espace de représentation de couleurs YUV. Enfin. définit le nombre de lignes et de colonnes de la matrice de pixels. Cet espace mémoire est caractérise par le débit. Par exemple. qui est le coût de stockage pour une seconde (capacité mémoire nécessaire pour stocker une seconde de vidéo). sa résolution spatiale et sa résolution temporelle. Y représente la luminance.1 Le format YUV 4 :1 :1 Dans un premier temps. une séquence ayant une résolution de 720 par 576 pixels. 38 . Ces 3 informations permettent de restituer au final les composantes RGB et apporte l'avantage de permettre une compression facile des couleurs et de fiabiliser le transport du signal vidéo. Dans le format YUV 4 :1 :1. les composantes de chrominance sont réduits à la moitié de la résolution verticale et horizontale de la composante de luminance. ce qui a permis le déploiement de la diffusion couleur alors que la totalité des foyers étaient alors équipes de téléviseurs noir et blanc. la résolution temporelle est le nombre d'images par seconde. qui peut être caractérisée par trois principaux paramètres : sa résolution en luminance. en modifiant son mode de représentation. tandis que la deuxième n'en restituera qu'une approximation. la compression sans pertes et la compression avec pertes. Dans la suite. nous étudierons les techniques permettant de réduire les redondances spatiales et temporelles.Chapitre 3 Compression vidéo Figure 6 : Le format YUV 4 :1 :1 Ce sous-échantillonnage correspond à une réduction de la redondance psycho-visuelle. tout en minimisant les erreurs visibles. Pour cela. et l'introduction de pertes dans le processus de compression permet d'obtenir de meilleurs résultats sans empêcher l'interprétation du contenu visuel (voir Figure 7). Dans le cas de la compression d'images naturelles (par opposition aux images de synthèse). la compression sans pertes est insuffisante. Le but est de réduire le débit de la séquence vidéo à compresser. 2 La compression de données Dans cette section nous allons nous intéresser aux techniques utilisées pour compresser le signal vidéo en utilisant la redondance spatiale. La compression de données permet de réduire la quantité d'information. 39 . Figure 7 : Introduction des pertes dans le processus de compression La première permet de retrouver l'information initiale après décompression. il existe deux principales techniques. que nous allons étudier maintenant. alors qu'elle sera plus faible si la distribution est concentrée autour de quelques valeurs seulement. Le but de la réduction de l'entropie est par conséquent de transformer la distribution des valeurs de l'information à transmettre.Chapitre 3 Compression vidéo Les normes vidéo actuelles utilisent un système de codage hybride avec compensation du mouvement basé sur des blocs et réduction de l'entropie par transformée (voir Figure 8). Figure 8 : schéma général d’un codeur vidéo 40 . ou encore. l'incertitude moyenne sur le prochain pixel qui va être traité. L'entropie sera maximale si la source obéit à une loi uniforme.1 La réduction de l’entropie L'entropie (H(X)) d'une image est la quantité moyenne d'informations apportée par chaque nouveau pixel transmis. 2. La compression par compensation de mouvement consiste pour une image. car la mise en correspondance n'est pas complète. Elle peut donc être appliquée à l'image entière. 3 Codage vidéo par estimation et compensation de mouvements La technique que nous allons maintenant étudier permet d'exploiter les redondances temporelles. ce qui a la propriété d'alléger les calculs lors d'opérations matricielles. les pixels voisins présentent une forte corrélation. L'application d'une transformée sur une image naturelle permet d'obtenir des composantes dont la variance est concentrée sur les composantes de basses fréquences. En plus d'être codées et transmises. L'image ainsi transformée est ensuite quantifiée puis compressée à l'aide d'un codeur entropique. Cette compensation et ces erreurs sont ensuite transformées. L'estimation de mouvement est faite par mise en correspondance de blocs des images (ou bloc matching). de ce fait. elles subissent également une quantification inverse et une transformation inverse. avant d'être transmises. quantifiées et codées. est d'effectuer les prédictions à partir des images décodées. Le but de décoder les images à l'intérieur du processus d'encodage. à ne coder que les erreurs résultantes de l'estimation de mouvement faite à partir d'une image de référence. Parmi les transformations utilisées pour la compression d'images. Cette estimation n'est qu'une approximation. La KLT est la transformée optimale. la quantification. Dans le cas des images naturelles. 41 . sont donc ajoutées aux vecteurs de mouvement. puisque composée des vecteurs propres de la matrice de covariance de l'image. Cette dépendance induit un coût de calcul élevé. les capacités de la DCT sont très proches de celle de la KLT tout en réduisant la complexité de calcul.Chapitre 3 Compression vidéo La réduction de l'entropie est compostée de trois étapes. qui consistent en la différence entre l'image prédite et l'image compensée. et le codage entropique. contrairement à la DCT qui est appliquée par blocs pour limiter les calculs. afin d'obtenir les vecteurs de mouvement correspondant. tel que la décorrélation. afin de travailler avec les mêmes informations que le décodeur cible. la transformée en cosinus discrète (DCT) et les transformées en ondelettes discrètes (DWT). fortement présentes dans une séquence vidéo naturelle. que ne présentent pas les deux autres transformées. mais comporte l'inconvénient d'être dépendante des données. La décorrélation est opérée par un codage par transformée. La DWT a l'avantage de produire une matrice contenant beaucoup de zéros. on peut citer la transformation de Kahrunen-Loève (KLT). Les erreurs résiduelles. tandis que le mode inter utilise la compression temporelle. et plus la dépendance entre les images sera forte. lors du codage d'un bloc d'une image. Les commutateurs présents dans la Figure 2.3 page cicontre représentent le choix du mode de codage. Un GOP débute toujours par une image « I ». le décodage de tout le début de la séquence étant nécessaire. En effet. L'introduction des images induit un délai de décodage additionnel. et sur le temps de décodage. plus le GOP sera long.Chapitre 3 Compression vidéo 3. quantification et codage). et la taille du GOP sont des paramètres qui influeront sur le taux de compression. Les images « I » sont codées en mode intra. est ensuite suivie d'image « P ». qui constitue l'image-clé du GOP. Les images sont regroupées en GOP (Group Of Pictures) composées de trois types d'image. il est nécessaire d'avoir l'image précédente pour décoder l'image en cours. intercalées par des images de type « B » (voir Figure 2. Les images « P » sont codées par compensation de mouvement à partir de la dernière image « I » ou « P ». le 42 . puisque les images « P » postérieures doivent être décodées avant que les images B antérieures puissent être décodées. Cette image. Les images « B » sont prédites bi directionnellement à partir d'images « I » ou « P ».1 La structuration du flux vidéo Ce codage prédictif rend les images interdépendantes. mais moins il y aura d'images « I » qui freine sensiblement le taux de compression. et sont donc indépendantes mais demandent plus de ressources. Cette dépendance est gênante si l'on souhaite naviguer de manière aléatoire. La fréquence des images de type « P ».4). le décodage du reste de la séquence étant impossible. ou si une image est perdue lors d'un transfert. En effet. C'est pourquoi le processus de compression comprend deux modes : le mode intra et le mode inter. puisque lors du décodage. Figure 9 : Exemple d’agencement d’un GOP Le choix du mode de codage peut être fait sur les images entières (déterminé par la structure de GOP utilisé) ou sur des blocs d'images. Le mode intra correspond à une compression spatiale sans compensation de mouvement (transformée. d'obtenir la meilleure fidélité (ou la plus grande distorsion) compte tenu de la capacité du canal de transmission. Cette optimisation peut être faite à l'aide des techniques de minimisation de Lagrange fondées sur la théorie du débit-distorsion Figure 10 : Allure typique d’une courbe du rapport débit / distorsion 43 . qui détermine la contrainte de débit. et s'obtient ainsi : Cette mesure de la distorsion couplée avec le débit de la séquence résultante permet d'apprécier le compromis entre le gain de la compression et la qualité de restitution. Ce compromis est visible sur la courbe de la Figure 10. en général. Le but étant.Chapitre 3 Compression vidéo processus de compensation de mouvement peut s'avérer inefficace. dans ce cas. 3. Cette grandeur est un gain qui s'exprime en décibels. le bloc est codé en utilisant le mode inter. De cette EQM. Ces pertes sont mesurées par l'erreur quadratique moyenne (EQM) qui est calculée à partir de l'image originale et de l'image reconstruite. on dérive une autre grandeur. appelée peak signal to noise ratio (PSNR). plus significative.2 Appréciation des erreurs de compression La quantification est l'opération qui introduit les pertes. de nouvelles images sont utilisées : les objets mosaïques.Chapitre 3 Compression vidéo 4 Les images de référence On appelle image de référence. Cette section décrit les principaux standards normalisés à l’UIT-T et à l’ISO/IEC. l'image qui va être utilisée pour prédire une image et estimer le mouvement à compenser. rien n'est spécifié dans ce standard en ce qui concerne le processus de construction. Il est souvent utilisé sous la forme d'objet mosaïque plan (voir Figure 11 ) appelé MOP (Mosaic Object Plane) qui est construit à partir d'une séquence de vues de l'objet considéré. Cette mosaïque est généralement plus grande qu'une image de la séquence. 5 Les normes de compression excitantes Les codeurs vidéo actuellement normalisés (familles H. 44 . pour construire de tels objets. Le principe de construction consiste à recaler les images (ou portions d'images) traitées dans le référentiel de l'objet mosaïque . Ces images peuvent être utilisées pour représenter sur une seule image la totalité d'une scène. Un objet mosaïque contient l'ensemble de l'information disponible sur un objet physique donné. En revanche. Figure 11 : Exemple d’image mosaïque construite à partir d’un ensemble d’images Le standard MPEG-4 a ajouté le mode de codage sprite aux modes intra et inter. Cette image peut être simplement une image précédemment codée dans la séquence. Dans les dernières normes.26x ou MPEG-x) utilisent tous le même principe de base dont la connaissance aide à comprendre à la fois leurs potentialités et limites d’utilisation. optionnel.1 Les normes de l’UIT-T Première norme vidéo approuvée en 1993. Cette prédiction correspond à la construction d'une image P. Les formats d'image traités sont le QCIF (144x176 pixels) et le CIF (288x352 pixels). Le filtrage. la transformée espace-fréquence (DCT). Le vecteur de mouvement estimé sur la luminance pointe un MB inclus dans l'image précédemment reconstruite. La fréquence image de base est 29. la quantification et le codage entropique.261 vise les applications de visiophonie pour le réseau RNIS à des débits multiples de 64 kbit/s. macrobloc (MB) et enfin bloc.97 Hz mais peut être réduite (sous-multiples). 45 . Le schéma de codage (Figure 12) est constitué de plusieurs modules : l’estimation et la compensation de mouvement. Les chrominances sont prédites par le même vecteur mouvement dont les coordonnées ont été divisées par 2 et arrondies à l'entier le plus proche.15 pixels. Le flux vidéo est structuré en quatre niveaux : image. Le codeur intègre également un décodeur qui effectue les opérations inverses.Chapitre 3 Compression vidéo 5. Pour la compensation de mouvement chaque MB peut être affecté d'un vecteur de mouvement dont les dimensions horizontales et verticales ne peuvent excéder +/. H. le calcul des résidus. est un filtre spatial à deux dimensions non récursif travaillant au niveau pixel sur des blocs de taille 8x8 intervenants dans la boucle de codage. groupe de blocs (GOB). La version 2 de la recommandation H.263 est une norme de codage vidéo pour la communication vidéo à très bas débit dont la première version fut adoptée en 1995. La dernière version de H. met en œuvre douze options supplémentaires et permet désormais de définir des formats et fréquences d'image personnalisés. souvent appelée H. Les formats d’images sont des multiples et sous-multiples du CIF (352x288 pixels). appelée H.263+.263++. ce qui améliore grandement la qualité de la vidéo en réduisant fortement les effets dits "moustiques".263 (2000).261 H.261. Les options ajoutées améliorent fortement la qualité et la robustesse aux erreurs. ajoute trois 46 .263 (1998). Cette norme repose sur les principes mis en place par la recommandation H. Le codeur H. Elle vise les applications de visiophonie et de visioconférence sur RTC et RNIS. L'utilisation d'image B est désormais possible. Les caractéristiques de vidéo (Taille fréquence) sont transmises dans le flux vidéo.263 a la possibilité d'effectuer des compensations en mouvement avec une précision au demi-pixel.Chapitre 3 Compression vidéo Figure 12 : Schéma de codage H. Concernant le codage de la vidéo traditionnelle. quantification optimisée par l’utilisation de matrices de quantification. images de types I (Intra). scalabilité visant la compatibilité TV/TVHD.263 ainsi que de nouveaux outils lui conférant une plus grande efficacité en compression tels que des modes de scalabilité plus adaptés à une transmission sur réseaux à débit fluctuant ainsi qu’une plus grande robustesse aux erreurs de transmission. Il est également utilisé comme format de codage du DVD (Digital Vidéo Disc). elle prend mieux en compte la transmission vidéo temps réel sur des réseaux à qualité de service non garantie (IP et mobiles).5 Mbps. d’images fixes (codage par ondelettes) ainsi que d’objets synthétiques 3D. Elle permet le codage d’une grande variété de format vidéo (taille. 5. à la fois au niveau professionnel (production audiovisuelle.MPEG-1 n’est plus guère utilisée aujourd’hui si ce n’est en compression du son avec le format MP3 pour le stockage de la musique La norme MPEG-2 a été définie pour les applications liées à la TV numérique. optimisation des outils MPEG-1 (dynamique des vecteurs mouvements.) et au niveau du grand public (diffusion vers les postes TV).Chapitre 3 Compression vidéo options et une spécification à la version antérieure. P (Prédite) ou B (Bidirectionnelle). cette norme adresse une large gamme d’applications audiovisuelles allant de la visioconférence à la production audiovisuelle en passant par le streaming sur Internet ou encore la réalité virtuelle distribuée. Cette norme a été construite sur la base de H. résolution.). De ce fait.1 Les normes de l’ISO-IEC Première norme de compression vidéo développée par l’ISO/IEC. MPEG-1 vise une qualité équivalente au VHS (format SIF ou CIF) à un débit de 1. MPEG-4 est une norme générique de compression destinée à la manipulation d’objets multimédia. 47 . Ce standard a été adopté par le consortium DVB (Digital Video Broadcasting) pour les services de TV numérique par voie hertzienne terrestre (DVB-T) et satellite (DVB-S). Outre l'amélioration en termes de qualité et de taux de compression. prédiction spatiale du coefficient DC pour les images I. fréquence image) mais aussi le codage d’objets vidéo de forme arbitraire. etc. MPEG-4 combine les outils de MPEG-2 et H. Elle reprend les principes de MPEG-1 en ajoutant les outils indispensables pour les applications télévisuelles : traitement des formats entrelacés. etc.261 dont elle reprend les principes en les améliorant : compensation de mouvement au 1⁄2 pixel. Le MPEG4 utilise également un système de licence beaucoup plus facile. le rendant plus attractif à l’utilisation.Chapitre 3 Compression vidéo Conclusion Le MPEG4 apporte une solution efficace pour l’encodage vidéo. 48 . et promettent une qualité élevée à débit bien plus bas que le MPEG2. Son utilisation commence à faire son apparition un peu partout et le MPEG4 est devenu assez célèbre au public au travers des codecs dit DivX. Ses algorithmes sont relativement évolues. . à savoir le RTSP. nous aborderons brièvement un protocole dédie au streaming. Ensuite.Chapitre 4 L’approche Streaming Notions sur la transmission des médias Les méthodes de streaming Le protocole RTSP Résumé Dans ce chapitre. nous présenterons tout d’abord des notions sur la transmission des medias et après on verra les méthodes de streaming existantes. Ainsi. sous une adresse unique multipoint. Au lieu d’être répétés par la source. sur un segment. chaque serveur devrait répéter le flot de paquets vers autant de destinataires qu’en comporte la liste de diffusion. oblige à dupliquer n fois le flux de paquets. La bande passante globale utilisée est considérablement réduite. des paquets de données d’une source vers plusieurs destinataires représentés par une adresse unique. la transmission d’une information vers n destinataires ne requiert plus que l’émission d’un seul flux de paquets par la source. ne voyage qu’une seule copie d’un même paquet. emporte la liste des adresses de tous les correspondants. L’envoie d’une information vers n destinataires.Chapitre 4 L’approche Streaming 1 Notions sur la transmission des médias 1.1 La transmission multipoint Le mode multipoint ou « multicast » consiste à transmettre sur le réseau. Figure 14 : Transmission multipoint d’un flux 50 . Figure 13 : Transmission unipoint d’un flux En utilisant le multicast. Chaque paquet. pour les routeurs et les branches du réseau. Les routeurs et les nœuds intermédiaires assurent la réplication des paquets aux intersections. En utilisant le protocole IP standard. La consommation de ressources est très importante en temps machine. les paquets sont dupliqués par les noeuds intermédiaires de routage. pour préserver la continuité du service. dans le cas d’un réseau en étoile. 51 . Les entêtes IP.2 RTP : Le Protocole temps réel Le transport de paquets dans un réseau non déterministe ne garantit pas les délais. ils ne fournissent pas l’horodatage qui faciliterait la remise en forme temporelle du flux : les paquets retardataires ne seront pas éliminés. 1. C’est le rôle du « Real time Transport Control Protocol ». Il assure l’horodatage des paquets en imposant une estampille de temps. par lesquels les destinations informent la source du niveau de qualité de service constatée. Supposons que l’on veuille émettre un même fichier vers 100 destinataires.3 RTCP : Le Protocole de contrôle Une transmission temps réel. a pour stratégie d’abandonner les paquets perdus. La remise en ordre des paquets se trouve ainsi simplifié. Pour cette raison. il faudra alors ouvrir 100 connexions et en définir à chaque interlocuteur ses paramètres. Il est indépendant du protocole transport sous-jacent. Il faut donc mettre en place un échange de rapport de réception.Chapitre 4 L’approche Streaming Les applications multipoints seront difficiles à mettre en œuvre en mode connecté. Le récepteur doit donc préalablement restaurer la synchronisation du flux. RTP fournit des informations très utiles au transport des contenus. UDP ou même TCP ne datent pas les paquets. RTCP. le multipoint n’apporte pas d’améliorations. le groupe de travail « Audio Vidéo Transport (AVT-WG) » a été chargé au sein de l’IETF de développer un protocole qui faciliterait le transport des données temps réel. 1. C’était alors RTP. Ils permettent à l’émetteur de connaître l’efficacité de la transmission. qui indique l’heure de leur création. elle ne peut être fiable. D’autres part. « Real time Transport Protocol » est un protocole de transport adapté aux applications présentant un caractère temps réel. ainsi. 52 . En effet. Le « Resource reSerVation Protocol ». du récepteur vers l’émetteur. lorsqu’une application demande un niveau de qualité de service. Cette information peut être immédiatement utilisée par la source. Ces fonctions de compte rendu sont effectuées grâce aux rapport émis par un récepteur et reçus par une source.4 RSVP : Réservation des ressources Les congestions sont la cause principale des pertes d’information et des retards d’acheminement. Les paquets RSVP voyagent donc à contre courant. La figure 16 illustre le fonctionnement du protocole. Une solution envisagée consiste à incorporer dans les routeurs intermédiaires une stratégie dynamique de régulation des flux. Les protocoles RTP et RTCP ne s’attaquent pas directement aux pertes de paquets et n’évitent pas les congestions. elle transmet une requête RSVP au nœud de rattachement. C’est à la couche application aux extrémités de s’adapter à la situation. pour adapter le type de codage. RSVP a été alors introduit. Celui-ci distribue la requête à tous les nœuds intermédiaires traversés par les paquets depuis la source émettrice. prédéterminé par le protocole de routage réseau. 1. RSVP achemine la réservation de bande passante le long d'un chemin de données.Chapitre 4 L’approche Streaming Figure 15 : Paquets RTP et RTCP RTCP fournit un retour d’information sur la qualité de réception des données transmises dans les paquets RTP. Ils se contentent d’assister l’émetteur et le destinataire dans leur activité d’échange de contenu. deux méthodes pour acheminer le contenu se sont développées : Dans la première. il déclenche le lecteur du côté du client.1 Le temps réel sur un serveur web Cette approche n’est en fait qu’une évolution du modèle « Download and play » classique. Cependant cette méthode a un avantage. A l’opposé du mode « Download and play ». Les différences sont dans les fonctionnalités du lecteur. Dans la deuxième. temps nécessaire à la « bufferrisation » des premières données. on utilise un serveur spécifique dédié au temps réel. présenté au premier chapitre. que tous les paquets réémis arrivent à temps. puisqu’un 53 . Cette méthode s’appuie donc sur HTTP. 2 Les méthodes de streaming Au fur et à mesure du développement des médias temps réel. Lorsque le lien est activé. De ce fait il ne peut assurer. Le client commence à jouer après seulement quelques secondes de téléchargement. TCP utilise l’algorithme dit de « slow start ». le but de TCP est d’assurer le transport des données d’un bout à l’autre sans pertes de paquets tout en restant efficace du point de vue débit. grâce à un algorithme tenant compte des contraintes du temps réel. Les sources vidéo et audio sont d’abord compressés dans un fichier. Jusque là. rien ne diffère du téléchargement classique. dans ce cas RSVP renvoie un message d’erreur à l’application. pour être joués par le lecteur temps réel. Elle utilise les infrastructures existantes.Chapitre 4 L’approche Streaming Figure 16 : Principe du RSVP Certaines demandes de qualité de service peuvent être incompatibles avec les ressources d’un des nœuds de la chaîne. 2. un serveur Web standard est utilisé pour fournir les données au client. Pour y arriver. des limitations de la bande passante. Optimisé pour les applications ne nécessitent pas de temps réel (transfert de fichiers par exemple). protocole qui utilise les services de TCP pour le transport de données. Ces fichiers sont placés sur un serveur Web standard où se trouve également le fichier HTML y faisant référence. TCP finalise ce travail de fiabilité en réémettant les paquets perdus. Les données sont envoyées au client de façon dite « intelligente ». Ces fonctions. La différence réside dans le fait que les fichiers compressés sont placés sur un serveur dédié au temps réel. si elles sont réalisables dans l’approche HTTP. le choix de cette solution sur de simples critères de coûts matériels. 54 . pause et retour). aucun nouveau matériel ou logiciel n’a besoin d’être installé et géré. si la demande en flux temps réel est forte. Protection des copyrights : les serveurs dédiés peuvent interdire la copie des fichiers envoyés sur le cache du client. Dans le cas du système basé sur serveur Web. Cela. UDP est un protocole rapide et léger : il ne réémet pas les paquets perdus et il n’intègre pas de fonctions de gestion de flux et de congestion. en supposant un même niveau de congestion sur le réseau. Il est important à noter que la charge supplémentaire imposée aux serveurs HTTP. Bien que ces serveurs puissent utiliser les protocoles HTTP et TCP. dans la mesure où le serveur peut réajuster le débit en fonction de l’état du réseau. A la différence de TCP. le serveur peut décider de réduire la qualité de l’information transmise afin de se contenter de la bande passante disponible. Plus de fonctionnalités : la technique permet l’utilisation de fonctions avancées. créera. Ainsi. Les pages HTML qui y font référence sont toujours placés sur le serveur HTTP.Chapitre 4 L’approche Streaming serveur Web est forcement déjà présent pour le transfert des fichiers HTML. sont difficiles à implémenter. Meilleure qualité pour l’utilisateur : en cas de congestion. où aucun retour d’information du poste client n’est possible. un besoin de nouvelles ressources pour répondre à de nombreuses demandes de flux audio et vidéo. L’utilisation d’un serveur dédié présente plusieurs avantages : Meilleure utilisation des capacités du réseau : le protocole UDP utilisera mieux la bande passante que TCP. typiquement celles d’un magnétoscope (avance rapide. n’est pas forcement judicieux. 2. la régulation du débit n’est pas possible. en fait un protocole idéal pour les flux temps réels ou l’ordre des informations reçues est plus important que la perte des paquets.2 Le temps réel sur un serveur dédié Dans cette approche. En cas de congestion la lecture cessera pour un temps qui sera nécessaire pour la « bufferisation ». les premières étapes sont similaires à l’approche Web. ils peuvent surtout choisir le protocole RTSP qui utilise UDP. dans la plupart du temps. Le serveur et le client restent en étroite collaboration durant le processus. RTSP peut utiliser d’autres protocoles. est un protocole de la couche application. En fait. contrairement à HTTP. au niveau du streaming. Le serveur essaiera d’abord de transmettre en utilisant le protocole optimal : UDP. 3 Le protocole RTSP RTSP. Mais puisque beaucoup d’administrateur réseau ferment le trafic au firewall UDP. Le serveur et le client peuvent tous les deux. jusqu’à ce que celle-ci soit explicitement interrompue par le client.1 au niveau de la syntaxe et des opérations. RTSP permet également de surveiller la qualité de la transmission à travers RTCP. Principalement. Cette section présentera brièvement quelques propriétés de RTSP. Il a été conçu pour transmettre et contrôler un ou plusieurs flux synchronisés d’objets média. tels que RTP et RDT (Real Data Transport). Il a été développé par RealNetworks. RTP et RDT. le serveur tentera de transmettre via TCP brut ou via TCP + HTTP. il est clair que l’utilisation de la deuxième catégorie sera plus bénéfique. deux protocoles sont utilisés à ce propos. il maintient l’information sur la session en cours. Cependant certains aspects. 3. De plus il a un identificateur de protocole différent.2 Les formats de paquets de données En général. 3. lancer des requêtes. Aux termes de cette comparaison entre les serveurs Web et les serveurs dédiés. Ils sont capables de passer d’un protocole a l’autre sans intervention du récepteur. le 55 . sur un réseau IP. pour transporter les données. RTSP est un protocole avec état. contenant le pourcentage et le nombre de paquets perdus. Pour cela le client émet périodiquement à destination du serveur des rapports sur la qualité de la transmission.Chapitre 4 L’approche Streaming Mode de livraison multiple : les serveurs dédiés supportent différentes configurations de protocoles. un serveur de RTSP peut utiliser n'importe quel type de format de paquet pour envoyer des données médias à un client. qui est basé sur le modèle client-serveur. Netscape Communications et Columbia University avec la contribution de l’IETF qui l’a publié comme standard en avril 1998.1 RTSP et HTTP RTSP ressemble à HTTP 1. Parmi ces différences : RTSP dispose d’un certain nombre de nouvelles méthodes. Real Time Streaming Protocol. différencient RTSP du HTTP. Un canal UDP unidirectionnel. 56 . pour demander au serveur de renvoyer les paquets. Le port standard de connexion de TCP pour un serveur de RTSP est 554. pour le contrôle et la négociation. pour le contrôle et la négociation. 3. Dans le cas où c’est ce protocole qui est utilisé. trois connexions : Une connexion TCP bidirectionnelle.1 Utilisation de RTP Le client RTSP établie trois canaux de connexion avec le serveur. etc. UDP de données médias. pour la livraison des données médias. RTSP tient compte d’une variété d’options pour le transfert des données. Cependant. Un canal UDP unidirectionnel.2. alors que le RTCP doit opérer sur le prochain port consécutif. Dans ce cas. Par conséquent. Figure 17 : Les communications client/serveur dans le cas du RTP Le numéro de port RTP doit être pair. qui opère sur le même niveau que RTP.Chapitre 4 L’approche Streaming délai de transmission. à travers lequel RTCP est utilisé. le client établira. comprenant ainsi UDP. Un canal UDP bidirectionnelle. Le serveur reçoit ces rapports et apprécie s’il y a congestion. de même que dans le cas précédent. UDP multicast et TCP. 3. Une connexion TCP bidirectionnelle.2 Utilisation de RDT RDT est un protocole propre à RealNetworks. il utilise uniquement TCP pour la transmission des commandes et des réponses. pour la livraison des données médias à travers RTP. perdus. lorsque les données sont livrées par RTP (voir figure 17) . le port RTCP est toujours un nombre impair. la source réduit alors le débit émis D’autre part.2. Un deuxième canal UDP unidirectionnelle. Chapitre 4 L’approche Streaming Figure 18 : Les communications client/serveur en mode RDT 3.3 Les méthodes RTSP Les différentes requêtes RTSP sont définies à travers un ensemble de méthodes (voir figure 20).3 Utilisation de TCP seul Les données médias peuvent être mis dans des paquets RTP ou RDT. Figure 19 : Les communications client/serveur en mode TCP seul 3. sur un serveur RTSP. SETUP : Elle est utilisée par le client pour spécifier au serveur les paramètres de transport du flot média. identifié par un URI (Uniform Resource Identifier). Les principales méthodes sont : DESCRIBE : Elle est utilisée par le client pour récupérer la description d'une présentation ou d'un objet média. le mode de transport (point à point ou multipoint) et le numéro du port de communication. Dans ce cas une seule connexion TCP bidirectionnelle est utilisée pour le contrôle et le transfert des données. comme par exemple le type de protocole de transport. qui seront transporter par TCP.2. 57 . Figure 20 : Fonctionnement de RTSP En résumé. plusieurs éditeurs de logiciels se sont intéressés à mettre en place des outils de streaming utilisant ce protocole. Vu l’efficacité du protocole RTSP. En plus. a chaque instant. plus adapté aux médias. il maintient une horloge qui est associée à chaque objet média transmis. RTSP permet donc la mise en œuvre de stratégies de filtrage des données du côté du serveur et donc à la source. par exemple jouer une audio à partir de la 10ème seconde jusqu'à la 20ème seconde. Elle permet également de jouer un ou plusieurs sous-intervalles de la durée d'un objet média. il est inutile de l’envoyer au client qui l’a rejetterai à sa réception. La section suivante présentera ces différentes platesformes. PAUSE : Elle est utilisée par le client pour demander au serveur d'interrompre temporairement le transfert du flux média. Dans ce cas. si une partie des données à transmettre. TEARDOWN : Elle est utilisée par le client pour demander au serveur d'arrêter définitivement le transfert du flux média. Le client peut reprendre la transmission du flux en envoyant la requête PLAY au serveur. qui lui permettent un transfert de données. a déjà dépassé son échéance. 58 . RTSP dispose de plusieurs fonctionnalités. C’est cette horloge qui permet de déterminer.Chapitre 4 L’approche Streaming PLAY : Elle signale au serveur qu'il peut commencer à envoyer les données via le mécanisme spécifié dans la méthode SETUP. ainsi que les caractéristiques du protocole RTSP et des serveurs l’utilisant. dans ce chapitre. Le chapitre suivant présentera la solution réalisée. Nous avons présenté également quelques outils permettant de résoudre les problèmes déjà cités.Chapitre 4 L’approche Streaming Conclusion Ce chapitre nous a permis de découvrir la notion de streaming. 59 . liés aux transmissions temps réel. Nous avons pu voir aussi. différents problèmes. qui est basée sur des logiciels que je vais les mentionner dans ce chapitre ainsi que d’autre outils complémentaires.Chapitre 5 Solution et réalisation Introduction Comparaison entre les technologies de streaming Etude du cas de RealNetworks Plate-forme réalisée Résumé Dans ce dernier chapitre je décrierai la plateforme réalisée. . Chapitre 5 Solution et réalisation 1 Introduction RealNetworks a développé une famille de logiciels. c’est un outil de création des médias (son. Il est disponible sur toutes les plates-formes. dans le but de réaliser une architecture complète pour le streaming. il est à sa version 11. Figure 21 : Les composants de real system RealProducer C’est le codeur de Real Networks. MOV. Cette famille est appelée « RealSystem ». Le rôle de cet outil de production consiste à optimiser le codage pour une transmission efficace sur Internet ou encore sur des Intranets. autres outils de création du contenu peuvent être utilisés. La figue suivante illustre comment ces composants sont reliés ensemble. · « RealPlayer ». une vidéo ou une animation en un format que le serveur peut transmettre.1 Présentation de RealSyetem Real System est une famille d'outils. cependant. c’est le logiciel client permettant de jouer les présentations servies. 1. La création du contenu peut être faite en différé ou bien parallèlement à l’évènement qui se produit. RealProducer est utilisé pour convertir un son. Actuellement. Mais puisque le RealServer supporte plusieurs formats (AVI. pour servir les médias. WAV et MP3). ils ne seront pas aussi performants que le RealProducer surtout que c’est le seul programme capable de 61 . · « RealServer ». vidéo ou animation). composée essentiellement de trois logiciels : · « RealProducer ». Il joue le rôle du codeur. qui présenteront les séquences vidéo enregistrée sur le serveur vidéo. il servira ses données selon les protocoles RTSP. La figure 22 présente les différentes étapes intermédiaires entre le clique du client et la visualisation de la vidéo. RealPlayer 11 est disponible en deux versions : le « RealPlayer Basic » et le « RealPlayer Plus ». PNA (Progressive Network Audio) ou HTTP. En fait ce serveur Web. il est doté d’une interface d’administration à distance. suivant les situations. Ses dispositifs de control d’accès et d’authentification permettent un très bon niveau de sécurité. il est maintenant à sa version 8. 62 . De plus. En plus de RealServer. RealPlayer C’est l’outil le plus connu. à savoir RealPlayer. RealServer RealServer utilise plusieurs protocoles pour fournir les médias aux clients à travers l’Internet ou des Intranets. Real Networks dispose d’un autre outil aussi important à savoir le « RealProxy ». de type Apache. la version « Plus » n’est pas gratuite et dispose de plus de fonctionnalités. Le schéma de la communication n’est pas aussi simple qu’il paraît.Chapitre 5 Solution et réalisation communiquer avec le serveur lorsqu’il s’agit de transmettre des données parallèlement à leur production. très facile à manipuler. Cet outil élimine les transmissions redondantes. le logiciel client. Il est doté de plusieurs fonctionnalités lui permettant de communiquer également avec un serveur Web. réalisant ainsi un streaming avec le protocole HTTP. RealPlayer est le seul logiciel client capable de communiquer avec un RealServer. Ainsi. se déclenchera pour permettre la visualisation des vidéos. parmi ceux de Real Networks. Contrairement à la version « Basic ». la plate-forme contiendra un serveur Web. réduisant ainsi la bande passante utilisée et permettant de servir plus de clients. Lorsqu’un utilisateur clique sur un lien donné. ne sert qu’à contenir des pages HTML. RealServer présente plusieurs avantages. Avec sa version 11. de scalabilité. le nom et l’emplacement de la vidéo dans RealServer. en transmettant la vidéo désirée. 2. Le NetShow de Microsoft est gratuit. qui peut être téléchargé gratuitement. il est partie standard de Windows 2000 et Windows NT. il reconnaît que ce type de fichier ne lui est pas destiné. Il cherche alors le programme approprié. Ce dernier répondra en dernière étape. cette section abordera les différences entre les trois technologies en matière de coût. Lors de la deuxième étape. Les trois technologies fournissent également un ensemble de logiciels pour manipuler et synchroniser les médias temps-réel. le navigateur Web reçoit un petit fichier qui pointe sur le contenu désiré. Pour pouvoir choisir l’outil convenable. Tous ces serveurs monopolisent le micro processeur de la machine serveur. Cependant. une comparaison s’impose. d’administration et de sécurité. Les dernières mises à jour sont disponibles au site Web de Microsoft. Dans l’étape suivante. Ensuite.1 Coût Tout serveur dédié nécessite un logiciel client approprié. Il est alors impossible d’exploiter simultanément le serveur vidéo comme serveur Web ou serveur de fichiers. Ainsi RealPlayer est lancé. Ainsi.Chapitre 5 Solution et réalisation Figure 21 : Initialisation des communications entre RealServer et RealPlayer Tout d’abord lorsque le client clique sur un lien qui l’intéresse. La qualité améliorée de la dernière version fait de Windows Media 63 . 2 Comparaison entre les technologies de streaming QuickTime Streaming Server d’Apple. il enviera une requête au serveur vidéo. amenant l’utilisation du CPU à 100% lors de la diffusion des images via le réseau. Windows Media Server (également connu sous le nom de NetShow) de Microsoft et RealServer de RealNetworks sont les serveurs dédiés les plus connus. le navigateur Web contacte le serveur vidéo. RealPlayer lira dans le fichier reçu. capable de comprendre ce qu’il y a dans le fichier reçu. connu sous le nom de « Darwin Streaming Server ». Le coût de RealServer dépend du nombre maximal de connexions simultanées qu’il peut supporter. en utilisant différentes compressions. Quant à QuickTime.2 Scalabilité La scalabilité permet de servir une vidéo. il ne propose aucune fonction d’administration distante. chacune avec ses propres configurations de compression. Le RealServer existe pour toutes les plates-formes. En plus de la vitesse de la connexion de l’utilisateur.Chapitre 5 Solution et réalisation Server un choix convenable pour une société à environnement Windows. mais qui seront fusionnées ensemble dans un grand fichier simple. On peut produire deux versions de chaque fichier (bonne et mauvaise qualité). apporte moins de contrôles. En matière de sécurité. sur lesquelles il fonctionne de la même façon. Cependant. le serveur de média teste la vitesse de connexion du client. les fichiers doivent être comprimés en utilisant une technique spécifique appelée « SureStream ». écrit en Java. il a été initialement développé pour son propre système d’exploitation. Il est facile à administrer mais il impose d’utiliser Internet Explorer et d’installer un Active X en complément du navigateur Web. Chaque serveur traite la scalabilité d’une manière légèrement différente. On peut créer alors jusqu’à six versions différentes d’une vidéo. Solaris et Linux aussi bien que la version initiale de Macintosh. Ceci n’influe pas sur la qualité. RealServer permet le control d’accès. RealServer communique avec RealPlayer de la même manière. l’authentification des clients ainsi que le 64 . mais il permet de réduire le nombre de fichiers à gérer. qui est téléchargeable sur le site Web d’Apple avec des versions pour Windows NT et 2000. de RealServer est particulièrement utile. Cette approche signifie qu’on a deux copies de chaque fichier à traiter ce qui augmente le temps et l’effort pour contrôler le site.3 Administration et sécurité Le client d’administration distante. Quand quelqu’un demande une vidéo. Real Networks ne fournit pas son serveur gratuitement et c’est tout à fait raisonnable puisqu’elle n’a aucune autre source de revenu. QuickTime est le plus souple des trois technologies. le serveur peut vérifier d’autres détails tels que la vitesse du processeur de la machine qui télécharge la vidéo. Windows Media Server est le plus limité. Cependant Apple a également développé un code source. Il permet de produire n’importe quel nombre de versions d’une vidéo. Le produit de Microsoft. 2. 2. Il sert alors la version la plus appropriée. de haute qualité aux utilisateurs disposant d’une bande large et de qualité inférieure à ceux ayant une bande étroite. A la différence des deux premières. En ce qui concerne le serveur d’Apple. une comparaison entre les trois meilleures technologies de streaming. Nous avons pu voir dans ce paragraphe. ont été invitées à fournir les logiciels serveurs et les outils nécessaires pour créer. administration distante simple à mettre en œuvre.1 Le codeur de RealNetworks Fonctionnement de RealProducer RealProducer peut convertir les sons et les vidéos à partir de fichiers (AVI. Une comparaison qui a donné l’avantage à la famille RealSystem de RealNetworks. 65 . de tell ou telle vidéo en fonction des permissions sur les répertoires. Elle présente plusieurs avantages : images de haute qualité. modifier et importer les vidéos.Chapitre 5 Solution et réalisation cryptage du flux vidéo et la configuration de la durée d’affichage et des droits de visualisation. s’avère la meilleure solution pour diffuser de la vidéo sur réseau numérique. Toutes les sociétés. en relation avec le streaming. 3 Étude du cas de RealNetworks 3. Figure 22 : Comparaison des technologies de streaming Au terme de ces tests. MOV. QT. QuickTime présente des lacunes de sécurité alors que Windows Media Server utilise les avantages des fonctions de base de Windows NT telles que les listes de contrôles d’accès et les permissions de fichiers. Le tableau suivant résume les résultats des tests.1 3. fonctionnement identique quelle que soit la plateforme de visualisation. la technologie de Real Networks. La comparaison a été faite en tenant compte de plusieurs contraintes. Une comparaison entre quatre technologies a été faite par le magazine « Réseaux & Télécoms ».1. bonnes performances. Le résultat de la conversion peut être stocké sur un fichier ou bien transmis en direct à travers un RealServer. par rapport au cas où la source serait un simple fichier. Figure 23 : Enregistrement des présentations Real Media A noter que RealProducer n’accepte qu’une seule entrée et une seule sortie à la fois. on peut atteindre un public très large.0. De même pour la sortie. Avant de commencer le traitement. RealProducer fonctionne sur toutes les plates-formes. il doit indiquer le serveur auquel elles seront transmises. dans le menu du RealProducer. Windows 95/98/2000 et NT 4. 66 .2 SureStream Lors de la création d’un contenu avec RealProducer. différents flux optimisés pour des largeurs de bande différentes. 3. 20 et 100 Méga bits par seconde (Kbps). la combinaison des deux n’est pas possible. Les conditions nécessaires pour un fonctionnement correct du logiciel sur un système Windows ou Linux varient suivant la source des médias à convertir. RealPlayer utilisera automatiquement le flux convenable à sa vitesse de connexion sachant que tous les flux sont dans le même fichier. l’utilisateur doit préciser l’emplacement du fichier si les données seront stockées localement. De plus lors d’une congestion du réseau. Le SureStream consiste à inclure dans la même sortie. dans le cas d’une acquisition. on est amené à choisir entre une présentation à « simple cadence » ou bien d’utiliser la notion de « SureStream » qui donnera naissance à une présentation à « cadences multiples ». tout en fournissant à tous les utilisateurs le meilleur son et la meilleure image pour leur bande passante. le matériel doit être plus performant. les deux possibilités ne peuvent être réalisées simultanément. l’utilisateur peut enregistrer une vidéo pour les trois cibles 10.1. Ainsi. Ainsi. Sinon. Mac OS 8. il demande à son utilisateur si l’entrée sera un fichier ou un outil d’acquisition.2. Par exemple. Linux 2.Chapitre 5 Solution et réalisation WAV et AU) ou directement à partir d’un outil d’acquisition.7. la présentation commutera automatiquement à un débit inférieur.6 ou 9.x et Solaris 2. ce contenu ne doit pas être servi par un serveur Web. contient des flux à 16 et 11 Mbps. Puisqu’un seul fichier contient tous les flux. 3. gaspillant ainsi la bande passante. ce sont les codecs RealVideo qui sont employés. Si le volume des fichiers pose un problème.2 Realvideo Une vidéo se compose de deux parties : le son et les images. Bien que l’on puisse coder une vidéo. Le résultat de la conversion sera mis dans un fichier d’extension « rm ». Par contre. mais en utilisant le SureStream. ne connaît pas les détails. afin de pouvoir diminuer en débit s’il y des problèmes sur le réseau. Même lorsque le contenu est codé pour une seule vitesse. Le fait que tous les flux soient mis ensemble dans un même fichier peut donner naissance à des fichiers de tailles plus grandes que les sources. RealProducer utilise RealAudio. un serveur Web. le serveur doit être capable d’extraire juste le nécessaire. alors que pour la partie visuelle. Un serveur Web téléchargera le tout. les types de mouvement et la taille des images. il contiendra plusieurs flux. une vidéo compressée seulement pour 28. juste pour une vitesse de connexion donnée. RealProducer convertit différents attributs de la vidéo à savoir la cadence des trames. même s’ils sont compressés.Chapitre 5 Solution et réalisation Figure 24 : Enregistrement d’une présentation pour différentes largeurs de bande « SureStream » fonctionne seulement sur un RealServer. en utilisant le SureStream. il faut limiter le choix aux vitesses essentielles.8 Mbps.1. Un RealServer peut localiser chaque flux et par conséquent transmettre le plus convenable. 67 . Pour compresser la partie sonore. Par exemple. alors il transmettra toutes les données au lieu de choisir un seul flux. la plupart des vidéos ont des cadences de 15 à 30 images par secondes (i/s). Lorsque c’est nécessaire. Le codage VBR donne généralement des vidéos de qualité meilleure à ceux codées par CBR (Constant Bit Rate). * Protection contre les pertes : ce dispositif ajoute des données de correction d'erreurs au flux compressé. permettant ainsi de maintenir sa qualité dans un environnement à pertes.2 Options de compression RealProducer dispose de plusieurs options de codage. * Maximum de temps entre deux images clé : RealProducer code toutes les données d’une clé. le maximum de temps entre deux images clé est de 10 secondes. donnant ainsi plus de largeur de bande aux scènes difficiles à compresser et moins de bande pour les scènes faciles. Nature de la vidéo (mouvement rapide ou lent.Chapitre 5 Solution et réalisation Principe Contrairement à RealAudio.1. pour garder une qualité aussi bonne que possible. Type du son. Mais puisque les images clé contiennent plus de données. plus d’images clé seront produites et par conséquent les distorsions diminueront. RealProducer ajuste dynamiquement cette cadence. RealVideo utilise une compression avec perte. Le codec RealVideo permet une grande échelle de scalabilité. En fait. il ne codera que la différence entre l’image et celle qui la précède. il élimine intelligemment les données. En diminuant cette valeur. alors que pour celles qui la suivent. * Codage VBR : le principe du VBR (Variable Bit Rate) consiste à réguler le débit de sortie du codeur. le fait de diminuer le temps entre deux images de ce type peut entraîner une dégradation de la qualité si la largeur de bande est la même. Dans ce sens. Il a un impact négligeable sur la vitesse de codage. RealProducer joue aussi sur la cadence des images. alors que lorsque le mouvement est lent. Par défaut. RealVideo utilise un seul codec pour compresser la piste visuelle pour toutes les largeurs de bande. Pour diminuer la taille de la vidéo. la vidéo peut être alors codée de 20 Mbps à des centaines de Mbps. il diminue la cadence. il la maintient élevée lorsqu’il s’agit d’une scène à mouvement rapide. RealProducer détermine comment coder une vidéo à partir des choix suivants : Vitesse ciblée. 68 .) 3. 1 Conditions de fonctionnement Indépendamment de la plate-forme utilisée.Chapitre 5 Solution et réalisation 3.2 Fonctionnement Canaux et protocoles Chaque lien. doit commencer par un identificateur de protocole. Le RealServer utilise un modèle multiprocesseur. tandis que l’ajout des processeurs lui permet de traiter l'information plus rapidement. le gestionnaire de système crée un nouveau processus pour contrôler ce client alors qu'un autre processus écoute les connexions des autres clients. tel que RTSP. il fournit les réponses aux questions suivantes : Quelles sont les conditions d’un bon fonctionnement du logiciel ? Quel est son principe de fonctionnement ? Quelles sont les méthodes qu’il utilise pour délivrer les données aux clients ? Cette partie présente également les dispositifs. la vidéo. les animations. au contenu du RealServer. Cette partie survole brièvement les différentes propriétés du serveur de RealNetworks. de sécurité et de manipulation de la bande passante. les images. intégrés dans RealServer.2. Ainsi. En ajoutant de la mémoire il pourra manipuler plus d'informations à n'importe quel moment. Il diffuse le son. 3. le RealServer fonctionne mieux lorsqu’il est installé sur un ordinateur dédié. La mémoire et les processeurs affectent le fonctionnement du RealServer.2 Le serveur de RealNetworks RealServer est un logiciel qui permet de transmettre des médias pré-enregistrés ou en direct sur l'Internet ou dans un Intranet. RealServer emploie principalement deux protocoles : RTSP. aux ordinateurs clients. le texte et d'autres types de données. 69 .2. qui est particulièrement bien adapté à l'architecture client/serveur. le RealServer est plus performant quand il fonctionne sur un système avec plus d'un processeur. Il faut éviter par conséquent d'installer des serveurs Web ou d'autres applications sur le même ordinateur que RealServer. PNM ou HTTP. 3. Quand un client essaie de se relier au serveur. connues sous le nom de canaux. Communication entre un codeur et un realserver Figure 25 : Fonctionnement codeur/serveur dans le cas normal Dans le cas normal. Il peut également être employé pour livrer des vidéos aux clients qui sont situés derrière un pare-feu. Parfois les pare-feu n’autorisent pas les paquets UDP. et l'arrêt complet ou instantané. RealServer utilise deux connexions. 70 . la connexion TCP est utilisée à la fois pour le contrôle et les données. les médias sont transmis sur une voie séparée dite « canal de données ». UDP : pour le transfert du contenu. Dans ces canaux. on peut avoir besoin de faire quelques modifications pour recevoir les données d'un codeur ou bien pour servir les clients qui derrière un pare-feu. et les informations spécifiques aux médias présentés tel que titre. Puisque beaucoup de firewalls sont configurés pour permettre seulement des connexions TCP ou bien du trafic HTTP. il utilise un canal TCP bidirectionnel pour le contrôle et un canal UDP à sens unique pour transmettre les données. En fait RealServer s’en sert pour les fichiers « méta » qui pointent sur le contenu du serveur ainsi que pour les pages de HTML qu'il sert (les pages HTML pour l’administration). le serveur utilise deux protocoles pour envoyer les instructions et les données: TCP : pour envoyer les commandes du client. C’est à travers ce canal que le serveur demande et reçoit des mots de passe et que les clients envoient des instructions telles que l’avance rapide. La première voie est connue par le nom de « canal de contrôle ». pour communiquer avec les clients.Chapitre 5 Solution et réalisation PNA. quand un codeur se connecte au serveur. Ainsi. D'autre part. le HTTP n’est utilisé qu’occasionnellement. Chapitre 5 Solution et réalisation Figure 26 : Fonctionnement codeur/serveur dans le cas d’un pare-feu Communication entre un RealPlayer et un RealServer Quand un utilisateur clique sur un lien qui pointe sur une présentation donnée. Figure 27 : Phase initial de la communication client/serveur Lorsque le serveur accepte la demande. il envoie les médias demandés au RealPlayer le long d'un canal UDP à sens unique. le client ouvre une connexion bi-directionnelle avec le serveur. Cette connexion utilise TCP pour échanger des informations concernant les médias à transmettre ou bien l’authentification de l’utilisateur. Figure 28 : Phase de transfert de données entre le client et le serveur 71 . Le splitting et le multipoint sont plus appropriés pour les diffusions à un grand nombre d’utilisateurs.2. plutôt qu’au serveur principal qui est à l’origine des médias.3 Méthode de livraison des médias A la demande Les données sont à la disposition de l’utilisateur à n’importe quel moment. Le splitting réduit la charge du trafic sur le serveur source. une fois qu’il a cliqué sur un lien vers une présentation en direct. Les présentations en direct peuvent être transmises de différentes manières. Un utilisateur qui clique sur un lien pointant sur ce genre de données. selon les besoins du réseau l’administrateur décide de choisir une méthode donnée. Servir des présentations en direct. Le multicast sera décrite plus en détail dans le paragraphe suivant. * Le splitting : c’est le terme utilisé pour décrire comment un RealServer peut partager ses flux de médias. Elles n’existent pas sous forme de fichiers. nécessite le matériel et le logiciel convenables pour l’acquisition du contenu ainsi que sa conversion en un format que le RealServer peut diffuser. Il pourra également avancer ou arrêter la présentation. avec d’autres RealServers. les vidéos sont servies sur demande. Contrairement aux transmissions à la demande. En direct Les présentations en direct sont transmises aussitôt qu’elles sont créées. Cependant. 72 . Les clients se connectent à ces serveurs. * Le multipoint : il exige un réseau supportant le multipoint. pourra visualiser la vidéo depuis le début.Chapitre 5 Solution et réalisation 3. malheureusement ce n’est pas le cas au Maroc. elle exige une bande passante assez large pour pouvoir servir tous les clients connectés. puisqu’elle ne nécessite aucune configuration. Le choix de la méthode la plus convenable dépend des situations. * Le point à point : c’est la méthode la plus simple et la plus connue pour des diffusions en direct. améliorant ainsi la qualité de service. Ce type de médias est pré-enregistré. Le point à point est typiquement utilisé pour un nombre assez réduit de client. transmis en direct. L’utilisateur peut joindre les événements qui se déroulent à n’importe quel moment. le client ne peut pas avancer ou arrêter les médias. Cette méthode permet aussi de déplacer les émissions plus près des clients. RealServer permet deux méthodes de multipoint : le back channel multicast et le scalable multicast. 73 . Figure 29 : Schéma de multipoint Pour tirer profit du multipoint. Le serveur utilise ce canal pour fournir des informations au sujet de la présentation. les routeurs et les commutateurs reliant le serveur à ses clients. plutôt que de d'envoyer un flux par client. le multipoint est utilisé dans la plupart du temps dans les Intranets. Pour cette raison. doivent supporter le multicast.2. Par contre sur Internet. il se peut que des dispositifs intermédiaires du réseau ne supportent pas le multipoint.Chapitre 5 Solution et réalisation 3.4 Le multipoint Le multipoint consiste à transmettre un seul flux pour différents clients. où les dispositifs de réseau peuvent être configurer pour fonctionner en multicast. pour demander des informations d’authentification au client ou pour recevoir les commandes de ce dernier. Back-Channel multicast Cette méthode consiste à maintenir un canal de contrôle entre le serveur et chaque client. le scalable multicast supporte les deux protocoles RTSP et PNA. celle-ci n’utilise pas de canal de contrôle. Cependant à cause de l’absence du canal de contrôle. Alors 74 . l’authentification des clients ne peut pas avoir lieu. ainsi elle nécessite moins de bande passante. Les informations d’authentification.Chapitre 5 Solution et réalisation Figure 30 : Schéma de la back-Channel multicast Le back-Channel multicast peut utiliser les protocoles RTSP ou PNA. Toutes les données sont diffusées sur le réseau une seule fois pour tous les clients. les statistiques et les mesures de qualité de service peuvent être transmises puisque le serveur et le client sont reliés par un canal bidirectionnel. Pareil au back channel multicast. Scalable multicast Contrairement à la première méthode. Figure 32 : Schéma du scalable multicast Le scalable multicast permet de servir un nombre illimité de clients puisque la transmission du RealServer est à sens unique et aucune connexion ne le relie à ses clients. S’il est égal à zéro ou qu’il est non précisé. les pages HTML sont disponibles à travers le port HTTP. Chaque contenu est associé à un numéro de port spécifique : les médias sont servis sur le port RTSP et le port PNA. 3. en se basant sur les adresses IP de la machine désirant se connecter et sur le port auquel la demande est faite. De même. RealNetworks a développé également des plug-ins client et serveur pour une communication cryptée entre les deux. deux formes de multicast sont possibles. le paramètre « Maximum Bandwidth ». 3. Ce nombre peut prendre des valeurs de 1 à 32767. l’administration distante 75 . on peut limiter le nombre d’utilisateur servis simultanément. De même. Il est alors possible de limiter l’accès au serveur suivant les adresses IP ou bien d’authentifier les utilisateurs.6 La Sécurité Le RealServer permet différentes mesures de sécurité. Les codeurs fournissent les données compressées par l’intermédiaire d’un port particulier. il est impossible d’adapter la qualité transmise à chacun. Si l’on établit des valeurs pour les deux variables. avec le RealServer. RealServer utilise le nombre maximal de flux permis par la licence.5 Gestion de la bande passante RealServer fournit des outils permettant de gérer la bande passante utilisée. RealServer limitera l'accès quand le seuil inférieur est atteint. En fait puisque la même présentation sera servie à tous les clients. permettant d’économiser la bande passante. Le contrôle d’accès On peut bloquer ou permettre l'accès au serveur. que le RealServer peut utiliser. Cependant la notion de « SureStream » n’est pas opérationnelle si l’on opte pour le multipoint. En réglant le paramètre « Maximum Client Connections ».2. en Kilo bits par seconde.Chapitre 5 Solution et réalisation que les statistiques sont transmises à la fin.2. permet de restreindre la quantité de bande passante. Une fois que la limite est atteinte. Dans ce sens on peut limiter le nombre de clients pouvant se connecter au serveur simultanément ou encore limiter la bande passante consommée par le RealServer. tant qu'il est inférieur ou égal au nombre de transmissions permises par la licence. Ainsi. les clients qui essayeront de se connecter recevront un message d’erreur et ne pourront être servis que lorsqu’un utlisateur se déconnectera. Lors de la vérification des règles. PNA et HTTP. Adresse IP du client : individuelle ou bien une plage d’adresses. Le dispositif de contrôle d’accès. qui ont lancé des 76 . recevront un message d'erreur indiquant que l’URL est incorrecte. RealServer possède également un autre dispositif plus sélectif en matière de restriction d’accès aux données servies et reçues. Lorsqu’un client essaie de jouer une présentation ou bien d’envoyer des médias compressés. on créera une règle qui spécifiera l'adresse IP du client et le port de codage 4040. l'identité des utilisateurs ou logiciels. Les clients qui ne sont pas autorisés. Par exemple on peut restreindre l’accès des codeurs en choisissant les machines qui peuvent utiliser le port de codage (4040 par défaut). Une règle est un ensemble d'instructions décrivant la manière dont le serveur doit se comporter vis à vis de certaines adresses IP. pour permettre à un codeur d’envoyer ses données au serveur. Par exemple. L’authentification Elle permet de contrôler l’accès des utilisateurs aux services du RealServer. Le contrôle d’accès est basé sur les adresses IP et les ports requis. sont stockées dans des règles. doivent être les plus strictes. administrateurs distants ou clients désirant visualiser des présentations qu’ils ont payées. En utilisant l'authentification. RealServer commence par les règles ayant les plus petits identificateurs. Les informations. Numéros de Ports. le serveur compare son adresse et le port demandé aux adresses et aux ports énumérés dans les règles. qu’ils soient codeurs. Adresse IP du serveur : l’adresse du RealServer. concernant chaque adresse ou plage d’adresses qu’on désire autoriser ou non. le serveur refuse l’accès. C’est pourquoi. en précisant leurs adresses IP ainsi que les numéros de ports d’accès pour les protocoles RTSP. Ce dispositif est l’authentification. Si l’adresse IP du client et le numéro de port n’apparaissent dans aucune règle. On peut également permettre seulement à certaines personnes de visualiser les présentations servies. les règles ayant des numéros petits. Une règle contient les informations suivantes : Numéro de la règle : il identifie la règle. permet à l’administrateur du réseau de choisir qui peut se connecter et à quel port.Chapitre 5 Solution et réalisation utilise un port précis qui sera défini à l’installation. Accès : client autorisé ou non. Chaque règle est identifiée par un nombre qui lui sera assigné lors de sa création. Chapitre 5 Solution et réalisation requêtes vers le serveur. il sera exigé de fournir un nom et un mot de passe avant d’envoyer leurs données. RealServer permet plus qu’une simple authentification lorsqu’il s’agit de visualiser des présentations. Quant aux clients en plus des identités exigées. Le chiffrement est réalisé par des plug-ins qui permettent de crypter les données au niveau du serveur et de décrypter le flux reçus au niveau du client. En fait lors de l’ajout d’un utilisateur à la base de données. seules les personnes ayant des identités valables pourront accéder au « RealSystem Administrator ». administrateurs et clients). sera vérifiée avant le commencement du dialogue. pour protéger le serveur contre des changements. ensuite le résultat sera transmis. Si l’identité est non correcte le transfert n’aura pas lieu. il détermine le type d’accès aux données. Duration et Credit sont les paramètres utilisés au niveau du « RealSystem Administrator » pour définir le type d’accès. Les types d’accès sont présentés par le tableau 33 : Figure 33 : Type de permission Les termes Event. l’accès pourra être limité à un certain nombre de répertoires ou de présentations. En ce qui concerne l’administration. A partir de l’URL demandée et de l’identité de l’utilisateur. outil d’administration des serveurs de RealNetworks. on définit ses droits d’accès pour chaque fichier et répertoire du contenu sécurisé. Calendar. Le serveur cryptera les données avec une clé publique du client. Les noms des utilisateurs autorisés pour chaque catégorie (codeurs. Ces plug-ins échangent des messages à travers le canal de contrôle. Ces messages peuvent par exemple contenir les clés publiques de cryptage. Une fois le flux chez le 77 . sont enregistrés dans des bases de données séparées. Cryptage Real Networks fournit un autre mécanisme pour sécuriser les médias transmis en chiffrant le flux de données entre le serveur et le client. Pour les codeurs. Le canal de données est utilisé pour fournir le contenu crypté. En effet il se sert d’un buffer pour stocker un certain nombre de paquets qui vont être joués par la suite. La figure 34 présente les différents choix que permet RealPlayer. RealPlayer peut lancer une configuration automatique.3. cryptage/décryptage. si un paquet est détruit.Chapitre 5 Solution et réalisation client. est transparent à l'utilisateur. le son et les images sont transmis sur des différents paquets. il commence la présentation tout en continuant à recevoir les données. choisissant ainsi le mode de transport le plus efficace. il est aussi possible de laisser à 78 . Pour éviter au maximum les interruptions qui peuvent avoir lieu lors de la lecture des médias. Le processus entier. En fait lorsqu’il s’agit d’une vidéo. il ne peut être déchiffré que par ce client. doit attendre le remplissage de buffer pour jouer les données qui y sont stockées. consiste à crypter les paquets de manière indépendante. C’est un canal avec pertes.3 3. si le réseau est congestionné. Ainsi. Ainsi. Mais. il n’influencera pas le processus de décryptage. Puisque chaque flux est chiffré pour un client spécifique. en utilisant la clé privée de ce client. Dans ce cas RealPlayer. RealPlayer gère aussi la synchronisation des données. Ensuite la visualisation commencera.3. Il est capable de lire les médias aussitôt qu’une partie sera reçue. la méthode employée.1 RealPlayer Fonctionnement RealPlayer peut communiquer avec un serveur Web ou un RealServer. Cependant. Actuellement. il se peut que la réception soit en retard par rapport à la présentation. le cryptage peut être utilisé seulement pour les connexions point à point. 3. RealPlayer réorganise les données avant de les présenter. RealPlayer utilise la notion de « bufferisation ». il n’y a aucune garantie que les paquets arriveront à leur destination. déformé ou perdu. Le chiffrement employé par RealServer. 3. il sera déchiffré. De cette manière la continuité du flot sera sur des séquences et non pas pour toute la présentation. A la réception. Par conséquent.2 Transport des données RealPlayer permet à son utilisateur de spécifier le protocole de transport qui sera utilisé lors de la communication avec le serveur. Selon la figure 34. a été spécifiquement conçu pour fournir une sécurité forte dans ce type d'environnement afin d’éviter les problèmes au niveau du déchiffrement. Dans ce dernier cas. Figure 34 : Préférences de transmission Figure 35 : Options de transport pour le protocole RTSP 79 .Chapitre 5 Solution et réalisation l’utilisateur l’initiative de spécifier certains paramètres pour les protocoles RTSP et PNA. la figure 35 illustre les différentes options possibles. Dans ce sens. il suffit d’indiquer leurs adresses IP ainsi que les ports qu’ils utilisent. RealPlayer peut être configuré pour passer par ces proxys. des serveurs proxys peuvent être imposés pour communiquer avec les serveurs.Chapitre 5 Solution et réalisation 3. Figure 36 : Utilisations des proxys RealPlayer permet de régler d’autres paramètres qui sont en relation avec les performances du système.3. l’utilisateur peut optimiser l’utilisation de son processeur ainsi que la mise en cache des fichiers consultés.3 Autres configurations Pour des raisons de sécurité. 80 . A noter que pour des raisons d’efficacité. De plus la machine P dispose de deux interfaces réseau : deux cartes Ethernet. dont la version du noyau est 2. 81 . il serait mieux de mettre le serveur Web et le serveur vidéo sur des machines différentes. j’ai installé un RealServer et un serveur Web Apache alors que sur la deuxième. arrivera tout d’abord au réseau local du DSI. j’ai mis en place un RealProxy et un proxy HTTP « Squid ».1 Schéma de la plate-forme réalisée En tenant compte des informations que je viens de présenter. une est reliée au réseau local du DSI alors que l’autre est connectée directement à la machine S. Sur la première. puis si le flux est accepté. le schéma de la plate-forme réalisée se présente comme suit: Figure 37 : Plate-forme réalisée Une requête qui vient de l’extérieur. ainsi que des mesures de sécurité que nous devons prendre. Les réponses des serveurs prendront le chemin inverse. Cette dernière appliquera des mesures de sécurité.Chapitre 5 Solution et réalisation 4 Plate-forme réalisée 4.2. Les machines S et P sont des ordinateurs Linux. en passant par son routeur. il sera redirigé vers les serveurs « machine S ». Elle sera ensuite acheminée vers la machine protectrice « machine P ». x de lui envoyer son adresse MAC. à travers Internet.209. ils seront redirigés. Une solution est de séparer la machine S du réseau local et de la connecter seulement à la machine P qui doit être configurée de telle sorte à répondre aux requêtes ARP destinées à l’adresse IP 194.209. la machine S doit être configurée de telle sorte à avoir la machine P comme passerelle par défaut. Dans ce sens. elle répondra à la requête ARP et le paquet provenant de l’extérieur arrivera aux serveurs sans contrôle. En fait.204. pour appliquer les mesures de sécurité. Une fois les paquets sont au niveau de la machine P. mais pour cela. vers les applications proxys. Autrement dit. un message demandant à la machine d’adresse IP 194. C’est la notion d’ARP Proxy.x. le routeur enviera. La solution est une requête ARP (Address Resolution Protocol).x.204. si la machine S est connectée directement au réseau local de la direction. elle doit disposer d’une adresse IP publique. Pour ce faire. il a besoin de l’adresse matérielle « adresse MAC » de cette machine.204.Chapitre 5 Solution et réalisation La machine S qui offre un service Web et un service vidéo. Les réponses des serveurs prendront le chemin inverse.204. Une requête extérieure. à toutes les machines de son réseau. grâce à l’utilitaire « ipchains » contenu dans les systèmes Linux. 82 . arrivera au routeur qui doit l’acheminer vers la machine 194.209.2 Principe de l’ARP Proxy Pour mettre en place mon architecture. j’ai crée un sous réseau « R1 » du réseau local du DSI « R0 ». doit être accessible de l’extérieur. 4. de la forme 194. C’est à ce niveau que nous devons intervenir.x.209. de 30 bits (255. La machine P envoie alors sa propre adresse Ethernet à la machine L dans un paquet de réponse ARP. par contre la machine P. Le code de routage du noyau Linux de la machine P essaie alors d’acheminer ce paquet vers la machine S en cherchant dans ses tables de routage pour savoir 83 .255. qui permet de définir deux adresses IP sur ce réseau. mais celle de S. qui sera reçu par P. la machine L utilisera le protocole de résolution d'adresse ARP pour envoyer un message de diffusion sur R0. demandant à la machine qui a l’adresse IP de S de répondre avec son adresse matérielle (adresse Ethernet ou MAC).Chapitre 5 Solution et réalisation Figure 38 : Création du sous réseau R1 Pour R1. La machine P sera connectée à R0 à travers l’interface Ethernet « eth0 » et à R1 par l’intermédiaire de l’interface « eth1 ». j’ai choisi un masque. Lorsque le noyau Linux de la machine P est configuré en ARP Proxy. La machine L met alors à jour son cache ARP en y ajoutant une entrée pour la machine S. il détermine qu’une requête est arrivée sur l'interface eth0. la verra. Supposons qu’une machine L (routeur ou ordinateur) de R0 veuille envoyer un paquet à la machine S. Puisque l’adresse IP de cette dernière laisse croire à la machine L que S est sur le même réseau physique.255. et que l’adresse IP à résoudre est dans l'intervalle du R1. La machine S ne verra pas cette requête. mais avec l'adresse matérielle de la machine P. La machine P remarque que l'adresse IP de destination n'est pas la sienne.252). qui est sur les deux réseaux. La machine L peut alors envoyer le paquet. puisqu'en réalité elle n'est pas sur R0. 4. Cependant. Le début de chaque paquet précise son type. la machine S répondra par conséquent en donnant sa propre adresse Ethernet.En activant la transmission IP. dans la mesure où « rp_filter » prévient les attaques d’IPspoofing. nous aurons également le « rp_filter ». P peut alors envoyer le paquet.3 L’utilitaire ipchains « ipchains » est un outil de filtrage des paquets IP. vers la machine S. la commande « make xconfig » permet de lancer un utilitaire de configuration de tout le système Linux. qui venait de L. 4. les protocoles utilisés dans Internet seront ainsi chargés et reconnus par le noyau. comme tout filtre de paquet. qui transmet et redirige les paquets réseau. En activant cette option. il faut alors activer les options suivantes : Réseau TCP/IP : il est hautement recommandé d’activer cette option. sa destination et divers autres détails. est un programme qui regarde l’entête des paquets et décident de leur destin. mais il est précisé à la source que le paquet n’a pas été accepté). plus de fonctionnalités seront disponibles au niveau du processus de routage. qui rejette automatiquement les paquets entrants. IP passage par barrière coupe feu : cette option est nécessaire pour utiliser une machine Linux comme un firewall filtre de paquet. IP routeur avancé : la machine P servira comme routeur. sous le répertoire « /usr/src/linux/ ». si l’entré de la table de routage pour leur adresse source ne correspond pas à l’interface réseau par laquelle ils arrivent. Le code de firewalling ne fonctionne que si la transmission IP est activée dans le noyau. Dans le menu « Options réseau ». 84 . En effet tout le trafic circulant dans un réseau est envoyé sous formes de paquets. Cela est un avantage pour la sécurité. présentées dans le premier chapitre. la machine P ne peut fonctionner en routeur que si la transmission IP « IP forwarding » est activée dans le noyau par la commande « echo “1” > /proc/sys/net/ipv4/ip_forward ». Donc. en supposant qu'elle ne l'a pas déjà dans son cache ARP. de les rejeter (effet identique au refus. P utilisera une requête ARP. Maintenant P doit trouver la vraie adresse matérielle de la machine S. intégré dans le noyau Linux à partir de la version 2. de les accepter ou de les rediriger vers d’autres ports.Chapitre 5 Solution et réalisation quelle interface contient l’adresse de S.1. sa source.4 Configuration requises du noyau Pour pourvoir utiliser l’utilitaire ipchains le noyau Linux doit supporter certaines configurations réseau. Il peut alors les refuser (les supprimer comme s’ils n’ont jamais été reçus). à travers l’interface eth1. ipchains. Apache bénéficie d’une richesse d’options impressionnante et en constante évolution. il répond en expédiant le fichier demandé. Il est offert par toutes les distributions Linux. connu sous le nom de « SYN cookies ».4. peut fonctionner avec « inetd » ou en mode « standalone ». ainsi démarre 85 .4. un nouveau serveur sera lancé à chaque requête.4 4. Elles font appel à une architecture client-serveur fondée sur un système de requêtes et de réponses.2 Fonctionnement Apache est un serveur Web. nommé HTTP. puisque le but est de sécuriser notre plate-forme. empêche les utilisateurs légitimes de se connecter à l’ordinateur. En mode « standalone ». Fondamentalement un serveur HTTP n’est rien d’autre qu’un serveur de fichiers à l’écoute sur un port TCP (généralement le port 80). C’est de surcroît l’un des serveurs les plus performants disponibles à l’heure actuelle.1 Logiciels utilisés Le serveur web apache Les communications sur le Web sont régies par un protocole. Apache. Apache gèrent au mieux le nombre de processus qu’il lance. La redirection est utilisée en définissant des règles de barrière pare-feu à l’aide de l’utilitaire ipchains. qui est totalement gratuit. Ce mode est acceptable si le site est de taille raisonnable avec une fréquentation acceptable. Il est à noter que pour un bon fonctionnement de la machine P. mais proposées sous forme de modules rattachés lors de la compilation. la couche TCP/IP utilisera un protocole cryptographique. il serait très utile d’activer l’option « Protection contre l’inondation SYN ». Cette attaque qui est de type déni de service (voir chapitre 1). 4. En activant l’option « Protection contre l’inondation SYN ». D’autre part. 4.Chapitre 5 Solution et réalisation IP proxy transparent : cette option permet au firewall de rediriger de manière transparente tout trafic réseau vers un serveur proxy local. mais il peut représenter une charge machine trop importante dès lors que le nombre de connexions augmente. Certaines fonctions disponibles avec Apache ne sont pas directement intégrées au serveur. Cela fait que les ordinateurs pensent communiquer avec le serveur distant alors qu’ils sont connectés au proxy. il serait préférable de choisir l’option « Optimiser comme un routeur et non comme hôte » dans les options réseau du noyau. La différence se situe dans le fait qu’en mode « inetd ». Hypertext Transfer Protocol. En fait le fonctionnement normal en TCP/IP est victime d’une attaque connue sous le nom d’inondation SYN. pour permettre aux utilisateurs légitimes de continuer de se connecter même si la machine subit des attaques. Lorsqu’il reçoit une demande de connexion suivie d’une requête. Le quatrième contient une liste de types MIME . là où Apache a été installé. nous avons pu voir les différents outils composant la plate-forme logicielle. Il permet d’indiquer quels répertoires sont accessibles à tous les utilisateurs. les options de configuration relatives à l’organisation du site. access. Dans ce sens ce fichier précise. 86 . se trouve un dossier « conf ». Ce répertoire comporte quatre fichiers. voire d’en interdire complètement l’accès à toutes les machines qui ne ferait pas partie d’un domaine donné. qui a été mise en place au niveau de l’ONEP.Chapitre 5 Solution et réalisation d’emblée un nombre minimal de processus afin de répondre à quelques requêtes sans devoir démarrer un nouveau serveur à chaque fois.conf : il précise au serveur comment retrouver le type MIME d’un document à partir de son action. pour permettre la vidéo surveillance dans la direction de system informatique. l’indexation et la mesure de qualité. il en supprime automatiquement une partie 4.conf : c’est le fichier de configuration principal d’Apache. Il est lancé en premier et contient les paramètres de base nécessaires à l’exploitation du serveur Web. qu’il s’agisse des répertoires contenant les documents ou des types de fichiers qu’ils représentent. de définir des restrictions pour d’autres répertoires plus sensibles.conf : il permet de définir les configurations qui concernent les ressources.conf : ce fichier règle les questions de sécurité d’accès. mime. Conclusion Dans ce chapitre. Afin de ne pas trop occuper la mémoire avec des processus inactifs. dont trois sont directement responsables de la configuration du serveur. Les noms de ces fichiers sont les suivants : httpd.4. Dans le répertoire racine. srm. dont le nom dépend de l’installation.3 Configuration Tous les fichiers de configuration du serveur Web Apache se trouvent dans un répertoire commun. mais également quelques limites en matière d’interactivité et d’insertion d’outils pour le codage. Cette plate-forme logicielle présente certains avantages très important. le système d’exploitation Linux. 87 . Cette dernière s’avère le meilleur non seulement sur Linux mais aussi sur les autres plates-formes. dès le départ. proxy. est une partie intégrante de la réalisation d’une plate-forme de vidéo surveillance.Conclusion Conclusion Générale L’implémentation d’un serveur vidéo. Elle comprend un ensemble complet d’outils pour créer l’architecture (serveur. nous a permis de réaliser le control d’accès. En matière de sécurité. concernant le cryptage et l’authentification. à savoir : Comment réaliser un serveur de streaming ? Comment compresser le flux vidéo ? Vu les contraintes imposées en termes de système d’exploitation (Linux). nous avons pu atteindre un niveau assez élevé de sécurité. J’ai donc posé. grâce à des fonctionnalités propres à RealServer et RealProxy. Par ailleurs. nous avons opté pour la solution RealSystem de RealNetworks. deux questions majeurs. codeur. client). qui fait l’objet de mon projet de fin d’étude. MPEG4 http://fr.htm [11]: Microsoft.apache. Promotion 2000. version 8.2004 [2]: Helmut HOLZ.com/help/library/guides/server8/realsrvr.wikipedia. « Recueil des exposés ». http://service.real. N°162.org/wiki/Compression_video [13]: compression video. [4] : Barry NANCE. http://service.com/help/library/guides/uproducerplus85/producer.org/ [7]: RealNetworks.com/Windows/windowsmedia/en/compare/WebServVStreamServ.microsoft. RFC n° 2326. « RealServer Administration Guide. 7 avril 2006. September 2007. « Real Time Streaming Protocol ». [3]: Internet Engineering Task Force. « RTSP Interoperability with RealSystem Server 8 ». Lile. Streaming Media Server ».org/wiki/MPEG-4 88 .real. « RealProducer Plus User's Guide. [6]: « Apache HTTP server project ». « RealPlayer 8 Plus User Manual ». France. « Internet et intranet sous Linux ». « Quatre serveurs vidéo pour IP ».htm [9]: RealNetworks.htm [10]: RealNetworks.asp [12]: compression vidéo http://fr. ENIC. version 8.5 for Unix ». Avril 2005. http://www. a tutorial on MPEG/vidéo compression .pam . Bernd SCHMITT et Andreas TIKART.wikipedia.com/docs/rtsp. http://docs. http://httpd. Réseaux & Télécoms.IEEE .Conclusion Bibliographie [1] D.real.real.com/help/player/plus_manual.pdf [8]: RealNetworks.8/rppmanual. http://service. EYROLLES. « Streaming Methods : Web Server vs.0 ». [5] : Etudiants de l'option Ingénierie et Informatique pour le multimédia. siteduzero.html 89 .html [15]: Rapid prototyping of a surveillance video compression system http://www.com/company/newsletters/digest/sept03/prototyping.Conclusion [14]: Comprendre la compression vidéo http://www.com/tutoriel-3-34107-comprendre-la-compression-video.mathworks.