Les bases de la securité informatique

May 7, 2018 | Author: Anonymous | Category: Travel
Report this link


Description

1. Presente par Abdul Baacit Coulibaly /Vincent Youkpo / Cisse Yacoub 2. 3. La collecte d'informations utilise essentiellement Internet pour trouver toutes les informations que vous pouvez sur la cible (entreprise et / ou personne) en utilisant à la fois des méthodes technique ( DNS / WHOIS ) et non technique ( moteurs de recherche, listes de diffusion , etc. ) . Lors de la collecte d’informations, il est important d'être aussi imaginatif que possible. Tenter d'explorer tous les moyens possibles pour en savoir davantage de votre cible et ses ressources. Tout ce que vous pouvez avoir sous la main au cours de cette phase de test est utile : brochures d’entreprise, cartes de visite, dépliants, annonces dans les journaux, documents internes, etc. et collecte d'informations ne nécessite pas que l'évaluateur établit le contact 4. avec le système cible. L'information est recueillie (principalement) à partir de sources publiques sur Internet et les organisations qui détiennent l'information du public (par exemple les agences de l’impôt, les bibliothèques, etc.) La partie collecte d'informations du test de pénétration est importante pour le testeur de pénétration. Les évaluations sont généralement limitées dans le temps et de ressources. Par conséquent, il est essentiel d'identifier les points qui seront les plus susceptibles à des vulnérabilités, et se concentrer sur eux. Même les meilleurs outils sont inutiles s'ils ne sont pas utilisés de façon appropriée et au bon moment. C'est la raison pour laquelle les testeurs expérimentés perdent plus de temps à la phase de collecte d’informations. 5. La première phase de l'évaluation de la sécurité est axée sur la collecte autant d'informations que possible sur une cible. La collecte de l'information est une étape nécessaire d'un test de pénétration. Cette tâche peut être réalisée de nombreuses manières différentes. En utilisant des outils publique (moteurs de recherche), les scanners, envoyant des requêtes HTTP simples ou requêtes spécialement conçues, il est possible de forcer l'application à des fuites d'informations, par exemple, la divulgation de messages d'erreur ou à révéler la versions et les technologies utilisées. Et il comprend les étapes suivantes: 6. Cette phase du processus de collecte d'information se compose de navigation et de capture des ressources liées à l'application en cours de test. 7. les moteurs de recherche tels que Google, peuvent être utilisé pour détecter les problèmes en rapport avec les pages de la structure de l'application Web ou erreur produits par l'application qui ont été publiquement exposés. 8. L'énumération de l'application et sa zone d'attaque est un élément important avant toutes attaques. Cette section vous aidera à identifier et tracer tous les domaines dans l'application qui devront être étudiée une fois que votre énumération et la phase de la cartographie a été achevée. 9. L’empreinte de l’application est la première étape du processus de la collecte d'information , sachant la version et le type d'un serveur web fonctionnel permet aux testeurs de déterminer les vulnérabilités connue et les exploits appropriés à utiliser lors des essais . 10. La découverte application est une activité orientée vers l'identification du web applications hébergées sur un serveur serveur web / application. Cette analyse est importante parce que souvent il n'y a pas un lien direct reliant l'application principale backend . Analyse de découverte peut être utile pour révéler les détails tels que les applications Web utilisées pour des fins administratives. En outre, il peut révéler anciennes versions des fichiers ou des objets tels que des scripts non supprimés, son obsolètes, conçus pendant la phase de test / développement ou à la suite de l'entretien (maintenance). 11. Lors d'un test de pénétration, les applications web peuvent divulguer des informations qui ne sont pas destinées à être vu par un utilisateur final. Les informations telles que les codes d'erreur peut informer le testeur sur les technologies et les produits étant utilisés par l’application. Dans de nombreux cas, les codes d'erreur peuvent être facilement appelés sans le besoin de compétences ou d'outils spécialisés, à cause de la mauvaise conception de la gestion des exceptions et le codage. De toute évidence, en se concentrant uniquement sur ​l'application Web ne sera pas un test exhaustif. Il ne peut pas être aussi complet que les informations recueillies, éventuellement en effectuant une analyse plus large des infrastructures 12. La première étape de la collecte d'informations est – la decouverte du réseau. Une inspection de réseau est comme une introduction au système qui est testé. En faisant cela, vous aurez une ‘’carte du réseau’’, à l'aide de laquelle vous trouverez le nombre de systèmes accessibles à tester sans dépasser les limites juridiques de ce que vous pouvez tester. Mais généralement plusieurs hôtes sont détectés pendant le test, ils doivent donc être correctement ajoutés à la ‘’carte du réseau’’. Les résultats que le testeur peut se trouver à l'aide du réseau sont : - Des noms de domaine - Noms des serveurs - Les adresses IP - Carte du réseau 13. L'identification du système d'exploitation (parfois appelé pile empreintes TCP / IP ). La détermination d'un type de système d'exploitation à distance par comparaison des variations dans le comportement de mise en œuvre OS de la pile TCP / IP. En d'autres termes, c’est l’examen des réponses du système qui peuvent distinguer un système d'exploitation d’un autre, la version. Les résultats sont les suivants: - Type de système d'exploitation (Unix, Linux, Windows) - Type de système (l’architecture) - Le système d'adressage. La meilleure méthode connue pour l'identification OS est nmap 14. La prochaine étape est l'analyse de port . Balayage des ports et Firewalking afin de détecter des ports ouverts et les règles de filtrage des machines. Liste des ports ouverts, fermes ou filtres Les adresses IP L’adressage IP du système 15. Identification des services. C'est l'examen actif de l'application en écoute derrière le service . Les résultats de l'identification de service sont les suivants: - Types de services - Le service Application Type et niveau de patch - Carte du réseau Les méthodes utilisées dans l’identification des services est la même que celles utilisées durant le scan(Balayage) de port. Les différentes méthodes vous seront présentées lors de la démo 16. BACKTRACK R3 X64 SOUS VMWARE WORKSTATION 10 EN IMAGES 17. COMMANDES SHELL BASIQUES COMMANDES RESEAU BASIQUES 18. DES OUTILS DE LA SUITE DE BACKTRACK 5 R3 19. DNSenum est un outil développé en PERL permettant l’énumération et la récupération d’informations relatives aux noms de domaine. Localisation de l’outil /pentest/enumeration/dns/dnsenum Execution de l’outil ./dnsenum.pl 20. theharvester est un outils de collecte de comptes e-mail, nom d'utilisateur et nom d'hôte / sous-domaines . Il recueille les renseignements auprès de diverses sources publiques. les sources publiques prises en charge sont: • Google • Bing • PGP • Linkedin :# cd /pentest/enumeration/theharvester # ./theHarvester.py #./theHarvester.py -d targetdomain -l 100 -b google 21. Nmap est un scanner de ports Il est conçu pour détecter les ports ouverts, identifier les services hébergés et obtenir des informations sur le système d'exploitation d'un ordinateur distant.il permet en outre de lister tous les hotes connectés à un reseau 22. BY Mr YOUKPO VINCENT 23. La collecte d'informations est l'une des phases les plus importantes d'un test de pénétration, peu importe s'il s'agit d'un Tests de pénétration White-Box ou Black Box. La réussite du test dépend de l'information acquise et l'exactitude de l'information. Afin d'avoir une compréhension complète de ce procédé. 24.  http://www.usna.edu/CS/si110arch/si110AY13F/lec/l32/lec.html  http://www.usna.edu/CS/si110arch/si110AY13F/lec/l33/lec.html  http://www.sersc.org/journals/JSE/vol5_no5_2008/6.pdf  http://fr.wikipedia.org/wiki/Balayage_de_port http://nmap.org/  http://upload.wikimedia.org/wikipedia/commons/7/7e/Comparaison_des_mod%C3%A8les_OSI_et_TCP_IP.png 25.  Crawler : Un robot d'indexation (ou littéralement araignée du Web ; en anglais webcrawler ou web spider) est un logiciel qui explore automatiquement le Web. Il est généralement conçu pour collecter les ressources (pages Web, images, vidéos, documents Word, PDF ou PostScript, etc.), afin de permettre à un moteur de recherche de les indexer.  DNS : Le Domain Name System (ou DNS, système de noms de domaine) est un servicepermettant de traduire un nom de domaine en informations de plusieurs types qui y sont associées, notamment en adresses IP de la machine portant ce nom.  WHOIS : Whois (contraction de l'anglais who is?, signifiant « qui est ? ») est un service derecherche fourni par les registres Internet, par exemple les Registres Internet régionaux (RIR) ou bien les registres de noms de domaine permettant d'obtenir des informations sur une adresse IP ou un nom de domaine. Ces informations ont des usages très variés, que ce soit la coordination entre ingénieurs réseaux pour résoudre un problème technique, ou bien la recherche du titulaire d'un nom de domaine par une société qui souhaiterait l'obtenir. 26.  TCP / IP : La suite TCP/IP est l'ensemble des protocoles utilisés pour le transfert desdonnées sur Internet. Elle est souvent appelée TCP/IP, d'après le nom de deux de ses protocoles : TCP (Transmission Control Protocol) et IP (Internet Protocol), qui ont été les premiers à être définis.


Comments

Copyright © 2024 UPDOCS Inc.