Un crawler est un programme automatisé utilisé par les moteurs de recherche pour parcourir et indexer les pages web. Il explore les sites en suivant les liens hypertextes, collectant ainsi des informations sur le contenu des pages. Ces données permettent aux moteurs de recherche de classer et d’afficher les résultats pertinents en réponse aux requêtes des utilisateurs.
« Retour à l'index du GloquisertCrawler
« Back to Glossary Index