Cette page a été traduite à partir de l'anglais par la communauté.Vous pouvez contribuer en rejoignant la communauté francophone sur MDN Web Docs.
Robot d'indexation (crawler)
Unrobot d'indexation est un programme, souvent appelé bot ou robot, qui parcourt de manière systématique leWeb pour collecter des données à partir des pages web. Les moteurs de recherche utilisent généralement des robots d'indexation pour construire leurs index.
Dans cet article
Voir aussi
- Terme associé du glossaire :
- Robot d'indexation sur Wikipédia