Parfois, on voudrait extraire des données depuis les sites Web et puis les mettre dans Excel pour réaliser des analyses et des visualisations. Un des cas les plus fréquents c’est de récupérer les prix des produits depuis des sites d’e-commerce.
Le problème est là : comment extraire des données d’une page Web vers Excel ?
Le copier-coller manuel ? Cela serait extrêmement fastidieux. Dans cet article, je vais vous présenter plusieurs façons pour extraire données de site web et les mettre dans Excel. Je suis sûre que ces méthodes permettent d’économiser du temps et de l’énergie.
Comment extraire des données d’une page Web vers Excel ?
Il existe de nombreuses façons de faire l’extraction de données des sites Web : utiliser les langages de programmation pour faire le web scraping, profiter des outils nocode, utiliser directement Excel pour ce faire, etc. Oui. Excel, lui-même, est un outil puissant dans le domaine de gestion de données et de visualisation de données.
Tout d’abord, voyons comment Excel permet d’obtenir les données à partir des pages Web et je vais également évoquer brièvement les limites de cette méthode.

N’hésitez pas à utiliser cette infographie sur votre site, en mentionnant la source, et à insérer un lien vers notre blog à l’aide du code d’intégration ci-dessous :
Outils de web scraping pour l’extraction de données vers Excel
Pour ceux qui recherchent un outil facile et convivial pour extraire les données des pages vers Excel et ne veulent pas configurer le code eux-mêmes, il est évidemment un bon choix d’utiliser des outils de Web scraping et voilà une liste de 17 outils de web scraping. Ces outils sont parfaitement adaptés aux besoins fréquents et à grande échelle d’extraction de données pour assurer la stabilité.
Je vous recommende fortement Octoparse qui sera un outil à la hauteur des limites de Excel dans l’extraction de données de sites Web.
Transformer les sites web vers Excel, CSV, Google Sheets ou base de données.
Auto-détecter les sites Web et extraire les données sans aucun codage.
Scraper les sites populaires en quelques clics avec les modèles pré-construits.
Ne se trouver jamais bloqué grâce aux proxies IP et à l’API avancée.
Service Cloud pour programmer le scraping de données.
Ayant comme son slogan « extraire les données Web en 3 étapes » et « Pointez, cliquez et extrayez. Tout cela sans une seule ligne de code ! », Octoparse propose à ses utilisateurs une plateforme très conviviale et puissante. L’auto-détection est toujours à votre service en détectant automatiquement les données de liste, les boutons “Page suivante”, les boutons “Charger plus” et le défilement d’une page vers le bas, puis configurer automatiquement un flux de travail d’extraction de données. Ne vous inquiétez pas car Octoparse prépare de riches tutoriels pour vous et dispose également d’un support excellent. Il s’agit de quelque chose de satisfaisant et de fiable de récupérer un grand nombre de données par lui-même.
👉 Voici un guide étape par étape sur comment
Exporter les résultats de recherche de Google Maps vers Excel.
Obtenir des données Web à l’aide de requêtes Web Excel
Les requêtes Web Excel(Power Query) sont utilisées pour récupérer rapidement les données d’une page Web standard vers une feuille de calcul Excel. Il peut détecter automatiquement les tableaux intégrés dans le HTML de la page Web. Les requêtes peuvent également être utiles dans les situations où une connexion ODBC (Open Database Connectivity) standard est difficile à créer ou à gérer. Vous pouvez directement faire l’extraction d’excel d’un tableau de n’importe quel site Web vers Excel à l’aide de requêtes Web Excel.
Le processus se résume à plusieurs étapes simples (consultez cet article) :
- Accéder aux données> Obtenir des données externes> À partir du Web
- Une fenêtre de l’éditeur de requête s’ouvrira dans Excel
- Dans la barre d’adresse, écrire l’adresse Web cible

(source : excel-university.com)
- La page se chargera et affichera des icônes jaunes en regard des données / tableaux.
- Sélectionner celui qui convient à votre besoin
- Appuyer sur le bouton Importer.
Vous avez maintenant les données Web dans la feuille de calcul Excel – parfaitement disposées en lignes et en colonnes à votre guise.

(source : excel-university.com)
Obtenir des données Web à l’aide de VBA dans Excel
la plupart d’entre nous utilisent couramment les formules dans Excel (par exemple =avg (…), =sum (…), =if (…), etc.), mais Il se peut que vous soyez moins familier avec ce langage intégré – Visual Basic pour Application aka VBA. Il est communément appelé “Macros” et ces fichiers Excel sont enregistrés au format **. Xlsm.
Avant de l’utiliser, vous devez d’abord activer l’onglet Développeur dans le Ribbon (clic droit sur Fichier -> Personnaliser le Ribbon -> cocher l’onglet Développeur). Ensuite, configurez votre mise en page. Dans cette interface de développeur, vous pouvez écrire du code VBA attaché à divers événements. Cliquez ici pour démarrer avec VBA dans Excel 2010.
Utiliser Excel VBA va être un peu technique – ce n’est pas très convivial pour les non-programmeurs. VBA fonctionne en exécutant des macros, des procédures étape par étape écrites dans Excel Visual Basic. Pour extraire des données de sites Web vers Excel à l’aide de VBA, nous devons créer ou obtenir un script VBA pour envoyer des requêtes à des pages Web et obtenir des données renvoyées à partir de ces pages Web. Il est courant d’utiliser VBA avec XMLHTTP et des expressions régulières pour analyser les pages Web. Pour Windows, vous pouvez utiliser VBA avec WinHTTP ou Internet Explorer pour récupérer les données des sites Web vers Excel.
Après un peu de patience et de pratique, vous trouverez intéressant d’apprendre à écrire du code Excel VBA et d’acquérir quelques connaissances en HTML pour faciliter et rendre plus efficace l’automatisation des tâches répétitives. Il existe de nombreux documents et forums qui vous permettront d’apprendre à écrire du code VBA.
Seulement, il y a des limites inévitables dans ce méthode d’extraire des données vers Excel depuis des sites Web :
- Limitée aux données de tableau
Excel se limite à récupérer les données dans les tableaux, pour extraire des données hors tableaux, il faut recourir à une autre solution. Ces deux méthodes présentent donc des limites lorsqu’on souhaite extraire du texte, les prix de produits e-commerce, des liens, etc. Des outils professionnels comme Octoparse sont à la hauteur de ce défi et capables de répondre à la diversité des besoins en matière d’extraction de données.
- Limité à un petit nombre de données
C’est évident que Excel est excellent pour récupérer les données de tableau sur des pages Web mais il ne constitue pas un véritable outil de web scraping automatisé. C’est pourquoi les requêtes d’Excel ne peuvent pas répondre aux besoins pour des projets à grande échelle. Dans un grand projet, il arrive qu’on doit extraire les données toujours mises à jour et un logiciel tout-en-un peut régler ce besoin facilement.
- Limité à la récupération des données de la page actuelle
On sait que souvent les données voulues se cachent après une pagination, Ajax, ou on veut parfois collecter les données de plusieurs pages. Dans ces cas, Excel n’est pas suffisamment adapté. Excel est donc davantage un outil simple, adapté à des besoins basiques. Ceux qui souhaitent accumuler des données et en tirer des conclusions importantes doivent passer à un outil plus professionnel.
- A court des fonctions importantes
Dans le domaine de la collecte de données, le service cloud, le nettoyage et la déduplication font partie des fonctions indispensables dans la plupart des cas. Excel ne dispose pas de fonctions essentielles pour éliminer les duplicatas de données et réduire les besoins en capacité de stockage.
Externaliser votre projet Web Scraping
Si votre temps est précieux et que vous souhaitez vous concentrer sur vos activités principales, confier le travail de collecte de données à une équipe professionnelle expérimentée est la meilleure option.
Octoparse, que nous venons de mentionner, propose également des services de données visant à vous aider à obtenir des données de sites Web de manière adaptée à vos besoins, et à vous fournir des données structurées au format Excel ou dans tout autre format souhaité.
En conclusion
Nous avons présenté quatre méthodes pour extraire des données de sites Web vers Excel. Alors que ces deux méthodes, réalisées à l’intérieur d’Excel, semblent plus pratiques, elles présentent des limites en termes de volume et de diversité des données extraites. L’utilisation d’un outil de web scraping nocode est une excellente solution pour les non-informaticiens. De plus, vous pouvez externaliser la collecte de données si vous préférez concentrer vos efforts sur vos activités principales.
Pour obtenir un guide étape par étape sur la façon d’extraire des données d’un site vers Excel, vous pouvez consulter d’autres articles de blog d’Octoparse.
FAQ – Extraction de données depuis les sites Web vers Excel
- Puis-je utiliser directement Excel pour extraire des données d’un site Web ?
- Oui, Excel propose la fonction “Obtenir des données” (Power Query), permettant d’importer rapidement des tableaux statiques. Cependant, cette méthode a ses limites pour le contenu dynamique ou paginé.
- Si le contenu du site Web est complexe ou si je souhaite automatiser le processus, quelle méthode est la plus adaptée ?
- Dans ce cas, des outils professionnels de web scraping comme Octoparse sont recommandés, car ils supportent le chargement dynamique, la pagination et nécessitent peu ou pas de codage.
- La programmation VBA permet-elle d’automatiser l’extraction de données Web ?
- Oui, mais cela nécessite des compétences en programmation. En rédigeant des scripts VBA, vous pouvez automatiser la récupération, mais cela demande aussi une maintenance régulière.
- Peut-on actualiser automatiquement les données extraites dans Excel ?
- Oui, avec Power Query ou certains outils de web scraping, il est possible de programmer des rafraîchissements réguliers, sous réserve que la structure du site reste stable.