logo
languageFRdown
menu

Comment extraire des données d’un site web vers Excel

star

Comment extraire des données d'un site web vers Excel : Power Query, web scraping no-code, Google Sheets et VBA. Cas d'usage France, guide pratique 2026.

9 minutes de lecture

Extraire des données d’un site web vers Excel revient à un besoin précis : récupérer automatiquement des informations publiées en ligne, que ce soit des prix de produits sur Fnac ou Cdiscount, des annonces immobilières sur SeLoger, des offres d’emploi sur Welcome to the Jungle ou des contacts professionnels sur des annuaires sectoriels.

Le copier-coller manuel reste possible pour quelques dizaines de lignes. Au-delà, il devient une source d’erreurs, de temps perdu et de données obsolètes dès la semaine suivante.

Il existe plusieurs façons d’automatiser cette extraction, selon votre niveau technique et le type de données ciblées :

  • Un outil de web scraping no-code : la solution la plus rapide pour les non-développeurs
  • Power Query dans Excel : intégré à Excel, idéal pour les tableaux HTML statiques
  • Google Sheets avec IMPORTHTML : gratuit, sans installation, directement dans le navigateur
  • VBA dans Excel : pour les utilisateurs à l’aise avec la programmation Office

Le guide ci-dessous part de la méthode la plus rapide à mettre en place et monte progressivement vers les options les plus techniques.

Comparaison des méthodes pour extraire des données d'un site web vers Excel : outil no-code, Power Query, Google Sheets et VBA

Qu’est-ce que le web scraping vers Excel ?

Le web scraping Excel désigne l’extraction automatique de données depuis des pages web, directement structurées dans un tableau Excel prêt à filtrer, trier et analyser.

Si vous avez déjà copié-collé un tableau depuis une page web vers Excel, vous avez fait du web scraping à la main. La différence : ici, tout est automatisé, même quand il y a des centaines ou des milliers de lignes, et même quand la page évolue chaque semaine.

Quand le web scraping vers Excel est-il utile ?

Voici les cas les plus fréquents dans le contexte français :

  • Veille tarifaire e-commerce : suivre les prix de Fnac, Cdiscount ou ManoMano sur des centaines de références
  • Immobilier : agréger les annonces SeLoger ou Leboncoin par ville, surface, prix
  • Génération de leads : collecter des contacts d’entreprises depuis PagesJaunes ou des annuaires sectoriels
  • Analyse RH / recrutement : surveiller les offres d’emploi Welcome to the Jungle, Indeed France
  • Études de marché : consolider des données publiques issues de plusieurs sources

Méthode 1 : extraire des données vers Excel avec un outil de web scraping no-code

Le web scraping Excel consiste à automatiser la collecte de données depuis des sites web pour les structurer directement dans un tableur. C’est la méthode la plus efficace quand le site cible utilise du JavaScript pour afficher ses données, quand la pagination est automatique, ou quand vous avez besoin de résultats réguliers sans intervention manuelle.

Les outils no-code permettent de scraper n’importe quel site en quelques clics, sans écrire une ligne de code. Parmi les solutions disponibles, voici celles qui sont réellement utilisées par des équipes françaises en 2026 :

Comparatif rapide des outils de web scraping no-code

OutilTypeExport ExcelAdapté aux débutantsParticularité
OctoparseDesktop + CloudOuiOuiAutodétection, templates prêts, scraping planifié
WebScraper.ioExtension Chrome(CSV/Excel)OuiGratuit pour l’usage basique
BardeenExtension ChromeOuiOuiAutomatisation workflow + scraping
ParseHubDesktopOuiMoyenBonne gestion du JavaScript dynamique

Comment extraire des données vers Excel en 3 étapes avec Octoparse

Prenons un exemple concret : récupérer les offres d’emploi marketing à Paris depuis Welcome to the Jungle, l’une des plateformes de recrutement les plus utilisées en France.

Étape 1 : Démarrer la tâche

Après avoir lancé votre recherche sur Welcome to the Jungle (par exemple, postes marketing en Île-de-France), copiez l’URL de la page de résultats et collez-la dans Octoparse. Cliquez sur Démarrer pour initialiser la collecte.

Étape 2 : Lancer l’autodétection

Cliquez sur Autodétection des données. Octoparse analyse la page et identifie automatiquement les champs pertinents : titre du poste, entreprise, localisation, type de contrat. Aucune sélection manuelle nécessaire.

Interface Octoparse montrant l'autodétection des données sur une page d'offres d'emploi Welcome to the Jungle

Étape 3 : Créer le flux et exporter

Sélectionnez Créer un flux de travail, ajustez ou supprimez les champs si besoin, puis cliquez sur Exécuter. Une fois la collecte terminée, exportez directement en fichier Excel ou Google Sheets.

Tableau de résultats Octoparse avec données d'offres d'emploi structurées prêtes pour export Excel

Les templates Octoparse pour les sites français

Pour les sites les plus utilisés en France, Octoparse propose des templates prêts à l’emploi qui évitent toute configuration. Voici ceux directement pertinents pour le marché français :

  • Leboncoin Data Scraper : titre, prix, adresse, description des annonces, etc.

https://www.octoparse.fr/template/leboncoin-data-scraper

  • Welcome to the Jungle Offres d’emploi Scraper : offres d’emploi avec tous les champs structurés, etc.

https://www.octoparse.fr/template/wttj-offres-scraper

  • Vinted Scraper Avancé : titre de l’annonce, prix, taille, état, vendeur (seconde main mode et accessoires), etc.

https://www.octoparse.fr/template/vinted_data_scraper_by_url

  • Pagesjaunes Business Info Scraper : noms, téléphones, adresses d’entreprises, etc.

https://www.octoparse.fr/template/pagesjaunes-business-info-scraper

Voici les données récupérées avec le template Welcome to the Jungle d’Octoparse : titre du poste, entreprise, localisation, type de contrat, date de publication, lien vers l’offre. Un fichier Excel structuré, prêt à filtrer ou à intégrer dans un CRM.

Données extraites avec le template Octoparse Welcome to the Jungle : titre de poste, entreprise, localisation, type de contrat et date de publication, prêtes pour export Excel

3 fonctionnalités à connaître pour aller plus loin

Déduplication automatique

Octoparse intègre une fonction de déduplication qui nettoie les doublons avant export. Vos données arrivent propres dans Excel, sans post-traitement.

Fonction de déduplication automatique dans Octoparse pour nettoyer les données avant export Excel

Planification des extractions

Les extractions peuvent être programmées (quotidienne, hebdomadaire, mensuelle) et s’exécutent en arrière-plan sur le cloud. Le fichier Excel mis à jour est disponible à l’heure choisie, sans intervention.

Interface de planification des extractions dans Octoparse : configuration de tâches automatiques quotidiennes ou hebdomadaires

Extraction du code source HTML

Extraction du code source HTML et des balises méta d'une page web avec Octoparse pour export structuré vers Excel

Pour les besoins techniques, Octoparse peut extraire l’URL complète, les balises méta et le HTML brut de chaque élément, utile pour les audits SEO ou les intégrations dans d’autres systèmes.

Transformer les sites web vers Excel, CSV, Google Sheets ou base de données.

Auto-détecter les sites Web et extraire les données sans aucun codage.

Scraper les sites populaires en quelques clics avec les modèles pré-construits.

Ne se trouver jamais bloqué grâce aux proxies IP et à l’API avancée.

Service Cloud pour programmer le scraping de données.

La vidéo ci-dessous montre l’ensemble du processus en temps réel : du collage de l’URL jusqu’à l’export Excel, avec l’interface réelle d’Octoparse.

📍 À lire aussi : Exporter les résultats de recherche de Google Maps vers Excel

Méthode 2 : collecter des données web vers Excel via Power Query

Excel propose une fonctionnalité native appelée Power Query, accessible depuis l’onglet Données, qui permet d’importer des données depuis des pages web directement dans un classeur.

Power Query ne peut importer que les tableaux HTML statiques présents dans le code source de la page. Il ne fonctionne pas avec les sites qui chargent leurs données via JavaScript (React, Vue.js, Angular), ce qui représente la très grande majorité des sites modernes : e-commerce, plateformes d’emploi, réseaux sociaux. Si la page affiche ses données après un chargement dynamique, Power Query retournera une erreur ou un tableau vide. Dans ce cas, passez directement à la méthode 1.

Étapes pour importer des données web dans Excel avec Power Query

  1. Ouvrir Excel et accéder à la fonctionnalité d’importation

Lancez Excel, puis allez dans l’onglet Données. Cliquez sur À partir du web (ou Obtenir des données > À partir du web).

Onglet Données dans Excel avec le bouton À partir du web pour importer des données via Power Query
  1. Entrer l’URL de la page web

Dans la fenêtre qui s’ouvre, collez l’URL de la page contenant le tableau à importer.

Exemple concret : la page Wikipedia listant les communes françaises de plus de 30 000 habitants contient un tableau HTML statique directement importable par Power Query. Cliquez sur OK.

Fenêtre Power Query dans Excel pour saisir l'URL d'une page web et lancer l'import de données
  1. Sélectionner les tables détectées

Excel affichera une liste de tables suggérées, qui sont des tableaux détectés automatiquement sur la page web. Choisissez la table qui vous intéresse, puis cliquez sur Charger ou Transformer.

Liste des tableaux HTML détectés automatiquement par Power Query dans Excel sur la page web cible
  1. (Optionnel) Ajouter une table à l’aide d’exemples

Pour aller plus loin, vous pouvez utiliser la fonctionnalité “Ajouter une table à l’aide d’exemples“.

Il suffit d’indiquer quelques exemples de valeurs que vous souhaitez extraire (par exemple, le nom et le prix des jeux). Power Query utilisera des algorithmes intelligents pour reconnaître le modèle et extraire les données correspondantes.

  1. Finaliser l’importation

Une fois que les données extraites vous conviennent, cliquez sur OK pour charger la table dans Excel.

Vous pouvez ensuite utiliser l’Éditeur Power Query pour mettre en forme les données ou les charger directement dans la feuille.

Éditeur Power Query dans Excel affichant les données web importées avant chargement final dans la feuille de calcul

Cas d’usage adaptés à Power Query en France

  • Tableaux de statistiques officiels : INSEE, data.gouv.fr, Banque de France
  • Cours boursiers depuis des pages de cotation avec tableaux HTML
  • Classements publiés sur Wikipedia en français
  • Données de sites institutionnels (collectivités, organismes publics)

Fonctions Excel utiles après l’import

RECHERCHEV / RECHERCHEX : fusionner deux sources de données. Exemple : rapprocher vos prix scrapés depuis Cdiscount avec votre catalogue interne pour calculer les écarts de marge.

SOMME.SI.ENS : agréger par critères. Exemple : total des salaires proposés par secteur d’activité dans vos offres d’emploi scrapées.

NB.SI / NB.SI.ENS : compter les occurrences. Exemple : nombre d’annonces Leboncoin par département pour un type de bien immobilier.

INDEX/EQUIV : alternative plus flexible à RECHERCHEV, particulièrement utile quand les colonnes source évoluent.

Conseil : après chaque import, commencez par Données > Supprimer les doublons, puis Tri, avant d’appliquer ces formules. Cette étape d’extraction de données Excel transforme vos données brutes en rapport exploitable en moins de 5 minutes.

Méthode 3 : extraire des données web vers Google Sheets avec IMPORTHTML

Si vous travaillez dans Google Workspace plutôt qu’avec Excel, deux fonctions intégrées permettent d’importer directement des données depuis des pages web, sans aucune installation.

IMPORTHTML : importer un tableau depuis une page web

La fonction =IMPORTHTML() récupère un tableau ou une liste depuis n’importe quelle page web accessible publiquement.

Syntaxe :

=IMPORTHTML(“URL”; “table” ou “list”; numéro_du_tableau)

Exemple concret (données françaises) :

=IMPORTHTML(“https://fr.wikipedia.org/wiki/Liste_des_communes_de_France_les_plus_peuplées”; “table”; 1)

Cette formule importe directement dans Google Sheets le tableau des communes françaises les plus peuplées depuis Wikipedia. Le résultat se met à jour automatiquement quand la page source change.

IMPORTDATA : importer un fichier CSV ou TSV depuis une URL

Pour les sources qui publient leurs données au format CSV (ce que font data.gouv.fr, l’INSEE ou Eurostat), utilisez =IMPORTDATA().

=IMPORTDATA(“https://www.data.gouv.fr/fr/datasets/r/votre-fichier.csv”)

Limites à connaître

  • Comme Power Query, IMPORTHTML ne fonctionne que sur les tableaux HTML statiques. Les sites JavaScript dynamiques sont hors de portée.
  • Google limite les requêtes automatiques : si votre feuille contient trop de fonctions IMPORT, certaines peuvent échouer temporairement.
  • Les données importées sont en lecture seule dans la cellule ; pour les analyser, copiez-collez-les en valeurs dans une autre feuille.

Pour les sources françaises institutionnelles (data.gouv.fr, INSEE, Banque de France), Google Sheets avec IMPORTDATA est souvent la solution la plus simple et la plus fiable, car ces organismes publient directement leurs jeux de données au format CSV téléchargeable.

Méthode 4 : extraire des données web avec VBA dans Excel

VBA (Visual Basic for Applications) permet d’automatiser l’extraction via des macros directement dans Excel. C’est la solution la plus flexible pour les utilisateurs à l’aise avec la programmation Office, sur Windows uniquement.

Les tutoriels VBA publiés avant 2022 utilisent Internet Explorer (CreateObject(“InternetExplorer.Application”)). Internet Explorer a été officiellement arrêté par Microsoft en juin 2022 et n’existe plus sur Windows 11. Tout code basé sur IE échouera. Le script ci-dessous utilise XMLHttpRequest, qui fonctionne sur toutes les versions actuelles de Windows.

Préparation : activer l’onglet Développeur

Fichier > Options > Personnaliser le ruban > cochez “Développeur” dans la colonne de droite, puis validez.

Activation de l'onglet Développeur dans Excel via le menu Options de personnalisation du ruban

Étape 1 : Ouvrir l’éditeur VBA et insérer un module

1. Cliquez sur Développeur > Visual Basic pour ouvrir l’éditeur

2. Allez dans Insertion > Module

Éditeur Visual Basic dans Excel avec le menu Insertion ouvert pour ajouter un module VBA d'extraction web

Étape 2 : Coller le script et l’exécuter

Copiez-collez le code ci-dessous dans le module, adaptez l’URL cible, puis appuyez sur F5 pour lancer.

Code VBA moderne avec XMLHttpRequest

Ce script extrait les données d’une page web dont le contenu est disponible dans le HTML source (sites statiques). Pour les sites JavaScript dynamiques, utilisez la méthode 1.

Sub ExtraireTableauWeb()
    Dim oHttp As Object
    Dim oHtml As Object
    Dim oTable As Object
    Dim oRow As Object
    Dim oCell As Object
    Dim i As Integer, j As Integer
    Dim sUrl As String

    sUrl = "https://votre-url-cible.fr"  ' Remplacez par votre URL

    ' Requête HTTP sans Internet Explorer
    Set oHttp = CreateObject("MSXML2.XMLHTTP.6.0")
    oHttp.Open "GET", sUrl, False
    oHttp.setRequestHeader "User-Agent", "Mozilla/5.0"
    oHttp.Send

    ' Parser le HTML
    Set oHtml = CreateObject("HTMLFile")
    oHtml.body.innerHTML = oHttp.responseText

    ' Extraire le premier tableau de la page
    Set oTable = oHtml.getElementsByTagName("table")(0)
    If oTable Is Nothing Then
        MsgBox "Aucun tableau trouvé sur cette page."
        Exit Sub
    End If

    ' Écrire dans Excel
    i = 1
    For Each oRow In oTable.getElementsByTagName("tr")
        j = 1
        For Each oCell In oRow.getElementsByTagName("td")
            Sheets(1).Cells(i, j).Value = oCell.innerText
            j = j + 1
        Next oCell
        i = i + 1
    Next oRow

    MsgBox "Extraction terminée : " & (i - 1) & " lignes importées."

    Set oHttp = Nothing
    Set oHtml = Nothing
End Sub

Comment personnaliser ce script :

  • Remplacez https://votre-url-cible.fr par l’URL de votre page source
  • getElementsByTagName(“table”)(0) cible le premier tableau ; passez à (1) pour le deuxième, etc.
  • Adaptez le nom de la feuille si elle ne s’appelle pas Feuil1
  • Appuyez sur F5 dans l’éditeur VBA pour exécuter, ou associez le script à un bouton

Limites du VBA pour l’extraction web

  • Ne fonctionne pas sur les sites qui chargent leur contenu via JavaScript (la grande majorité des sites modernes)
  • Maintenance nécessaire si la structure HTML de la page source change
  • Windows uniquement : VBA n’est pas disponible sur Excel Mac pour l’extraction web
  • Pour les volumes importants ou les sites complexes, la méthode 1 (outil no-code) reste plus fiable

Visualiser les données extraites

Graphiques croisés dynamiques

Insertion > Tableau croisé dynamique : glissez vos champs pour calculer des moyennes, totaux ou comptages automatiquement. Exemple : nombre d’offres d’emploi par secteur et par région depuis vos données scrapées.

Mise en forme conditionnelle

Accueil > Mise en forme conditionnelle > Barres de données : visualisez d’un coup d’oeil les valeurs les plus hautes ou les plus basses (prix minimum concurrent, salaire médian par ville).

Astuce

Ctrl+T transforme votre plage de données en Tableau structuré. Vos graphiques se mettent alors à jour automatiquement à chaque nouvelle extraction, sans manipulation supplémentaire.

Méthode 5 : externaliser la collecte de données web

Quand le volume de données est important, que les sites cibles sont complexes, ou que l’équipe n’a pas les ressources pour gérer l’infrastructure de scraping en interne, faire appel à un service spécialisé est souvent plus rentable.

Octoparse propose un service de données sur mesure : vous définissez vos besoins (sources, champs, fréquence, format), l’équipe prend en charge l’extraction et vous livre les données structurées directement en Excel, CSV ou dans votre base de données.

Pour toute demande, contactez : support@octoparse.com

Web scraping et RGPD : ce qu’il faut savoir en France

La France est l’un des pays européens où le RGPD est appliqué avec le plus de rigueur, via la CNIL. Avant de scraper un site, voici les règles essentielles :

  • Données publiques non personnelles : la collecte est généralement légale. Prix de produits, annonces immobilières, résultats de recherche, informations d’entreprises publiées publiquement.
  • Données personnelles : nom, email, numéro de téléphone d’un particulier sont protégés par le RGPD, même s’ils sont accessibles publiquement en ligne. Leur collecte automatisée sans base légale est interdite.
  • Conditions d’utilisation du site : certains sites interdisent explicitement le scraping dans leurs CGU. Même si le contenu est public, enfreindre les CGU peut entraîner des poursuites judiciaires.
  • robots.txt : respectez les directives de ce fichier, qui indique les pages qu’un site autorise ou interdit aux robots.

Pour les besoins professionnels de génération de leads B2B, les informations d’entreprises (raison sociale, téléphone professionnel, adresse du siège) sont considérées comme des données publiques et restent dans le cadre légal. Les informations personnelles des dirigeants (email personnel, téléphone personnel) en revanche ne le sont pas.

En résumé : quelle méthode choisir ?

Le choix de la méthode dépend de trois critères : votre niveau technique, le type de site cible, et le volume de données à traiter.

SituationMéthode recommandée
Site statique avec tableau HTML, usage ponctuelPower Query (Excel) ou IMPORTHTML (Google Sheets)
Source officielle française (INSEE, data.gouv.fr)IMPORTDATA dans Google Sheets
Site JavaScript dynamique, e-commerce, emploi, immobilierOutil no-code : Octoparse ou équivalent
Sites français populaires (Leboncoin, WTTJ, PagesJaunes)Templates Octoparse prêts à l’emploi
Automatisation récurrente, volume importantOutil no-code avec planification cloud
Développeur, besoin sur mesure, site statiqueVBA avec XMLHttpRequest (Windows uniquement)
Données complexes, délégation complèteService de données Octoparse

Besoin de récupérer des données depuis Leboncoin, Welcome to the Jungle, SeLoger ou un site e-commerce français vers Excel, sans écrire une ligne de code ? Avec les templates Octoparse dédiés au marché français, vous saisissez vos paramètres de recherche et vous obtenez en quelques minutes un fichier structuré avec les champs qui vous intéressent : noms, prix, adresses, contacts, prêt à exploiter dans Excel ou Google Sheets. L’essai gratuit de 14 jours vous permet de tester l’ensemble des fonctionnalités avant de vous engager.

FAQ

  • Comment puis-je extraire des données d’un site web dans Excel ?

Trois méthodes principales : Power Query (onglet Données > À partir du web) pour les tableaux HTML statiques, un outil no-code comme Octoparse pour les sites dynamiques et les volumes importants, ou VBA avec XMLHttpRequest pour les développeurs. Si le site utilise JavaScript pour afficher ses données, seul un outil de scraping dédié fonctionnera.

  • Comment importer des données web vers Excel ?

Depuis Excel : onglet Données > À partir du web > collez l’URL > sélectionnez le tableau > Charger. Cette méthode fonctionne uniquement sur les sites avec des tableaux HTML statiques. Pour les sites dynamiques (la majorité des sites modernes), utilisez un outil de web scraping.

  • Comment extraire toutes les données d’un site web ?

Pour extraire l’intégralité des données d’un site (plusieurs pages, pagination, sous-pages), il faut un outil capable de suivre la navigation automatiquement. Octoparse gère la pagination, les liens vers les pages de détail et le défilement infini. Power Query et VBA sont limités à une page à la fois.

  • Comment extraire automatiquement des données d’un site web vers une feuille de calcul ?

Avec Octoparse, vous pouvez planifier des extractions automatiques (quotidiennes, hebdomadaires) qui s’exécutent sur le cloud. Le fichier Excel mis à jour est disponible à l’heure choisie. Avec Google Sheets et IMPORTHTML, les données se rafraîchissent automatiquement quand la page source change.

  • Puis-je utiliser directement Excel pour extraire des données d’un site web ?

Oui, via Power Query (onglet Données > À partir du web). Mais cette méthode est limitée aux tableaux HTML statiques. Elle ne fonctionne pas sur les sites qui chargent leurs données via JavaScript, ce qui exclut la plupart des sites d’e-commerce, d’emploi et d’immobilier.

  • Le code VBA que j’ai trouvé sur internet ne fonctionne pas, pourquoi ?

La majorité des tutoriels VBA pour le web scraping utilisent Internet Explorer (CreateObject(“InternetExplorer.Application”)). IE a été arrêté par Microsoft en juin 2022 et n’existe plus sur Windows 11. Utilisez le code basé sur XMLHttpRequest présenté dans cet article, qui fonctionne sur toutes les versions actuelles de Windows.

  • Est-ce légal d’extraire des données depuis des sites web en France ?

La collecte de données publiques non personnelles est généralement légale. En France, le RGPD encadre strictement la collecte de données personnelles (nom, email, téléphone d’un particulier). Respectez toujours le fichier robots.txt du site et ses conditions d’utilisation. En cas de doute, consultez un professionnel du droit.

  • Comment extraire des données HTML vers Excel ?

Si le tableau est directement visible dans le code source de la page (HTML statique), Power Query ou VBA suffisent. Si les données sont chargées dynamiquement via JavaScript, utilisez un outil de scraping no-code qui simule la navigation dans un vrai navigateur.

Obtenir les données en quelques clics
Extraire facilement les données depuis tous les sites sans coder
Télécharger

Articles populaires

Explorer les sujets

Commencer votre découverte de Octoparse dès maintenant

Télécharger

Lecture conseillée