Importation données pages web sur GoogleSheets

ImportXML

a marqué ce sujet comme résolu.

Bonjour à tous,

Je cherche à importer des donnée d’un site web dans GoogleSheets (titre, prix, stock…) Alors voilà, je travail sur une importation de données tirée d’une page web sur un GoogleSheets. J’aimerai y tirer toutes les informations nécessaires et caractéristiques de chaque produits.

Quel outil ou méthode auriez vous utilisé ?

j’ai réussi a importer les tires de chaque produits avec la formule importXML mais là je suis bloqué pour l’import du statut en stock des produits. Celui-ci doit être

Pouvez vous m’aider ? :(

Je suis passé par la console du site web avec les "class". Voici un petit aperçu

XML PROBLEME.png
XML PROBLEME.png

Maintenant j’aimerai stipuler devant chaque produits si celui-ci est en stock. Pour cela j’ai utilisé la même méthode. Cependant elle ne fonctionne pas.

Voici la formule en question: =IMPORTXML(B2,"//div[@class=’o-status-text o-status-text—success c-product-cardstatus t-product-cardstatus’]")

et voici un aperçu de ce que je veux importer du site

XML IMPORT.png
XML IMPORT.png

Si quelqu’un peut m’aider, merci d’avance

Quel outil ou méthode auriez vous utilisé ?

J’aurais utilisé plutôt un « vrai » script qui va chercher les bonnes infos sur le site. La méthode IMPORTXML est sympa pour des tâches d’appoint, mais peut-être que dans le cas présent il nous faut quelque chose de plus puissant et souple, si c’est pour du scraping (ce qui semble être le cas). Tu connais un langage de programmation style Python ou autre ?

L’avantage d’utiliser IMPORTXML, par contre, c’est que ça va direct dans ton Google Sheet. En passant par un script, tu gagnes l’aisance pour le scraping, mais il faudra gérer le fait d’envoyer les données récoltées sur Google Sheet (possible via leurs API) a posteriori.

Tu as besoin de Google Sheet spécifiquement ou bien n’importe quelle base de données tabulaire fera l’affaire ? Tu peux éventuellement sauvegarder un fichier CSV en local, lequel pourra être lu par Excel, par Calc et par Google Sheet.

+0 -0

Je verrais bien une solution du style : un script va sur le site et va chercher les infos nécessaires qu’il va ensuite faire parvenir à Google Sheet via son API publique.

Cette solution serait, je pense, la plus robuste et la plus maintenable sur le long terme (si le site change de structure, il faut retoucher seulement une des briques), mais c’est au prix d’un développement un poil plus complexe. Si tu n’es pas à l’aise en programmation, ça peut être un peu chaud :(

L’avantage, c’est aussi que tu pourras avoir ton script qui tourne dans un coin automatiquement (par exemple toutes les heures), comme ça ton Google Sheet est toujours à jour sans même que tu n’aies besoin de faire quoi que ce soit.

j’ai 18 0000 URL à vérifier. Je dois aussi en faire ressortir plusieurs informations. C’est faisable avec un script ?

ludosmo

Oui, c’est en théorie possible. Du moins, ce n’est pas moins possible qu’avec Sheet directement.

Tu as 18k URL sur plusieurs sites différents, ou le même ? C’est 18k pour la première fois seulement ou de façon récurrente ?

Techniquement parlant, ce n’est pas un problème du tout. Charger et analyser 18k pages par semaine c’est complètement faisable. Cependant, peut-être que tu pourrais te heurter à une limitation de requêtes de la part du serveur qui sert le site que tu veux analyser. Le problème serait, en fait, plutôt d’ordre administratif.

+0 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte