Je vais développer votre script de scraping personnalisé en Python ou Node.js
Vente 0
Proposé par CorentinRobert •Expert en scraping, automatisation et outbound Professionnel Ventes au total 3
Idéal pour : équipes techniques, développeurs qui veulent intégrer le scraping dans leur pipeline, ou clients qui préfèrent héberger eux-mêmes. ~Livraison 10 à 14 jours~ selon la complexité.
---
## À qui s'adresse ce gig
- Vous avez (ou votre équipe a) un **environnement d’exécution** : Python ou Node sur une machine, un serveur, ou un outil d’automatisation (Make, GitHub Actions, etc.).
- Vous voulez **garder le code** et le modifier éventuellement plus tard — pas seulement recevoir un fichier de données.
- Vous préférez **pas d’abonnement plateforme** (type Apify) : vous payez une fois le script, puis vous gérez l’exécution et l’hébergement.
**Ce gig ne convient pas** si vous ne voulez pas gérer l’exécution du script → préférez mon gig « Extraction de données sur le site de votre choix » (je livre les données) ou « Actor Apify » (vous relancez sur Apify sans gérer de serveur).
---
## Ce que vous obtenez
- **Un script fonctionnel** (Python avec Beautiful Soup / Scrapy / Playwright, ou Node avec Puppeteer / Cheerio selon le besoin) : une ou plusieurs sources, champs demandés, gestion de la pagination si besoin.
- **Un README** : prérequis (Python 3.x / Node, librairies), installation (`pip install` / `npm install`), commande pour lancer le script, format de sortie (CSV, JSON).
- **Sortie** : fichier CSV ou JSON local (ou envoi vers une URL/webhook si demandé en option).
- **Délai** : 10 jours pour une source simple, jusqu’à 14 jours pour une source complexe (anti-bot, JavaScript lourd, plusieurs sites). Délai précis confirmé à la commande.
---
## Types de sources et technologies
Contexte Techno typique Exemples de sites
---------------------------------------------
**Pages HTML statiques** Python (Beautiful Soup, requests) ou Node (Cheerio, axios) Annuaires simples, listes, catalogues basiques
**Pages avec JavaScript** Python (Playwright) ou Node (Puppeteer) Sites SPA, contenus chargés en dynamique
**Pagination / multi-pages** Géré dans le script (boucles, paramètres d’URL) E-commerce, annuaires, immobilier
**Sites avec anti-bot** Playwright/Puppeteer + options anti-détection (à discuter) Sites protégés — tarif avancé
*Sites très protégés (LinkedIn, Facebook, etc.) : possible en offre Avancé, sous réserve de faisabilité. À préciser en message.*
---
## Champs et livrables
- **Champs** : ceux que vous demandez (nom, prix, lien, email, téléphone, etc.), écrits dans le fichier de sortie (CSV ou JSON).
- **Livrable** : dépôt ou archive (ZIP) contenant le script + README + éventuellement `requirements.txt` / `package.json`.
- **Option** : envoi des résultats vers une URL (webhook), Google Sheets ou base de données — tarif en message.
---
## Tarifs (2 offres)
Offre Ce qui est inclus Délai indicatif Tarif
--------------------------------------------------
**Script — source standard** 1 source (site ou type de pages), script Python ou Node documenté, sortie CSV/JSON. Jusqu’à ~10 000 lignes et champs standards. 10 jours max 468,25 $US
**Script — source avancée** Site avec JavaScript lourd, anti-bot, ou plusieurs sources dans un même script. Code documenté, prêt à l’emploi. 14 jours max 760,91 $US
**En option** (tarif en message) : webhook / envoi vers Google Sheets ou base ; Dockerfile pour exécution en conteneur ; intégration dans Make/Zapier/GitHub Actions.
---
## Ce dont j'ai besoin de votre part
- L’**URL ou la source** à scraper (+ 1–2 exemples de pages si possible).
- La **liste des champs** à extraire.
- Le **volume attendu** (ordre de grandeur : centaines, milliers de lignes).
- **Langage** : Python ou Node ? (Si vous n’avez pas de préférence, je propose selon la source.)
- **Environnement** : où comptez-vous lancer le script (local, serveur Linux, Make, autre) ? — pour adapter la doc.
---
## Message à envoyer après la commande (consignes)
*À copier dans Comeup :*
**Merci pour votre commande ! Pour développer votre script de scraping, j’ai besoin de :**
- L’URL ou la source à scraper (+ 1–2 exemples de pages si possible)
- La liste des champs à extraire
- Le volume attendu (ordre de grandeur)
- Préférence de langage : Python ou Node ?
- Où vous comptez lancer le script (local, serveur, Make, etc.) pour adapter la documentation
Dès réception, je vous confirme le périmètre et le délai de livraison.
---
## Pourquoi me faire confiance
- **~+50 entreprises accompagnées~** sur du scraping et de la data ; scripts Python et Node livrés en production.
- **Code clair et documenté** : vous ou votre équipe pouvez maintenir et faire évoluer le script.
- **Livraison dans les délais** : délai convenu à la commande.
- **Un point de contact unique** : pas de sous-traitance.
---
## Lien avec mes autres gigs
- **Vous voulez juste les données, pas le code ?** → Gig « Extraction de données sur le site de votre choix » (fichier ou intégration).
- **Vous préférez ne pas gérer un serveur et relancer depuis une plateforme ?** → Gig « Actor Apify sur-mesure » (vous relancez sur Apify).
-
Commandez le
service de votre choix
à l’un de nos vendeurs -
Échangez par chat sur le
site jusqu’à la livraison en toute sécurité -
Le vendeur n’est payé que
lorsque vous validez la livraison
À propos du vendeur
Je fais du scraping et de l’automatisation depuis 3 ans. Avant ça j’étais Growth Engineer chez Airbnb et Shine — aujourd’hui je travaille avec des startups et des PME pour mettre en place des pipelines de données et des sales machines (extraction → enrichissement → outbound). Résultats rapides, pas des promesses à long terme. En parallèle je développe Logement Atypique avec mon frère (logements d’exception en France). Côté stack : Apify pour les scrapers sur-mesure, Lemlist pour l’outbound. Que ce soit une mission ponctuelle ou un accompagnement, on peut en discuter — j’aime bien comprendre le besoin avant de proposer quoi que ce soit.