Nous sommes des SEO BlackHat sévissant sur internet depuis plus de 10 ans. Nous savons créer des sites internet, les héberger sur le web et les positionner en 1er page des moteurs de recherche. Le référencement internet c’est notre métier et la monétisation notre passion !

Mobile Marketing

Pay Per Click (PPC) Management

Conversion Rate Optimization

Email Marketing

Online Presence Analysis

On vous rappelle gratuitement


Nous sommes à votre disposition pour discuter ensemble de vos projets internet.

+33 6 88 81 72 90

contact@black-hat-seo.org

66 Avenue Des Champs Elysées<br /> 75008 PARIS

+33 6 88 81 72 90

66 Avenue Des Champs Elysées 75008 Paris

Top

Un proxy c’est quoi ?

Un proxy est un serveur Web configuré pour servir d’intermédiaire à chacune des requêtes que vous faites sur le Web.

Le proxy joue le rôle de passerelle entre vous et le serveur censé vous retourner une réponse. Ainsi vous pouvez préserver votre anonymat puisque les sites que vous visitez verront uniquement l’IP du proxy.

En d’autres termes : Vous faites une demande d’afficher une page à votre proxy, il va la chercher et vous l’envoi.

Comment trouver des proxies avec Scrapebox

Je vous ai déjà présenté Scrapebox le couteau suisse du SEO, je vous avais montré comment importer vos proxys payant…  Nous allons voir ici comment scraper des proxys gratuit sur le Web en utilisant “des sources de proxy”.

Partagez :

Comment scraper des URLs avec Scrapebox

Je vous avais déjà présenté Scrapebox qui est un logiciel qui permet de faire du Web Scraping.

Aujourd’hui je vais vous apprendre à l’utiliser pour Scraper des URLS en faisant du Crawling sur les moteurs de recherche mais pour cela vous devez disposer de proxy valide pour crawler Google, puisque sans proxy vous allez vite être bloqué et donc votre récolte d’URLs sera très limité.

Scrapebox permet de scraper des proxy gratuit présent sur le Web mais vous allez perdre beaucoup de temps à les trier. Si vous voulez toutefois utiliser des proxy gratuit voici comment faire : Scraper des proxies gratuit avec Scrapebox.

Partagez :

Vous savez faire du Web Scraping et vous savez scraper des données du web ?

Vous avez constitué des listes de ressources, que ce soit des titres, des urls, emails, noms de domaine, dates, prix… vous devez maintenant les trier pour mieux les utiliser.

Dans cet article je vais vous apprendre à dédoublonner, autrement dit supprimer les doublons de vos listes d’urls et de caractères.

Il existe plusieurs moyens pour dédoublonner une liste, ceux que je vais vous citer ne sont pas forcement les meilleurs mais c’est ceux que j’utilise quotidiennement. Si vous en connaissez d’autres merci de les partager en commentaires 😉

En fonction du type de doublons que vous souhaitez supprimer, vous devez utiliser des outils différents. Ici je vais vous parler principalement du dédoublonnage d’url et de nom de domaine.

Partagez :

Le Web Scraping (parfois appelé “harvesting” (“récolte” en anglais)) est une technique d’extraction de contenu de sites Web, via un script ou un programme, dans le but de le transformer pour permettre son utilisation dans un autre contexte.

Toute personne voulant faire du SEO proprement doit savoir scraper.

Que ce soit pour identifier les bons mots clés, trouver des bonnes niches, des bons liens, suivre les positions dans les serps, contrôler les échanges de liens, vérifier des données, faire des autoblogs, collecter des données pour les vendre etc… vous avez forcément besoin de scraper ou alors vous avez besoin d’un logiciel qui fait du Web Scraping à votre place.

Partagez :

parametre_url_googleAfin de faire des recherches plus ou moins personnalisé Google à mis en place un certain nombre de paramètre que l’on peut passer en methode GET (donc directement dans l’url). Ces différents paramètres permettent par exemple d’afficher 100 resultats par page, choisir la langue de l’interface google, restreindre la recherche à un pays ou une langue etc..

Je suis actuellement entrain de faire un robot qui va aller scrapper les SERPs donc j’ai trouvé utile d’avoir un petit récap de ces paramètres ici même 😉

Partagez :

Présentation de Xenu’s Link Sleuth

Xenu’s Link Sleuth (TM) vérifie la présence de liens brisés sur les sites Web.

La vérification des liens est effectuée sur les liens, les images, les frames, les plug-ins, les backgrounds, les feuilles de style, les scripts…

Il affiche une liste continuellement mise à jour d’URL que vous pouvez trier selon différents critères.

Un rapport peut être produit à tout moment.

Partagez :