Nous sommes des SEO BlackHat sévissant sur internet depuis plus de 10 ans. Nous savons créer des sites internet, les héberger sur le web et les positionner en 1er page des moteurs de recherche. Le référencement internet c’est notre métier et la monétisation notre passion !

Mobile Marketing

Pay Per Click (PPC) Management

Conversion Rate Optimization

Email Marketing

Online Presence Analysis

On vous rappelle gratuitement


Nous sommes à votre disposition pour discuter ensemble de vos projets internet.

+33 6 88 81 72 90

contact@black-hat-seo.org

66 Avenue Des Champs Elysées<br /> 75008 PARIS

+33 6 88 81 72 90

66 Avenue Des Champs Elysées 75008 Paris

Top

Définition de Crawler et Crawling

Un Crawler est un robot ou un logiciel qui fait du Crawling, on dit généralement qu’il “Crawl” en d’autres termes il “explore le Web” en parcourant les liens qu’il trouve.

Vous pouvez demander à votre Crawler de parcourir le Web, ou lui dire d’explorer seulement une partie du Web, comme votre site Web ou ceux de vos concurrents.

Partagez :

Vous savez faire du Web Scraping et vous savez scraper des données du web ?

Vous avez constitué des listes de ressources, que ce soit des titres, des urls, emails, noms de domaine, dates, prix… vous devez maintenant les trier pour mieux les utiliser.

Dans cet article je vais vous apprendre à dédoublonner, autrement dit supprimer les doublons de vos listes d’urls et de caractères.

Il existe plusieurs moyens pour dédoublonner une liste, ceux que je vais vous citer ne sont pas forcement les meilleurs mais c’est ceux que j’utilise quotidiennement. Si vous en connaissez d’autres merci de les partager en commentaires 😉

En fonction du type de doublons que vous souhaitez supprimer, vous devez utiliser des outils différents. Ici je vais vous parler principalement du dédoublonnage d’url et de nom de domaine.

Partagez :

Le Web Scraping (parfois appelé “harvesting” (“récolte” en anglais)) est une technique d’extraction de contenu de sites Web, via un script ou un programme, dans le but de le transformer pour permettre son utilisation dans un autre contexte.

Toute personne voulant faire du SEO proprement doit savoir scraper.

Que ce soit pour identifier les bons mots clés, trouver des bonnes niches, des bons liens, suivre les positions dans les serps, contrôler les échanges de liens, vérifier des données, faire des autoblogs, collecter des données pour les vendre etc… vous avez forcément besoin de scraper ou alors vous avez besoin d’un logiciel qui fait du Web Scraping à votre place.

Partagez :

Cela fait plusieurs années que je développe des scripts PHP principalement pour automatiser des taches de création de comptes et de publication de contenu. La plupart de ces développements sont utilisable sur mon logiciel de référencement internet. Aujourd’hui j’ai décidé de vous proposer ces scripts PHP en vente ainsi que mes compétences de développeur si vous souhaitez aller plus loin que le simple achat de code source.

Partagez :