Nous sommes des SEO BlackHat sévissant sur internet depuis plus de 10 ans. Nous savons créer des sites internet, les héberger sur le web et les positionner en 1er page des moteurs de recherche. Le référencement internet c’est notre métier et la monétisation notre passion !

Mobile Marketing

Pay Per Click (PPC) Management

Conversion Rate Optimization

Email Marketing

Online Presence Analysis

On vous rappelle gratuitement


Nous sommes à votre disposition pour discuter ensemble de vos projets internet.

+33 6 88 81 72 90

contact@black-hat-seo.org

66 Avenue Des Champs Elysées<br /> 75008 PARIS

+33 6 88 81 72 90

66 Avenue Des Champs Elysées 75008 Paris

Top

Définition d’une attaque Brute Force

Une attaque par force brute est une méthode de hacking très utilisé sur internet pour trouver un mot de passe. Cette attaque consiste à tester, une à une, toutes les combinaisons possibles jusqu’à trouver la bonne combinaison.

C’est un véritable fléau pour votre site internet puisqu’une attaque peu rapidement utilisé toute la bande passante de votre offre d’hébergement voir pire se transformer en une attaque DDOS et faire crasher votre serveur en le rendant inaccessible.

Partagez :

Pourquoi vous n’avez pas 100%

La dernier problème à résoudre pour obtenir un jolie 100% dans Google Page Speed c’est bien souvent le “tag” javascript de Google Analytics.

Exemple d’erreur dans Google Page Speed pour le code Google Analytics :

Il est conseillé de placer le tag Javascript dans le Footer de vos sites pour laisser le contenu charger avant ce script. Mais vous pouvez aussi le masquer au cas par cas.

Par exemple il est utile de ne pas “tracker” vos propres visites sur vos sites en masquant le tag Analytics grâce à votre adresse IP. Donc vous pouvez aussi le masquer pour vos différents tests fait via des outils.

Partagez :

Préambule

Avez-vous remarqué l’absence de sous-catégories, dans les pages catégorie de PrestaShop 1.7 ? C’est un problème pour certains clients habitué à le faire depuis des années… Voyons ensemble comment y remédier rapidement avec cette nouvelle version de Prestashop.

Nous utilisons pour cette exemple le template “Classic” qui est fournis par defaut. Nous devons éditer les fichiers “category.tpl” et “theme.css” de ce thème.

Partagez :

Google affiche des descriptions plus longues

Vous l’avez sans doute remarqué : fin novembre, Google à augmenté la taille des descriptions des pages Web qui ressortent dans ses résultats de recherche.

La description passe de 160 à plus de 300  caractères.

Google cherche donc à mieux informer ses utilisateurs en fournissant plus de contenu. Nous allons voir ensemble dans cet article comment tourner cette amélioration à votre avantage 😉

Partagez :

Le SSL C’est quoi ?

SSL est l’acronyme de “Secure Socket Layer” c’est un protocole de sécurisation des échanges sur Internet. Il permet d’assurer la confidentialité des données échangées entre un internaute et un site internet. En utilisant un certificat SSL les données ne transitent plus en clair mais sont chiffrées, les urls passent de HTTP à HTTPS.

Le protocole SSL à évolué et à été rebaptisé “TLS” pour “Transport Layer Security” c’est pour cela que l’on voit très souvent le terme SSL/TLS.

Partagez :

Un proxy c’est quoi ?

Un proxy est un serveur Web configuré pour servir d’intermédiaire à chacune des requêtes que vous faites sur le Web.

Le proxy joue le rôle de passerelle entre vous et le serveur censé vous retourner une réponse. Ainsi vous pouvez préserver votre anonymat puisque les sites que vous visitez verront uniquement l’IP du proxy.

En d’autres termes : Vous faites une demande d’afficher une page à votre proxy, il va la chercher et vous l’envoi.

Comment trouver des proxies avec Scrapebox

Je vous ai déjà présenté Scrapebox le couteau suisse du SEO, je vous avais montré comment importer vos proxys payant…  Nous allons voir ici comment scraper des proxys gratuit sur le Web en utilisant “des sources de proxy”.

Partagez :

Comment scraper des URLs avec Scrapebox

Je vous avais déjà présenté Scrapebox qui est un logiciel qui permet de faire du Web Scraping.

Aujourd’hui je vais vous apprendre à l’utiliser pour Scraper des URLS en faisant du Crawling sur les moteurs de recherche mais pour cela vous devez disposer de proxy valide pour crawler Google, puisque sans proxy vous allez vite être bloqué et donc votre récolte d’URLs sera très limité.

Scrapebox permet de scraper des proxy gratuit présent sur le Web mais vous allez perdre beaucoup de temps à les trier. Si vous voulez toutefois utiliser des proxy gratuit voici comment faire : Scraper des proxies gratuit avec Scrapebox.

Partagez :

Définition de Crawler et Crawling

Un Crawler est un robot ou un logiciel qui fait du Crawling, on dit généralement qu’il “Crawl” en d’autres termes il “explore le Web” en parcourant les liens qu’il trouve.

Vous pouvez demander à votre Crawler de parcourir le Web, ou lui dire d’explorer seulement une partie du Web, comme votre site Web ou ceux de vos concurrents.

Partagez :

Vous savez faire du Web Scraping et vous savez scraper des données du web ?

Vous avez constitué des listes de ressources, que ce soit des titres, des urls, emails, noms de domaine, dates, prix… vous devez maintenant les trier pour mieux les utiliser.

Dans cet article je vais vous apprendre à dédoublonner, autrement dit supprimer les doublons de vos listes d’urls et de caractères.

Il existe plusieurs moyens pour dédoublonner une liste, ceux que je vais vous citer ne sont pas forcement les meilleurs mais c’est ceux que j’utilise quotidiennement. Si vous en connaissez d’autres merci de les partager en commentaires 😉

En fonction du type de doublons que vous souhaitez supprimer, vous devez utiliser des outils différents. Ici je vais vous parler principalement du dédoublonnage d’url et de nom de domaine.

Partagez :

Le Web Scraping (parfois appelé “harvesting” (“récolte” en anglais)) est une technique d’extraction de contenu de sites Web, via un script ou un programme, dans le but de le transformer pour permettre son utilisation dans un autre contexte.

Toute personne voulant faire du SEO proprement doit savoir scraper.

Que ce soit pour identifier les bons mots clés, trouver des bonnes niches, des bons liens, suivre les positions dans les serps, contrôler les échanges de liens, vérifier des données, faire des autoblogs, collecter des données pour les vendre etc… vous avez forcément besoin de scraper ou alors vous avez besoin d’un logiciel qui fait du Web Scraping à votre place.

Partagez :