Nous sommes des SEO BlackHat sĂ©vissant sur internet depuis plus de 10 ans. Nous savons crĂ©er des sites internet, les hĂ©berger sur le web et les positionner en 1er page des moteurs de recherche. Le rĂ©fĂ©rencement internet c’est notre mĂ©tier et la monĂ©tisation notre passion !

Mobile Marketing

Pay Per Click (PPC) Management

Conversion Rate Optimization

Email Marketing

Online Presence Analysis

On vous rappelle gratuitement

Nous sommes Ă  votre disposition pour discuter ensemble de vos projets internet.

+33 6 88 81 72 90

contact@black-hat-seo.org

66 Avenue Des Champs Elysées 75008 PARIS

⇒ DĂ©couvrez des Tutoriaux, de l'ActualitĂ©s et des Prestations sur mesure avec l'agence Web Black Hat SEO ⇐

+33 6 88 81 72 90

66 Avenue Des Champs Elysées 75008 Paris

Top

Préambule

Avez-vous remarquĂ© l’absence de sous-catĂ©gories, dans les pages catĂ©gorie de PrestaShop 1.7 ? C’est un problĂšme pour certains clients habituĂ© Ă  le faire depuis des annĂ©es… Voyons ensemble comment y remĂ©dier rapidement avec cette nouvelle version de Prestashop.

Nous utilisons pour cette exemple le template “Classic” qui est fournis par defaut. Nous devons Ă©diter les fichiers “category.tpl” et “theme.css” de ce thĂšme.

Le SSL C’est quoi ?

SSL est l’acronyme de “Secure Socket Layer” c’est un protocole de sĂ©curisation des Ă©changes sur Internet. Il permet d’assurer la confidentialitĂ© des donnĂ©es Ă©changĂ©es entre un internaute et un site internet. En utilisant un certificat SSL les donnĂ©es ne transitent plus en clair mais sont chiffrĂ©es, les urls passent de HTTP Ă  HTTPS.

Le protocole SSL Ă  Ă©voluĂ© et Ă  Ă©tĂ© rebaptisĂ© “TLS” pour “Transport Layer Security” c’est pour cela que l’on voit trĂšs souvent le terme SSL/TLS.

Vous savez faire du Web Scraping et vous savez scraper des données du web ?

Vous avez constituĂ© des listes de ressources, que ce soit des titres, des urls, emails, noms de domaine, dates, prix… vous devez maintenant les trier pour mieux les utiliser.

Dans cet article je vais vous apprendre Ă  dĂ©doublonner, autrement dit supprimer les doublons de vos listes d’urls et de caractĂšres.

Il existe plusieurs moyens pour dĂ©doublonner une liste, ceux que je vais vous citer ne sont pas forcement les meilleurs mais c’est ceux que j’utilise quotidiennement. Si vous en connaissez d’autres merci de les partager en commentaires 😉

En fonction du type de doublons que vous souhaitez supprimer, vous devez utiliser des outils diffĂ©rents. Ici je vais vous parler principalement du dĂ©doublonnage d’url et de nom de domaine.

Le Web Scraping (parfois appelĂ© “harvesting” (“rĂ©colte” en anglais)) est une technique d’extraction de contenu de sites Web, via un script ou un programme, dans le but de le transformer pour permettre son utilisation dans un autre contexte.

Toute personne voulant faire du SEO proprement doit savoir scraper.

Que ce soit pour identifier les bons mots clĂ©s, trouver des bonnes niches, des bons liens, suivre les positions dans les serps, contrĂŽler les Ă©changes de liens, vĂ©rifier des donnĂ©es, faire des autoblogs, collecter des donnĂ©es pour les vendre etc… vous avez forcĂ©ment besoin de scraper ou alors vous avez besoin d’un logiciel qui fait du Web Scraping Ă  votre place.

Cela fait plusieurs annĂ©es que je dĂ©veloppe des scripts PHP principalement pour automatiser des taches de crĂ©ation de comptes et de publication de contenu. La plupart de ces dĂ©veloppements sont utilisable sur mon logiciel de rĂ©fĂ©rencement internet. Aujourd’hui j’ai dĂ©cidĂ© de vous proposer ces scripts PHP en vente ainsi que mes compĂ©tences de dĂ©veloppeur si vous souhaitez aller plus loin que le simple achat de code source.

Matt Cutts nous parle du Cloaking dans une vidéo publié sur Youtube hier.

Il nous parle notamment d’un exemple de Cloacking de trĂšs mauvais gout ! Imaginez… certains vont jusqu’à cloaker du Disney avec du Porno !!!!

C’est donc normal que Google disent que le cloaking est interdit et qu’ils luttent contre pour limiter au maximum les abus et se ramasser eux mĂȘme des procĂšs. Voir pire pour eux (vu l’armĂ©e d’avocats qu’ils ont), faire fuir les utilisateurs.

Matt Cutts nous explique clairement que si on donne un contenu totalement diffĂ©rent Ă  l’user agent de Google et Ă  d’autres. On risque de ce faire Ă©jecter du moteur. Mais si le contenu est un peu diffĂ©rent ca passe.