*
SLIDER
blockHeaderEditIcon

    Pourquoi le nouvel algorithme de Google fait craindre un "Armageddon mobile"

    RÉFÉRENCEMENT
    "Le changement affectera les recherches mobiles dans toutes les langues à travers le monde et aura un impact significatif sur nos résultats de recherche" a prévenu Google (Crédits : reuters.com)
    Delphine Cuny  |   -  1097  mots

    Le moteur de recherche lancera mardi son nouvel algorithme « mobile-friendly » mettant plus en avant les sites adaptés aux smartphones. Les deux tiers des sites français ne seraient pas prêts et risquent de perdre beaucoup de visibilité, donc d’audience et potentiellement de recettes.

    Les professionnels de l'optimisation du référencement sur le Web ont déjà surnommé la journée du 21 avril un "Armageddon mobile"("mobilegeddon"), tant les modifications de l'algorithme de Google font craindre des conséquences catastrophiques et un renversement de la hiérarchie des sites. Pour la première fois, Google a pris la peine de communiquer deux mois avant pour prévenir les webmestres du monde entier des nouveautés apportées à son algorithme ultra-secret, qui détermine le classement des résultats en réponse à une requête Internet.

    « A partir du 21 avril, nous étendrons l'utilisation de la compatibilité mobile comme un critère de classement. Ce changement affectera les recherches mobiles dans toutes les langues à travers le monde et aura un impact significatif sur nos résultats de recherche. Ainsi, il sera plus facile pour les utilisateurs d'obtenir des résultats de qualité, pertinents, qui sont optimisés pour leur appareil » expliquaient les ingénieurs de Google dans un billet de blog le 26 février dernier.


    La firme de Mountain View, récemment accusée par la Commission européenne d'abuser de sa position dominante (95% des recherches Internet en Europe), testait depuis décembre dernier l'affichage d'un label « site mobile » ou « mobile-friendly » à côté des sites compatibles.


    Test de compatibilité


    Google renvoie vers une page dédiée sur son site « Google developers » présentant un outil de « test de compatibilité mobile » délivrant bonnes et mauvaises notes.

    « Parfait. Cette page est adaptée au mobile » conclut Google quand on teste la page d'accueil de La Tribune.

    « Non adaptée au mobile » prévient le moteur dans un bandeau rouge pour un autre site d'actualité, expliquant « texte illisible car trop petit, fenêtre d'affichage mobile non configurée, liens trop rapprochés, contenu plus large que l'écran. »


    Ses robots d'indexation « googlebots » qui ratissent toutes les pages de la Toile n'ont pas vu certaines ressources du site (des images par exemple). En clair, la page met du temps à se charger, le mobinaute doit naviguer de droite à gauche pour lire toutes les colonnes de texte, certains boutons à cliquer fonctionnent mal.


    Il s'agit probablement du changement le plus important jamais apporté au classement des résultats sur mobile selon le rédacteur en chef du site spécialisé Search Engine Land. Il n'affectera pas les résultats des requêtes effectuées sur un ordinateur (fixe ou portable) ou sur tablette. Google Actualités ne sera pas non plus touchée par la modification.

    Perte de trafic


    L'impact pourrait être plus fort que lors des grandes mises à jour précédentes de l'algorithme, Panda et Penguin en 2011 et 2012, destinées à lutter contre les sites « de mauvaise qualité », comme les fermes de contenus sans production originale et autres sites abusant des liens hypertextes pour améliorer artificiellement leur référencement. Lesite d'enchères eBay avait énormément souffert de la version Panda 4.0, perdant 80% de ses meilleurs classements en référencement naturel (par opposition aux « liens sponsorisés », la publicité s'affichant en tête de page et sur le côté droit des réponses). "Hummingbird" (colibri, pour sa rapidité et sa précision), le dernier algorithme de Google qui remonte à l'été 2013, avait été présenté comme « le plus gros changement depuis Caffeine en 2009 » par le directeur de la recherche mais il n'avait pas eu d'impacts majeurs sur le référencement.


    Or avec le biais « mobile friendly », les sites non compatibles « risquent de perdre 10% du trafic global jusqu'à leur mise à jour » estime ainsi l'agence spécialisée Search Foresight.

    Un risque pour les e-commerçants ?


    En effet, plus de 30% du trafic web mondial vient du mobile, sur smartphones et tablettes. Aux Etats-Unis, au dernier trimestre 2014, 29% des requêtes sur Internet, tous moteurs confondus, soit 18,5 milliards de recherches en trois mois, ont été réalisées depuis un appareil mobile selon le cabinet comScore. Pour Google, dont les services sont préinstallés sur les appareils tournant sous Android, ce serait plus de la moitié. En termes d'usages, « en 2014, les adultes américains passent en moyenne 2h51 par jour sur leurs appareils mobiles, en hausse par rapport à 2h19 en 2013, pendant que le temps passé sur un ordinateur a diminué, à 2h12 » soulignait récemment le cabinet eMarketer, prédisant que les dépenses publicitaires sur mobile dépasseront celles sur ordinateur l'an prochain.

    En outre, dans l'e-commerce, le mobile représente au niveau mondial plus du tiers des transactions et devrait dépasser 40% en fin d'année selon une récente enquête de Criteo, le spécialiste français du reciblage publicitaire. Dans certains pays, comme le Japon et la Corée du Sud, on dépasse déjà les 50%. En France, la part du mobile dans les ventes en ligne devrait grimper de 22% à 28% d'ici à la fin de l'année. Toutefois, le mobile ne représenterait encore que 15% du trafic Web dans l'Hexagone selon StatCounter.


    Les sites français sont semble-t-il à la traîne pour affronter ce big bang de la recherche mobile. « En avril 2015, en France, 64% des sites ne sont pas prêts pour le mobile »estime la société spécialisée en référencement Yooda (Aldeis), qui a analysé la page d'accueil de plus d'un million de sites. Certains secteurs sont particulièrement en retard, comme l'administration, où seulement 27% de sites « mobile-friendly » et l'immobilier - seulement 33% compatibles. C'est à peine mieux dans le commerce en ligne : seuls 37% des sites seraient adaptés au mobile, ceux des sites culturels étant les moins préparés. Des sites qui risquent de perdre en trafic, donc en audience, et partant en recettes, sachant que selon Google « le parcours d'achat débute sur mobile dans 66% des cas. » Un quart des principaux distributeurs français n'ont pas de site mobile transactionnel.


    Faute de moyens, les PME ne risquent-elles pas d'être défavorisées au profit des grands groupes, et de voir leur site relégué dans les pages de résultats suivantes, sachant que 9 internautes sur dix s'arrêtent à la première ? Un des ingénieurs de Google, Gary Illyes, responsable de la qualité de la recherche, a récemment précisé que la "recherche locale", c'est-à-dire le bloc de résultats « à proximité » apparaissant dans les premiers liens, ne serait pas concernée par ce changement. De grandes marques pourraient aussi être affectées, selon la société marketing britannique Somo, des sites comme ceux d'American Apparel, du Daily Mail ou de Ryan Air ne seraient pas compatibles mobile et menacés d'être rétrogradés dans les résultats de recherche.

    plus...

    Ractive.js, une bibliothèque JavaScript pour développeurs novices

    La bibliothèque Ractive.js simplifie par exemple l’ajout d’illustrations interactives à une page web, même cela demande tout de même de savoir se débrouiller avec le langage SVG (scalable vector graphics). Crédit : D.R.

    La bibliothèque Ractive.js simplifie par exemple l’ajout d’illustrations interactives à une page web, même cela demande tout de même de savoir se débrouiller avec le langage SVG (scalable vector graphics). Crédit : D.R.

    En partie créée dans le cadre de la fondation Bill et Melinda Gates, Ractive.js est une bibliothèque JavaScript basée sur des modèles d'interface utilisateur qu'elle transforme en ébauches d'applications, interactives par défaut. L'un des objectifs de ses concepteurs est de mettre le pied à l'étrier aux développeurs peu expérimentés.

    Destinée à concevoir des interfaces utilisateurs interactives pour les applications web, la bibliothèque Ractive s’adresse à des développeurs qui ne sont pas forcément rompus aux arcanes de JavaScript. Pourtant, elle leur apporte des capacités que l’on trouve normalement dans des frameworks complexes à utiliser. De fait, l’équipe qui se trouve derrière le projet Open Source souhaite rendre la programmation web plus accessible aux développeurs qui ne disposent pas d’une expertise avancée en la matière. Rich Harris, journaliste à theguardian.com et l’un des créateurs de la bibliothèque, a présenté la technologie à la conférence Applicative de l’ACM (Association for Computing Machinery) qui s’est tenue à New-York du 25 au 27 février.

    « JavaScript a grandi, mais il a perdu son innocence. Les outils n’ont jamais été aussi sophistiqués, notre communauté n’a jamais été aussi dynamique, et pourtant se lancer dans le développement web n’a jamais été aussi déroutant », résume-t-il dans la présentation de sa session sur Ractive.js, intitulée « Démonter les barrières à l’entrée ». Selon lui, la bibliothèque simplifie radicalement la création d’applications web interactives pour les développeurs débutants. Il considère qu’il est urgent de le faire, car les outils de création de site web actuels sont trop abstraits et trop complexes pour les non-programmeurs qui veulent créer leurs propres sites web. La promesse originelle du web était que chacun pourrait le faire en utilisant les bases du langage HTML. Si ce dernier fournit toujours les fondations pour poster du texte et des images, en revanche, les capacités de programmation avancées ne sont pas accessibles aux novices, pointe Rich Harris.

    Cet exemple d’horloge réalisé avec Ractive.js montre comment on peut transformer simplement des données brutes en une vue qui les utilise de différentes façons.

    plus...

    Les noms de domaine .ch et .li sont à 9.90.€ au lieu de 13€.

    La iste des Top Level Domains a été modifiée.
    http://www.webess.info/172/Technikpartner/Prix_des_domaines.html 
    Les noms de domaine .ch et .li sont à 9.90.€ au lieu de 13€.

    Alliance Webmaster - La plus grande association de Webmasters en Europe pour générer plus de...
    WEBMASTER-ALLIANCE.FR|PAR WORLDSOFT AG
    plus...

    Piratage Gemalto : La NSA a volé des clés de chiffrement de cartes SIM

    Un extrait de slide issu d'un document de l'agence GCHQ fuité par Edward Snowden. (crédit : D.R.)

    Un extrait de slide issu d'un document de l'agence GCHQ fuité par Edward Snowden. (crédit : D.R.)

    Selon des documents d'Edward Snowden, l'agence américaine de renseignements NSA mais également des communications britanniques GCHQ auraient piraté le fabricant de cartes SIM Gemalto afin de surveiller les communications téléphoniques mondiales.

    Les agences de surveillance américaine NSA et britannique GCHQ sont sous le feu des projecteurs. Des nouvelles révélations relatives aux documents d'Edward Snowden font état d'un piratage de grande ampleur ayant visé Gemalto. Ces agences de renseignement seraient en effet parvenus en 2010 à pirater le réseau du géant spécialisé dans la fabrication de cartes SIM et voler des clés de chiffrement pour potentiellement surveiller les clients de centaines d'opérateurs mobiles dans le monde.

    Ce piratage d'une rare ampleur aurait permis à la NSA et à la GCHQ (Governement Communications Headquarters) de suivre une très grande part des communications vocales mais également du trafic de données selon The Intercept, et ce, sans aucun accord des gouvernements étrangers. Le volume du trafic mobile intercepté par les deux agences n'est en revanche pas clairement établit.

    plus...

    Big data : les désillusions pointent déjà

    Selon John Foreman, data scientist chez MailChimp.com, la promesse marketing des big data ne ressemble guère à la réalité.

    Selon John Foreman, data scientist chez MailChimp.com, la promesse marketing des big data ne ressemble guère à la réalité.

    Les critiques commencent à pointer les limites du big data, mais les analystes continuent de voir en lui un avenir radieux.

    Après les attentes démesurées, les désillusions ? La vague du big data a peut être atteint un pic, en tout cas pour ceux qui suivent le Gartner Hype Cycle. En d'autres termes, certains professionnels commencent à douter des annonces marketing autour de l'analyse big data et à adopter un point de vue plus critique sur les limites des systèmes big data. Selon le credo, plus une entreprise collectait de données, plus elle pourrait en extraire des informations pointues et utiles. Un ingénieur de Google, qui a été gavé au big data plus que n'importe qui, a nommé cette notion « la déraisonnable efficacité des données ». Dans une série d'articles, le dernier numéro de Science News dresse dans le détail les limites des gros volumes de données, dont le plus récent s'intitule « Le Big data et les défis de la réplication ». Le problème, selon Science News, est loin d'être sans intérêt. Avec une telle quantité de données et autant d'outils différents pour les analyser, comment peut-on être sûr que les résultats sont corrects ? « Chaque fois qu'un scientifique préfère une application à une autre ou décide d'analyser une variable, plutôt qu'une autre, ce choix peut conduire à des conclusions très différentes », a écrit Tina Hesman Saey. Ce problème de la validité ne concerne pas seulement les grands consommateurs de données, mais toute la communauté scientifique dans son ensemble.

    plus...
      Pseudo :
      User-Login
      Votre E-mail