La fréquence d’indexation

Dans un hangout aux webmasters, un éditeur a demandé à quelle vitesse Google supprimait des pages de l’index s’il y ajoutait un noindex nofollow. L’éditeur a déclaré avoir ajouté noindex mais la page est restée dans l’index de Google. John Mueller de Google a répondu avec une réponse décrivant la fréquence à laquelle certaines pages sont indexées. John Mueller a révélé que les URL sont explorées à des rythmes différents. C’est un peu bien compris. Ce qui était plus intéressant, c’est qu’il a déclaré que certaines URL ne pouvaient être explorées qu’une fois tous les six mois. L’éditeur a déclaré: Nous voyons des choses qui datent d’il y a longtemps, où nous avons changé le noindex nofollow mais nous le voyons toujours dans l’index. Et c’est plusieurs mois après que nous ayons changé cela.  »

John Mueller a répondu: Je pense que le plus dur ici est que nous n’explorons pas les URL avec la même fréquence tout le temps. Donc, certaines URL que nous explorerons quotidiennement. Certaines URL peuvent être hebdomadaires. D’autres URL tous les deux mois, peut-être même tous les six mois environ. C’est donc quelque chose pour lequel nous essayons de trouver le bon équilibre, afin de ne pas surcharger votre serveur. Et si vous avez apporté des modifications importantes à votre site Web à tous les niveaux, beaucoup de ces modifications sont probablement prises en compte assez rapidement, mais il en restera quelques-unes. Donc, en particulier, si vous faites des choses comme des requêtes sur le site, il y a une chance que vous voyiez ces URL qui sont explorées comme une fois tous les six mois. Ils seront toujours là après quelques mois.

Et c’est en quelque sorte… le moment normal pour nous de retraiter / re-crawler les choses. Ce n’est donc pas nécessairement le signe que quelque chose est techniquement complètement cassé. Mais cela signifie que si vous pensez que ces URL ne devraient vraiment pas être indexées du tout, vous pouvez peut-être le sauvegarder et dire bien voici un fichier de plan du site avec la dernière date de modification afin que Google se déclenche et essaie de doubler. vérifiez-les un peu plus vite qu’autrement. » Utilisez le plan du site pour déclencher l’exploration mise à jour John Mueller a suggéré de mettre à jour le plan du site et de laisser Googlebot découvrir la dernière date modifiée et de l’utiliser comme un indice pour qu’il sorte et explore les anciennes pages Web. Outil d’inspection d’URL Google Quelque chose que John Mueller n’a pas mentionné est l’utilisation de l’outil d’inspection d’URL de Google. Selon la page d’aide aux webmasters de Google sur la réindexation, une soumission peut prendre jusqu’à une semaine ou deux. L’outil d’inspection d’URL est utile si vous avez quelques URL individuelles qui nécessitent une nouvelle exploration. Si vous avez un grand nombre de pages Web, Google vous recommande de soumettre un plan de site à la place.

A quoi sert un moteur de recherche

Internet est en grande partie désorganisé et les informations sur ses pages Web sont de qualité très différente, y compris des informations industrielles, des répertoires nationaux, des sélections de guides de recherche et des collections de documents individuels. Les moteurs de recherche comme Google essaient de déterminer les pages Web fiables en les pondérant ou en les positionnant en fonction du nombre d’autres pages Web qui y font référence, en identifiant les « autorités » que de nombreuses pages Web recommandent, et également en identifiant les « hubs » qui font référence à de nombreux pages. Ces techniques peuvent fonctionner correctement, mais le consommateur doit toujours s’entraîner à choisir les combinaisons appropriées de termes de recherche. La recherche d’une banque peut renvoyer des centaines d’innombrables pages (« appels »), dont beaucoup proviennent d’institutions bancaires commerciales. La recherche d’une banque de flux peut néanmoins renvoyer plus de 10 millions de pages, dont certaines proviennent d’institutions bancaires avec rivière dans le titre. Seules d’autres améliorations telles que l’institution financière des cours d’eau et les riverains réduisent le nombre de grèves à des milliers et des milliers de pages Web, dont les plus importantes concernent de loin les rivières ainsi que leurs institutions bancaires. Les moteurs de recherche utilisent des robots, des applications qui explorent Internet en utilisant des hyperliens hypertextes de page en page Web, enregistrant tout sur une page Web (appelée mise en cache) ou des zones d’une page Web, ainsi qu’un moyen exclusif de marquer le contenu pour être capable de développer des indices pondérés. Les sites Web comportent souvent leurs propres étiquettes sur les pages Web, qui ne sont généralement vues que par les robots d’exploration, afin d’améliorer le complément entre les requêtes et leurs sites. Les abus de l’étiquetage volontaire peuvent fausser les résultats des moteurs de recherche s’ils ne sont pas pris en compte lors de la conception d’un moteur de recherche. De même, une personne doit savoir si un moteur de recherche Internet spécifique vend des mots-clés aux enchères en ligne, en particulier si les sites qui ont payé pour un placement préférentiel ne sont généralement pas signalés séparément. Même les moteurs de recherche de base les plus importants comme Google, tels que Google, Yahoo!, Baidu et Bing, ne peuvent pas maintenir la prolifération des pages Web, et chacun laisse de grandes parties découvertes. lien de site Web, un lien entre des éléments d’information connexes par des connexions électroniques afin de permettre à une personne un accès rapide entre eux. L’hypertexte, un lien hypertexte impliquant un contenu textuel, est une fonctionnalité de certaines applications qui permettent à l’utilisateur de médias de masse électroniques de sélectionner n’importe quoi dans le texte et de recevoir plus d’informations concernant ce terme, comme une description ou des recommandations connexes à l’intérieur du contenu textuel. Dans l’article « baleine » d’une encyclopédie numérique, par exemple, un lien hypertexte dans la référence à la baleine bleue permet à votre lecteur d’accéder à l’article sur cette variété en cliquant simplement sur les mots « baleine bleue » avec une souris. . Le lien vers le site Web est généralement indiqué en mettant en évidence le mot ou l’expression pertinent dans le contenu textuel avec une police ou une couleur différente. Les hyperliens peuvent également relier le contenu textuel à des photos, des images ou des séquences de dessins animés. Les backlinks entre différentes parties d’un document ou entre différents documents créent un cadre de branchement ou de réseau qui peut accueillir des sauts directs et sans intermédiaire vers des bits d’informations connexes. La structure arborescente des informations hyperliées contraste avec le cadre linéaire d’une encyclopédie imprimée ou d’un thésaurus, par exemple, dans lequel les éléments ne peuvent être physiquement atteints qu’au moyen d’une séquence statique et linéaire d’éléments classés par ordre alphabétique. Les backlinks sont, en un sens, des références croisées qui permettent un accès immédiat à leur focalisation sur des éléments d’information. Ce type d’hyperliens est plus efficace lorsqu’il est utilisé sur un large éventail d’informations structurées en de nombreux éléments associés plus petits et lorsque l’utilisateur ne demande qu’une petite partie d’informations à tout moment. Les hyperliens ont déjà été utilisés avec le plus de succès par les sites Web. Pour prendre en charge cette masse de données sans précédent, les moteurs de recherche ont construit 11 centres de données dans le monde, tous contenant plusieurs centaines de milliers de serveurs Web (essentiellement des ordinateurs multiprocesseurs et des disques durs installés dans des racks exclusivement construits). Les systèmes informatiques interconnectés de Google sont probablement au nombre de plusieurs millions. Le centre de la procédure de Google, néanmoins, est construit autour de trois bits exclusifs de code informatique : Google File Program (GFS), Bigtable et MapReduce. GFS gère le stockage des données en « morceaux » sur plusieurs appareils ; Bigtable est le programme de source de données de l’entreprise ; et MapReduce est utilisé par Google pour créer des données de niveau supérieur (par exemple, constituer un répertoire de pages Web contenant les mots « Chicago », « théâtre » et « participatif »).

Smartcities: bientôt une réalité

Les zones métropolitaines sages sont rendues possibles par des connexions Internet à grande vitesse. Ils s’appuient sur de grandes informations, des ensembles de règles et le réseau de points pour mieux fournir leurs communautés de plus en plus diversifiées. Par exemple, les régions métropolitaines avisées utiliseraient les informations recueillies à partir de détecteurs sans fil pour calculer le nombre d’autocars qui devraient être en circulation sanguine dans un temps imparti afin de réduire les temps d’attente. L’espoir est que l’expansion de l’utilisation des technologies permette aux zones métropolitaines intelligentes de faire évoluer instantanément les services en fonction des besoins et des choix changeants des citoyens. Cependant, l’accessibilité inégale du haut débit dans de nombreuses communautés du You.S. a entraîné des problèmes qui font que les efforts de changement qui se concentrent sur les technologies, tels que les projets de ville sage, pourraient renforcer les inégalités sociales existantes. En tant que spécialiste qui recherche les technologies et les plans du secteur public, je pense que cela fait de l’élargissement de l’accessibilité à large bande dans les communautés mal desservies un élément essentiel de la nouvelle loi sur les infrastructures et une étape importante vers la réalisation de l’objectif du président Biden d’utiliser ces lois sur les infrastructures pour faire progresser la valeur sociale. Il y a 2 raisons derrière cela. Le haut débit à des vitesses haut débit Le premier est les installations électroniques qui permettent une sélection et une analyse généralisées de l’information, telles que le Web Internet haut débit, ont tendance à sous-performer dans les communautés moins aisées. Par exemple, une étude réalisée en 2019 par Microsoft montre que 162,8 millions de personnes aux États-Unis n’étaient pas en mesure d’accéder au Web à des vitesses à large bande. Un fait contrasté de la FCC a estimé que beaucoup moins de citoyens américains travaillaient avec des connexions Internet lentes au cours de la même période. Mais leur nombre s’est concentré sur l’utilisation de contacts Internet à large bande, par opposition à l’utilisation de connexions Internet qui fonctionnent réellement à des débits Internet à haut débit élevés. L’expansion de l’utilisation de l’Internet haut débit dans les communautés mal desservies contribuera à garantir que les informations utilisées pour informer une prestation de service public avisée font un travail plus satisfaisant en décrivant les exigences et les choix d’une section beaucoup plus complète de citoyens et d’utilisateurs de services, et pas seulement les habitants des zones riches. A cet effet, délivrer à ces communautés un véritable web haut débit évitera qu’elles soient exclues de vos démarches de notification à la prestation de service public général. L’acte de gestion Une autre cause de l’accès croissant au Web à haut débit favorisera l’équité dans les villes sages tient au fait que les villes sages s’appuient sur des techniques de services interdépendants qui fonctionnent en même temps. Prenez, par exemple, les transports publics, la gestion de la pollution atmosphérique et la santé publique. Les changements dans les modèles de circulation doivent être bien équilibrés avec les objectifs de pollution atmosphérique, qui à leur tour nécessitent de prendre en compte les mesures de performance du bien-être du public en général. Malheureusement, les autorités municipales se battent souvent pour coordonner les services, et lorsqu’elles le font, des conflits de service peuvent survenir. Par exemple, des traitements visant à améliorer brièvement le flux de trafic dans une seule région peuvent améliorer les degrés de pollution atmosphérique au-delà d’un niveau satisfaisant dans une zone supplémentaire, améliorant ainsi les services pour quelques-uns et les détériorant pour d’autres. Dans le cadre des métropoles intelligentes, les efforts de coordination des services nécessitent la disponibilité de connexions en ligne à haute vitesse et d’un réseau de détecteurs. Néanmoins, la disponibilité de connexions en ligne à haut débit fonctionnant à grande vitesse est particulièrement limitée dans les quartiers minoritaires. Le résultat de la disparité est que les communautés de couleur sont plus susceptibles de faire les frais des affrontements de services. Par exemple, les capteurs de qualité de l’atmosphère peuvent être rares dans les communautés de couleur étant donné la pénurie d’Internet à haut débit, ce qui rend difficile de savoir quand les efforts de réacheminement du trafic entraînent une pollution de l’air atmosphérique dépassant les quantités acceptables. L’élargissement de l’accès à l’Internet haut débit est une étape vitale pour arrêter ce type d’effet secondaire. Les villes intelligentes et la dépendance croissante des gouvernements à l’égard des technologies promettent d’améliorer les performances du gouvernement, mais elles peuvent également renforcer les modèles actuels d’inégalité. Avec une quantité massive d’installations à l’horizon, la direction de Biden a le potentiel d’éliminer les causes essentielles de l’inégalité généralisée, en particulier en élargissant l’utilisation des connexions à large bande qui fonctionnent à grande vitesse dans les quartiers mal desservis.

Est-ce que Facebook est trop gros ?

Les procureurs généraux de huit États et du district de Columbia ont ouvert une enquête formelle sur Facebook pour pratiques anticoncurrentielles, a confirmé vendredi matin le bureau du procureur général de New York.

L’enquête cherchera à savoir si Facebook « a mis en danger les données des consommateurs, a réduit la qualité des choix des consommateurs ou a augmenté le prix de la publicité », a déclaré la procureure générale de New York, Letitia James, dans un communiqué.

L’enquête antitrust fait partie d’un examen plus large qui est coordonné avec les procureurs généraux du Colorado, de la Floride, de l’Iowa, du Nebraska, de la Caroline du Nord, de l’Ohio, du Tennessee et du district de Columbia.

« Même la plus grande plate-forme de médias sociaux au monde doit suivre la loi et respecter les consommateurs », a déclaré James.

Tout cela se produit à un moment où Facebook a accepté de payer 5 milliards de dollars à la Federal Trade Commission pour ne pas avoir protégé les données des utilisateurs contre un large partage avec des applications tierces, entre autres problèmes.

Et le ministère de la Justice a déclaré plus tôt cet été qu’il lance un examen antitrust de même envergure des grandes entreprises technologiques. Le DOJ n’a pas nommé d’entreprises spécifiques dans son annonce, mais il s’agissait de la première confirmation publique claire d’un examen antitrust américain majeur de l’industrie technologique.

Le ministère de la Justice a déclaré que sa division antitrust examinerait comment les principales plates-formes en ligne ont augmenté leur part de pouvoir de marché et si elles agissent de manière à « réduire la concurrence, étouffer l’innovation ou nuire aux consommateurs ».

Les machines qui seront plus intelligentes que les personnes

Au-delà d’un quart de siècle, nous avons certainement réussi à trouver Internet en interrogeant les moteurs de recherche à l’aide de plusieurs mots-clés et expressions pertinents. Sans une telle ressource, Internet serait carrément un dépotoir sans valeur de données Web. En 1998, la formule de l’algorithme PageRank de Google a redéfini tout ce que nous pouvons obtenir en termes de signification des résultats de recherche. Récemment, une certaine digestion sémantique a été incluse dans la magie qui peut aider le moteur à comprendre un problème qui avait été exprimé dans la terminologie de base. À très long terme, nous pourrions peut-être identifier des fichiers en fascinant une brève forme de dialogue QAndA avec un moteur de recherche, tout comme nous pouvons utiliser un libraire. Il existe cependant une différence importante entre un libraire et les moteurs de recherche. Dans le cas où vous n’êtes pas sûr de la réserve que vous devriez lire, vous pourriez faire un effort pour interroger le libraire pour le résumer pour vous personnellement en quelques phrases. Ce type de projet de synthèse est depuis longtemps apparu absolument inaccessible dans les approches PNL intemporelles centrées sur les principes et n’a pas été jugé raisonnable dans un avenir proche. Mais, lentement, tout se transforme maintenant avec les dernières avancées dans les types de compréhension forte pour la PNL. Imaginez simplement que vous aviez besoin d’une liste de contrôle inférieure à côté du champ de saisie du moteur de recherche préféré qui pourrait vous permettre d’établir la durée d’un résumé automatisé pour un document présenté. Dites, une phrase, 10 phrases ou peut-être un aperçu d’une page. Serait-ce utile? En fait, il est vraiment assez probable que cela pourrait rapidement confirmer si utile qu’il pourrait devenir omniprésent. En plus d’augmenter la recherche de fichiers, cela peut également aider dans de nombreuses autres activités. À titre d’exemple, cela pourrait éventuellement aider les scientifiques à maintenir une circulation vertigineuse de publications dans des domaines tels que le traitement ou l’IA. Plus prosaïquement, cela peut aider à créer de brèves informations sur les marchandises pour les détaillants sur Internet avec des catalogues trop volumineux pour être gérés personnellement. De nombreux autres exemples d’applications de résumé intelligent sont expliqués ici à titre d’illustration. Pour les papiers de plus grande taille avec une vaste sélection de pages Web comme des romans, ces types d’équipement de synthèse générique continuent de faire partie du domaine de la science-fiction. Cependant, en raison de la polyvalence toujours étonnante des modèles Strong Discovering, l’accroche ne sera pas aussi étendue pour les outils qui peuvent résumer des documents d’une ou deux pages Web dans certaines phrases, un minimum à l’intérieur de régions de compréhension spécifiques. Le but de ces informations est de décrire les unités d’information récentes et les architectures d’études sérieuses qui nous ont peut-être un peu plus rapprochés de l’objectif. L’évaluation de la synthèse par l’homme est subjective et implique une décision comme le style, la cohérence, l’exhaustivité et la lisibilité. Cependant, aucun score n’est désormais connu, Informatique Minute ce qui est à la fois une tâche facile à calculer et consacrée au verdict humain. La cote ROUGE est la perfection que nous avons maintenant, mais elle a des points faibles évidents puisque nous le verrons. ROUGE numérote simplement la quantité de mots, ou n-gr, qui peuvent être présents avec le résumé fait par une unité avec un résumé de guide créé par un humain.

Avis: plus de qualité, moins de quantité

Alors que nous restons, courons et manœuvrons dans un monde de plus en plus électronique, les entreprises doivent changer leur méthode de conservation des clients. Auparavant, l’excellent article pouvait se tenir tout seul avec une protection assez faible. La sursaturation du Web a conduit à un regain d’importance des véritables critiques en ligne. Les évaluations en ligne sont au milieu de chaque élément, service ou entreprise positif et durable. De vraies évaluations positives peuvent créer des clients à long terme pendant de nombreuses années dans le futur. Le seul problème? Il peut être difficile d’obtenir des avis sur le Web. Selon Statista, Facebook compte bien plus de 2,85 milliards de clients mensuels. Comment pouvez-vous amener certains de ces clients des médias sociaux à évaluer vos produits et services ? Tout d’abord, vous trouverez très peu de problèmes plus importants pour votre nom de marque sur le Web que vos classements de recherche d’optimisation pour les moteurs de recherche. Également appelée optimisation pour les moteurs de recherche, une solution efficace pour la domination de l’optimisation pour les moteurs de recherche peut amener les résultats de vos recherches au sommet du classement. Ce faisant, vous faciliterez la découverte de vos produits par les gens et beaucoup plus pratique pour leur permettre de vous laisser une évaluation. Et bon, si c’est une bonne évaluation, c’est encore mieux ! Si vous ne déterminez pas si les mesures d’optimisation des moteurs de recherche sont le bon sujet sur lequel vous concentrer, ce n’est pas grave ! Forbes a organisé un certain nombre de bonnes raisons fantastiques d’envisager de travailler avec une entreprise d’optimisation des moteurs de recherche pour soutenir votre entreprise, alors considérez que c’est un choix ! Les avis ne sont pas aussi faciles à trouver que les ventes réelles, il va donc de soi que les experts malhonnêtes ont déjà cherché à rogner sur les raccourcis. Les bots dans le monde des critiques ont déjà été un énorme problème depuis qu’ils sont devenus une chose. Dans le cadre d’une tentative nécessiteuse pour améliorer l’apparence d’un article, une entreprise peut débourser de l’argent pour obtenir de fausses critiques afin de compléter ses statistiques. Bien que cela puisse sembler séduisant, il s’avère que c’est une bonne idée. Comme décrit à maintes reprises par les professionnels de l’argent et les spécialistes du référencement, les fausses critiques sont suffisamment faciles à identifier pour déterminer qu’elles peuvent nuire à la réputation de votre entreprise. Au lieu de cela, acceptez les évaluations qui apparaissent, qu’elles soient positives, défavorables ou totalement neutres. Assurez-vous de répondre où et quand vous êtes en mesure d’améliorer les circonstances pour les clients insatisfaits. Dans lequel vous ne pouvez pas atteindre vos anciens clients, utilisez leur négativité pour les améliorations énergétiques à l’avenir. Tous les clients ne pourraient pas être sauvés, mais des clients à long terme pourraient être gagnés. Le moyen le plus simple d’avoir plus d’évaluations pour votre article sur Internet est de simplement demander ! Il existe une ligne fine entre demander un avis honnête et propager un faux, alors pensez à utiliser une société intermédiaire pour envoyer des sollicitations d’avis à votre liste d’abonnés. Des stratégies de marketing par e-mail personnalisées qui ciblent les anciens clients avec peu ou de petites incitations pourraient faire des merveilles pour construire votre marque et votre réputation en faisant beaucoup d’exercice. Ces messages électroniques doivent être à la fois professionnels et clairs, garantissant que vous recevez des commentaires honnêtes des clients sans aucune fausse déclaration. Non seulement la demande d’examen vous fournit des informations sur lesquelles vous pouvez apprendre, mais cela permet également à vos clients de devenir beaucoup plus positifs. Les clients se sentiront vraiment remarqués et entendus tandis que les entreprises auront l’opportunité d’acquérir des connaissances à partir de leurs erreurs ou réalisations passées. Pour pouvoir vraiment accumuler des témoignages pour votre marque, vos produits ou votre service, vous devrez être sur les principaux annuaires en ligne. De toute évidence, ces annuaires Web varient d’une entreprise à l’autre, Equadoria mais il existe des points communs qui sont partagés. Toutes les entreprises voudront avoir une existence sur les avis des moteurs de recherche, et cela ne nuit pas non plus à garder un compte Yelp et Facebook ou Twitter actif. Les profils d’utilisateurs d’entreprise dévoués sont le moyen le plus simple d’attirer des clients passés et à long terme dans votre entreprise. Non seulement vos visiteurs et votre audience s’amélioreront, mais vos interactions aussi. En atteignant la plupart de ces objectifs, vous verrez l’augmentation du classement de vos visiteurs en tandem. Les annuaires Web en ligne sont une partie vitale de chaque entreprise autonome qui se concentre sur l’avancement du développement.

Internet: optimiser ses conversions

Dans le marketing des moteurs de recherche, nous parlons souvent de leviers »que nous poussons ou tirons pour optimiser les performances des campagnes.
Du côté de l’achat, ou dans le moteur », + SEO nous optimisons le plus souvent les enchères afin de faire monter ou descendre la position en fonction de l’efficacité du rendement. Nous optimisons également le contenu publicitaire, les mots clés (à la fois les types de correspondance et les éléments négatifs) ainsi que divers autres critères de ciblage tels que la géographie, les extensions et les emplacements.
Du côté de l’offre ou sur site », nous examinons le plus souvent la page de destination et optimisons en conséquence pour offrir une pertinence maximale par rapport aux mots clés spécifiés. Nous allons souvent plus loin et optimisons les pages de destination afin de générer les taux de conversion les plus forts et d’améliorer les résultats globaux.
Cependant, nous devons aller encore plus loin dans l’optimisation de la page de destination et optimiser l’entonnoir de conversion complet. Bien que l’optimisation de la page de destination soit un bon début, même la page de destination la plus efficace peut échouer si les étapes qui suivent ne sont pas conviviales.
Beaucoup de gens mettent trop l’accent sur la page de destination unique pour générer des conversions réussies « , lorsque nous devons examiner toutes les pages de manière globale pour réussir à optimiser les conversions.
Opportunité 1: Limitez les choix
Sur de nombreux sites de commerce électronique, de multiples choix sont proposés aux consommateurs afin de revendre et de vendre des articles (pensez à plusieurs couleurs de chemises ”et les utilisateurs ont également acheté ce” type d’options).
Si nous proposons trop de choix, nous pouvons confondre l’utilisateur, ce qui rend difficile pour lui de trouver l’article qu’il souhaite. Cela pourrait les éloigner au lieu d’acheter.
Pensez aux fois où vous vous êtes levé et avez regardé l’allée des céréales dans l’épicerie, que vous ne pouviez pas décider et que vous êtes parti! Ne laissez pas cela arriver à vos visiteurs.
Opportunité 2: mettre en évidence le chemin
Lors de la conception de vos pages, gardez à l’esprit l’action d’objectif de chaque page et concevez la page de manière à ce que l’action d’objectif soit claire et optimisée. Voulez-vous que l’utilisateur ajoute un produit au panier ou télécharge un livre blanc?
Vous souhaitez peut-être qu’ils consultent une liste de magasins dans leur région. Quel que soit l’objectif de la page, rendez la prochaine étape «facile à trouver et facile d’accès. En concevant de cette manière, vous pouvez guider »l’utilisateur sur le chemin que vous voulez qu’il prenne, jusqu’à la dernière étape de l’achat.
Occasion 3: Appel à l’action
Ayez un appel à l’action et assurez-vous qu’il est optimisé pour que les utilisateurs le remarquent.
Ressources
Opportunité 4: Coupez les données inutiles
De nombreux sites posent une tonne de questions pendant le processus de paiement, ce qui peut rendre le processus long et lourd. Demandez seulement ce qui est vraiment nécessaire.
Avez-vous vraiment besoin d’un numéro de téléphone? Avez-vous vraiment besoin de savoir comment ils vous ont trouvé »?
Limitez votre processus de vérification aux seules questions essentielles et assurez-vous que votre formulaire est limité à une seule page pour maximiser vos chances d’obtenir que l’utilisateur le remplisse.
Sommaire
L’importance de l’optimisation de la conversion ne peut pas être sous-estimée. Bien que l’optimisation du côté de la demande »soit critique et importante, vous ne pourrez presser le jus que tant, finalement il s’assèche. Optimiser l’offre »permet à vos campagnes de continuer à croître et à réussir.
Une augmentation de 10% du taux de conversion signifie une augmentation de 10% du retour sur investissement. Cette augmentation de 10% du retour sur investissement peut être la différence pour pouvoir se permettre »les 200 prochains clics, ce qui entraîne 25 commandes et vous pousse au-delà de vos objectifs.

Tirer parti des RLSA

En 2013, Google a lancé un programme appelé Remarketing Lists for Search Ads (RLSA) .C’est un programme qui, à bien des égards, applique les meilleures pratiques des annonces graphiques traditionnelles de ciblage des annonces aux clients qui ont déjà visité votre site et le rend disponible pour la recherche. En marquant votre site avec le pixel de remarketing de Google, vous commencez à collecter des données clients inestimables que vous pouvez cibler.
Les RLSA deviennent un outil très puissant pour les spécialistes du marketing de recherche, + SEO d’autant plus que la personnalisation se poursuit en tant que tendance dans le paysage numérique. Voici trois choses que vous pouvez faire pour tirer pleinement parti des RLSA.
Existe-t-il des mots clés qui ne fonctionnent généralement pas bien pour vous lorsqu’ils sont ciblés sur le marché en général, mais qui seraient de bons mots clés si vous ne pouviez cibler que des clients précédents? Les RLSA vous permettent de faire exactement cela.
Par exemple, il n’est généralement pas rentable d’acheter un terme comme Paris Vacation, « mais si vous connaissiez un client actuel qui s’était rendu sur votre site de voyage trois fois au cours du mois dernier ou si vous aviez déjà acheté des vacances chez vous, vous voudrez peut-être savoir qu’ils sont maintenant sur le marché pour ces vacances.
2. Enchérir ou même afficher une annonce
Si vous savez qu’un client actuel revient et recherche un terme de marque le plus susceptible de servir son compte, vous pouvez choisir de ne pas afficher d’annonce ou de réduire votre enchère pour ce client et de lui permettre d’utiliser votre annonce de recherche organique.
L’inverse peut également être vrai lorsque vous savez qu’un client effectue des achats répétés ou qu’il est plus susceptible de se convertir s’il avait précédemment effectué un achat de quelque nature que ce soit. Dans ce cas, vous pouvez augmenter votre enchère pour qu’elle soit plus importante pour ces clients.
3. Copie d’annonce ciblée
Vous souhaitez accueillir à nouveau un client précédent ou vendre croisé un produit spécifique en raison d’un achat récent? Cette capacité est disponible via les RLSA.
Avoir plusieurs copies d’annonces en rotation était toujours la meilleure pratique en tant que test, mais tester cette copie d’annonces avec des informations basées sur les données peut changer le jeu.
3 rappels rapides lors de la configuration des RLSA
Vous avez besoin d’un pool de cookies de 1 000 utilisateurs avant de pouvoir exécuter des RSLA.
Les RLSA nécessitent actuellement Google SmartPixel pour tirer pleinement parti des fonctionnalités de RLSA. Le pixel de conversion permet certaines fonctionnalités.
Il existe deux options pour tirer parti des RLSA. Ce que vous choisissez est basé sur vos objectifs commerciaux. Cependant, je suis fan de lancer plusieurs campagnes RLSA:
La diffusion ou la création de plusieurs campagnes RLSA (pour le même ensemble de mots clés) permet une messagerie unique (par exemple, la modification de la copie publicitaire de marque pour un utilisateur acheté sur le site auparavant), mais présente également des défis supplémentaires en matière de gestion de campagne / logistique.
Alternativement, le simple fait d’utiliser des modificateurs pour optimiser les enchères d’audience RLSA dans une campagne existante offre de nombreuses efficacités de gestion, mais les leviers et l’optimisation ne sont pas aussi robustes.
Sommaire
Ces tactiques RLSA ont bien fonctionné pour mon agence au cours des derniers mois. Son importance continuera de croître à mesure que davantage de données sont collectées et que des informations spécifiques sont comprises et utilisées pour optimiser les campagnes AdWords.
Cela dit, la capacité unique de dialoguer avec les clients en fonction de leur expérience antérieure ou de leur propension à acheter continuera d’évoluer et deviendra une tactique de plus en plus importante pour tous les spécialistes du marketing.

Avoir une présence sur le web

Au cours des dernières années, des dizaines d’entreprises – de Dropbox à Instagram en passant par Pinterest – sont rapidement passées d’idées à des organisations mondiales de plusieurs milliards de dollars. Quel est exactement leur secret? Selon Ryan Getaway, spécialiste du marketing Internet et homme d’affaires, les startups efficaces prospèrent simplement parce qu’elles découvrent comment utiliser le piratage de croissance. Le Growth Hacking est le processus consistant à organiser des stratégies de marketing conventionnelles et à les échanger avec des choix testables, traçables et évolutifs. Cela rend les cycles de développement des entreprises beaucoup plus fluides, plus efficaces et plus rapides. Plus important encore, le piratage de développement permet aux propriétaires d’entreprise d’interagir en utilisant leur public et d’améliorer leurs options au fil du temps plutôt que de se concentrer uniquement sur la transformation des individus en clients encore et encore. Le piratage progressif est de plus en plus répandu qu’il est difficile de lutter contre l’économie globale d’aujourd’hui si vous ne savez pas comment l’utiliser, et de plus en plus d’entreprises ont commencé à sélectionner des «hackers de croissance» plutôt que des experts en marketing et en publicité. Que vous soyez un homme d’affaires cherchant à améliorer votre organisation, un spécialiste du marketing cherchant à améliorer votre profession, ou simplement quelqu’un qui veut en dessous, restez à quel point les licornes en démarrage sont devenues si réussies, le piratage de développement peut vous fournir en utilisant un ensemble d’outils utiles et vous aider à faire plus avec moins. L’erreur la plus grave qu’un homme d’affaires commettra sera de commercialiser un produit dont personne ne veut. Indépendamment de la qualité de vos annonces ou de votre capacité à interagir avec vos spectateurs, si vous essayez de vendre quelque chose dont vous n’avez pas besoin, vous n’irez pas très loin. Les pirates du développement estiment que les startups devraient continuer à changer la conception de l’ensemble de leur entreprise jusqu’à ce qu’elles aient produit quelque chose qui générera une grande réponse des hommes et des femmes qui les verront au départ. Vous connaissez peut-être Airbnb comme une entreprise de 2,5 milliards de dollars avec des millions d’annonces d’articles d’hébergement. Mais en 2007, l’entreprise a démarré modestement lorsque ses fondateurs ont tenté de convertir le salon avec leur loft en copropriété en un mini lit et petit-déjeuner. Ils l’ont connu sous le nom d’AirBedandBreakfast.com et ont offert gratuitement un repas du matin fait maison aux clients. Bien que ce produit ait suffi pendant un certain temps, les fondateurs ont réalisé qu’il n’attirerait pas une grande industrie. Ils ont repositionné leur matelas et leur repas du matin comme une option de réseau pour les invités de la convention lorsque les complexes ont été aménagés, mais cela n’a pas non plus eu l’effet de marché qu’ils espéraient. En fin de compte, ils ont cependant pivoté une fois de plus pour proposer des hôtels aux voyageurs qui ne souhaitaient pas s’écraser sur des canapés ou peut-être dans des auberges, mais qui souhaitaient toujours éviter l’hébergement. Une fois qu’ils ont appris qu’il y avait beaucoup d’intérêt pour ce service particulier, les fondateurs ont réduit le titre de la société à Airbnb, abandonné le petit-déjeuner et les éléments de réseau de l’entreprise, et triplé en créant une plate-forme de révélation d’hébergement qui pourrait être utilisée par n’importe qui n’importe où. . Pour cette raison, l’organisation a connu un développement intense et est devenue l’énorme «perturbateur de l’industrie» que vous connaissez ces jours-ci. Si les fondateurs d’Airbnb avaient investi toute leur énergie et leur temps à chercher à commercialiser leur service initial – un matelas pneumatique et un petit-déjeuner – ils auraient pu créer une petite entreprise prospère. Mais plutôt, ils ont expérimenté jusqu’à ce qu’ils découvrent un endroit qui attirait le plus grand nombre de personnes. Obtenir un bon ajustement sur le marché des produits consiste à prêter attention à la question de savoir s’il y a une demande pour vos options et à affiner vos choix s’il n’y en a pas. Marc Andreessen, l’entrepreneur juste derrière Netscape, Ning et Opsware et membre du conseil d’administration de Facebook, Craigslist, ebay et HB, dit que si vous êtes un homme d’affaires, vous devez faire tout ce qu’il faut pour garantir que vos produits ou services est acceptable pour le marché. Cela peut signifier réécrire votre produit ou service, déménager dans un autre secteur, augmenter le capital de l’entreprise ou montrer aux clients «oui» lorsqu’ils demandent un service ou un produit que vous n’aviez pas toujours prévu de leur offrir lorsque vous avez démarré votre entreprise.

Twitter: du microblog à la source de l’information

Twitter est un service de microblogging en ligne permettant de diffuser de brefs messages entre des équipes d’utilisateurs via un ordinateur personnel ou un téléphone portable. Youtube intègre des éléments de sites Web de médias sociaux, tels que Myspace et Facebook, avec des systèmes de messagerie instantanée en ligne pour produire des systèmes d’utilisateurs qui peuvent se connecter pendant la journée avec des messages courts, ou « tweets ». Une personne tape un tweet via le clavier d’un téléphone portable ou un ordinateur personnel et l’envoie à l’hôte de Twitter, qui le relaie à une liste d’autres clients (appelés abonnés) qui se sont inscrits pour recevoir les tweets de l’expéditeur par SMS sur leur téléphone portable. ou par des informations instantanées pour leurs ordinateurs personnels. De plus, les clients peuvent choisir de suivre des sujets spécifiques, créant une sorte de conversation et faisant passer à des millions le nombre d’abonnés au sein d’une offre Twitter donnée. Les tweets peuvent porter sur n’importe quel sujet, des blagues aux nouvelles en passant par les programmes de souper, mais ils ne peuvent pas dépasser 140 chiffres. Twitter a été construit à l’aide de Ruby on Side rails, une structure d’application Internet spécialisée pour votre langage de programmation informatique Ruby. Son interface permet une adaptation et une intégration ouvertes avec d’autres services Internet. Le service a été créé en 2006 par Evan Williams et Biz Rock, qui ont tous bien travaillé chez Google avant de partir pour lancer l’entreprise de podcasting Odeo. Williams, qui a déjà créé le célèbre outil de création de blogs, a commencé à expérimenter l’un des projets partiels d’Odeo, un service de messages courts (SMS) alors connu sous le nom de Twttr. Voyant un produit à long terme, Williams a racheté Odeo et a lancé Apparent Corp. pour le développer davantage. Le professionnel Jack Dorsey est devenu membre de l’équipe d’administration, ainsi que l’édition terminée de Youtube a fait ses débuts lors de la réunion musicale South by Southwest à Austin, Texas, en mars 2007. Ce mois-ci, Youtube, Inc., a été créée en tant qu’organisation commerciale, grâce à une injection de fonds d’effort. Dès sa création, Twitter était principalement un SMS totalement gratuit comportant un élément de réseautage social. En tant que tel, il lui manquait le flux de revenus limpide que l’on peut trouver sur les sites Web qui tiraient des revenus du marketing des bannières publicitaires ou des frais d’adhésion. Le nombre de visiteurs distinctifs ayant augmenté d’environ 1 300 % en 2009, il était évident que Youtube était plus qu’une curiosité de niche. Cependant, au cours d’une année où le mastodonte des réseaux sociaux Facebook réalisait des bénéfices pour la première fois, il n’était pas clair si Twitter pouvait atteindre la liberté financière de ses investisseurs en capital d’entreprise. En avril 2010, Twitter a révélé les « Tweets sponsorisés » – des publicités qui apparaîtraient dans les résultats de recherche – comme sa principale source de revenus. Les origines de Twitter sur les réseaux sociaux étaient évidentes en avril 2009, lorsque l’acteur Ashton Kutcher est devenu le vainqueur d’une course avec CNN pour être le premier Twitterer à rassembler plus d’un million de followers. Alors que « l’observation électronique » des célébrités restait un attrait important pour le service, les entreprises ont rapidement commencé à envoyer des tweets sur les campagnes et les occasions, et les stratégies gouvernementales ont identifié le besoin de Twitter comme dispositif d’interaction. Lors de l’élection présidentielle américaine de 2008, Barack Obama a dominé son challenger, John McCain, dans le domaine des réseaux sociaux, rassemblant près de 4 fois plus d’amis Myspace et plus de 20 fois autant de fans sur Twitter. Ce développement a pratiquement garanti que les candidats à long terme incluraient une existence de réseautage social dans le cadre de leurs techniques de médias de masse. L’étape peut-être la plus remarquable dans le développement de Twitter, cependant, a été son utilisation accrue en tant qu’appareil pour les journalistes amateurs. Youtube est passé de quelque chose qui était considéré comme un passe-temps inactif pour avoir une planète de plus en plus câblée en une source d’informations de pointe qui transcendait les frontières gouvernementales. Le 15 janvier 2009, un tweet du voyageur du ferry de banlieue Janis Krums a brisé l’histoire de l’atterrissage effectif de l’eau potable du vol 1549 des passages US Air sur le Hudson Stream à New York. Une image de téléphone-appareil photo prise rapidement des passagers débarquant de l’avion immergé à cinquante pour cent a été téléchargée sur Twitpic.com, un service d’hébergement de photos pour les utilisateurs de Youtube ; le site Web s’est rapidement écrasé alors que des milliers de twittos essayaient de le voir en même temps.