IA: quels avantages et quels dangers

De SIRI aux automobiles autonomes, les connaissances artificielles (IA) progressent rapidement. Alors que la science-fiction dépeint souvent l’IA comme des robots dotés de fonctionnalités similaires à celles d’un être humain, l’intelligence artificielle peut tout englober, des ensembles de règles de recherche de Google à Watson d’IBM en passant par les outils autonomes. L’intelligence artificielle est aujourd’hui correctement appelée AI de filtre (ou IA affaiblie), en ce sens qu’elle est conçue pour effectuer une tâche de filtrage (par exemple, uniquement la reconnaissance faciale ou uniquement des recherches sur le Web ou uniquement la conduite d’une voiture). Néanmoins, l’objectif à long terme de nombreux experts est de générer une IA générale (AGI ou IA forte). Alors que l’IA mince peut surpasser les humains, quel que soit son processus, comme jouer aux échecs ou résoudre des équations, l’AGI surpasserait les gens dans presque tous les travaux mentaux. À court terme, l’objectif consistant à essayer de maintenir l’effet de l’IA sur la société avantageux motive la recherche dans de nombreux domaines, de l’économie d’entreprise et de la législation aux sujets techniques tels que l’affirmation, la crédibilité, la protection et le contrôle. Bien que ce ne soit guère plus qu’une nuisance mineure si votre ordinateur portable tombe en panne ou est piraté, il deviendra beaucoup plus crucial qu’un système d’IA fasse ce que vous voudriez qu’il accomplisse s’il contrôle votre véhicule, votre avion, votre stimulateur cardiaque, votre automatique. programme d’investissement ou peut-être votre réseau électrique. Un autre problème d’expression brève est d’arrêter une course désastreuse aux armes mortelles autonomes. Finalement, une question essentielle pour vous est de savoir ce qui va se passer si la recherche d’une IA forte réussit et qu’un système d’IA devient bien meilleur que les humains dans tous les domaines mentaux. Comme l’a révélé I.J. Bien en 1965, créer des méthodes d’IA plus sages est en soi un travail cognitif. Un tel programme pourrait subir une amélioration personnelle récursive, provoquant une explosion d’intellect laissant l’intellect individuel considérablement alimenté. En inventant des technologies innovantes, ce type de superintelligence peut nous aider à nous débarrasser de la guerre, de la maladie et de la pauvreté, de sorte que le développement d’une IA solide peut être la plus grande occasion dans l’histoire de l’être humain. Certains experts ont cependant fait part de leur inquiétude, car cela pourrait également devenir la finale, sauf si nous apprenons à aligner les cibles de l’IA avec les nôtres avant qu’elle ne soit superintelligente. Il y en a quelques-uns qui s’inquiètent de savoir si une IA forte sera jamais accomplie, et d’autres qui insistent sur le fait que la création d’une IA superintelligente est garantie d’être bénéfique. Chez FLI, nous reconnaissons ces deux opportunités, mais identifions en outre le potentiel pour une méthode de renseignement artificiel de déclencher intentionnellement ou accidentellement des dommages fantastiques. Nous savons que les études d’aujourd’hui peuvent nous aider à mieux nous préparer et à arrêter ce type d’implications potentiellement mauvaises plus tard, profitant ainsi des avantages de l’IA tout en évitant les problèmes. La plupart des chercheurs reconnaissent qu’une IA superintelligente est peu susceptible de montrer à l’être humain des pensées intérieures telles que jouir ou détester, et il n’y a aucune raison d’anticiper que l’IA devienne volontairement bienveillante ou malveillante. Au lieu de cela, lorsqu’ils considèrent comment l’IA pourrait devenir un danger, les professionnels estiment que deux scénarios sont les plus probables: L’IA est programmée pour prendre des mesures dévastatrices: les armes autonomes sont des techniques de connaissance synthétique qui sont programmées pour éliminer. À la disposition d’un mauvais individu, ces armes pourraient très facilement entraîner des pertes massives. De plus, une compétition de biceps et de triceps IA pourrait involontairement provoquer une bataille IA qui entraînerait également des pertes de taille. Pour éviter d’être contrarié par l’ennemi, ces outils seront créés pour être très difficiles à «éteindre» simplement, de sorte que les êtres humains pourraient vraisemblablement perdre la charge de ce genre de circonstance. Ce risque n’est que celui qui existe malgré une IA mince, mais qui augmentera à mesure que les niveaux de connaissance de l’IA et d’autonomie augmenteront. L’IA est conçue pour faire quelque chose d’avantage, mais elle développe une manière dangereuse d’atteindre son objectif: cela peut se produire chaque fois que nous négligeons d’aligner totalement les objectifs de l’IA avec les nôtres, ce qui est extrêmement difficile. Dans le cas où vous demandez à une automobile intelligente obéissante d’en adopter une au terminal de l’aéroport le plus rapidement possible, cela peut vous permettre de vous y rendre chassé par des hélicoptères et inclus dans le vomi, en effectuant non pas ce que vous vouliez mais pratiquement ce que vous avez demandé. Si un produit superintelligent se voit confier le travail d’un projet de géo-ingénierie engagé, il pourrait causer des dommages à notre écosystème comme un effet secondaire et considérer les efforts humains pour y mettre fin comme une menace à affronter. Comme l’illustrent ces bons exemples, le souci de l’IA avancée n’est pas la malveillance mais les compétences. Une IA super intelligente sera probablement très efficace pour atteindre ses objectifs, et au cas où ces objectifs ne seraient pas alignés sur les nôtres, il y a un problème. Vous n’êtes probablement pas un méchant anti-fourmis qui marche sur les fourmis par méchanceté, cependant, si vous êtes responsable d’un projet hydroélectrique de vitalité écologique et qu’il y a une fourmilière dans la région à bombarder, aussi mauvais pour les fourmis. . Un objectif important des études scientifiques sur la sécurité de l’IA est de ne jamais repérer l’humanité à la place de ces fourmis.

Des conceptions prêtes pour le succès

Ils disent que si vous n’êtes pas en ligne, vous n’existez pas.
Les détaillants devraient interpréter cela comme suit : si vous n’avez pas de site Web de commerce électronique, votre entreprise est ignorée par un grand nombre de clients.
Au dernier trimestre, les ventes en ligne de Walmart ont augmenté de 97 % La croissance des ventes et des bénéfices d’Amazon au deuxième trimestre était de 40 % Les petits détaillants tels que Howards Storage World, B-Wear Sportswear et Plain Jane, entre autres, enregistrent une croissance à deux, voire trois chiffres des revenus du commerce électronique par rapport à l’année précédente.
Qu’est-ce que ces trois entreprises ont d’autre en commun ? Leurs nouvelles conceptions de sites Web de commerce électronique sont parfaites et optimisées pour la conversion des clients.
Et voici comment vous aussi, vous pouvez rejoindre le nombre croissant de détaillants qui dépassent constamment leurs objectifs annuels de commerce électronique.
Ce qui est nécessaire pour créer un site Web de commerce électronique magnifique (et performant)
Opérations de vente au détail nationales ou projet parallèle de passe-temps, quel que soit le type de site de commerce électronique que vous envisagez de créer, la première chose dont vous avez besoin est une plate-forme de commerce électronique pour vous aider à créer le meilleur magasin de commerce électronique.
Une plateforme de commerce électronique est une application logicielle qui vous permet de créer une boutique en ligne et de gérer son marketing, ses ventes et ses opérations.

Il existe 3 principaux types de plateformes de commerce électronique sur le marché :
Open source.
Commerce sans tête.
Chacun d’eux vous fournit une boîte à outils pour créer une boutique en ligne : constructeur de page, page de paiement, intégrations de passerelle de paiement, etc. La différence entre ces plates-formes de commerce électronique réside dans les niveaux de :
Personnalisation.
Performance.
Ensemble de fonctionnalités intégré.
Les plates-formes SaaS offrent une expérience de conception de magasin de commerce électronique prête à l’emploi. Vous pouvez concevoir un magasin à l’aide d’un éditeur visuel par glisser-déposer en plusieurs heures. Mais le compromis est une personnalisation limitée et l’incapacité d’ajouter des fonctionnalités personnalisées.
Les plates-formes open source sont comme une toile vierge qui, avec suffisamment de temps et d’efforts, peut être transformée en n’importe quel type de site Web de commerce électronique. Mais vous créez tout à partir de zéro. Cela signifie avoir un codeur et un concepteur sur appel.
Vous pouvez choisir entre le commerce sans tête et les plates-formes Open SaaS telles que BigCommerce, les plates-formes SaaS comme Shopify (offre une offre de commerce sans tête, mais a des limites rigides d’appels d’API par seconde), les constructeurs de sites Web SaaS comme Squarespace et Wix, et les plates-formes open source comme Magento (n’a pas d’éditeur de thème natif) et WooCommerce (techniquement un plugin de commerce électronique). Ces solutions de commerce électronique ne limitent pas vos capacités de conception afin que vous puissiez créer des sites Web magnifiques et uniques. Et vous n’avez pas besoin de créer des fonctionnalités commerciales de base à partir de zéro.
Dans tous les cas, quel que soit le constructeur de magasin avec lequel vous choisissez de démarrer, assurez-vous que votre premier choix présente les caractéristiques suivantes :

1. Mobile réactif.
Lorsque 46 % des consommateurs effectuent l’intégralité de leur processus d’achat (de la recherche à l’achat) sur un smartphone, vous manquerez de nombreuses ventes si votre site Web n’est pas adapté aux mobiles. Une plate-forme de commerce électronique réactive garantit que les visiteurs de toutes sortes d’appareils bénéficient d’une expérience sur site tout aussi exceptionnelle, sans aucune contrainte de conception.

2. Opportunités de personnalisation.
La beauté » est une évaluation hautement subjective. Mais lorsqu’il s’agit de conception Web, une belle apparence signifie généralement une mise en page pratique, une typographie et une iconographie esthétiques, des visuels nets et d’autres éléments de conception sur site qui différencient votre magasin des autres. Si votre plate-forme de commerce électronique manque de fonctionnalités de personnalisation et de beaux modèles prêts à l’emploi, vous êtes obligé d’utiliser le même moule que des centaines d’autres magasins, avec peu de place pour montrer en quoi votre marque se démarque.

3. Navigation sur le site facile à suivre.
La navigation est un terme générique désignant tous les éléments de l’interface utilisateur que les utilisateurs peuvent utiliser pour accéder à des informations spécifiques sur votre site Web. Ceux-ci incluent le menu de navigation d’en-tête, les pages de catégories de produits, les filtres, la recherche sur site et le pied de page. Lorsque votre plate-forme de commerce électronique limite votre capacité à créer des chemins de navigation personnalisés, vous vous retrouverez avec un joli site Web dysfonctionnel que peu de clients voudront utiliser, et votre taux de conversion en souffrira.

4. Expérience utilisateur unique.
Delight invite les consommateurs à finaliser leur achat, puis à effectuer d’autres achats. Qu’est-ce qui déclenche ce sentiment de plaisir et fait passer la marque au niveau supérieur ? Les meilleurs outils de marketing au monde ne vous aideront pas si votre site les laisse à désirer.
Pensez à des conversions plus élevées, à des achats répétés, à des critiques élogieuses et à des recommandations de bouche à oreille. Donc, vous ne voulez pas lésiner sur cela.
Comment déterminez-vous si votre plateforme de commerce électronique est compatible UX ? Consultez plusieurs exemples de sites Web de commerce électronique, construits sur la plate-forme sélectionnée. Spécifiquement:
Évaluer les composants de base de l’interface utilisateur. Parcourez le site Web pour comprendre si vous aimez la navigation, trouvez les mises en page efficaces et tous les éléments de conception intuitifs et beaux.
Examiner les opportunités de personnalisation. Plus vous pouvez modifier d’éléments, plus vous pourrez créer une UX unique à mesure que vos opérations évoluent. N’oubliez pas : ce qui ressemble à une pratique de « démarrage » correcte pour un petit magasin peut se transformer en une responsabilité épuisante pour les opérations plus importantes. Assurez-vous que vous pouvez mélanger et ajouter différents éléments de conception au fur et à mesure que vos priorités changent.
Mesurer les performances du site Web. Le temps de chargement des pages et la vitesse globale du site Web s’ajoutent ou se soustraient à votre UX. Des pages lentes, des éléments de conception glitchs et des vidéos de produits à chargement lent résultent souvent d’un CMS/CDN et d’un fournisseur d’hébergement médiocres, agence seo utilisés par la plate-forme de commerce électronique.

La fréquence d’indexation

Dans un hangout aux webmasters, un éditeur a demandé à quelle vitesse Google supprimait des pages de l’index s’il y ajoutait un noindex nofollow. L’éditeur a déclaré avoir ajouté noindex mais la page est restée dans l’index de Google. John Mueller de Google a répondu avec une réponse décrivant la fréquence à laquelle certaines pages sont indexées. John Mueller a révélé que les URL sont explorées à des rythmes différents. C’est un peu bien compris. Ce qui était plus intéressant, c’est qu’il a déclaré que certaines URL ne pouvaient être explorées qu’une fois tous les six mois. L’éditeur a déclaré: Nous voyons des choses qui datent d’il y a longtemps, où nous avons changé le noindex nofollow mais nous le voyons toujours dans l’index. Et c’est plusieurs mois après que nous ayons changé cela.  »

John Mueller a répondu: Je pense que le plus dur ici est que nous n’explorons pas les URL avec la même fréquence tout le temps. Donc, certaines URL que nous explorerons quotidiennement. Certaines URL peuvent être hebdomadaires. D’autres URL tous les deux mois, peut-être même tous les six mois environ. C’est donc quelque chose pour lequel nous essayons de trouver le bon équilibre, afin de ne pas surcharger votre serveur. Et si vous avez apporté des modifications importantes à votre site Web à tous les niveaux, beaucoup de ces modifications sont probablement prises en compte assez rapidement, mais il en restera quelques-unes. Donc, en particulier, si vous faites des choses comme des requêtes sur le site, il y a une chance que vous voyiez ces URL qui sont explorées comme une fois tous les six mois. Ils seront toujours là après quelques mois.

Et c’est en quelque sorte… le moment normal pour nous de retraiter / re-crawler les choses. Ce n’est donc pas nécessairement le signe que quelque chose est techniquement complètement cassé. Mais cela signifie que si vous pensez que ces URL ne devraient vraiment pas être indexées du tout, vous pouvez peut-être le sauvegarder et dire bien voici un fichier de plan du site avec la dernière date de modification afin que Google se déclenche et essaie de doubler. vérifiez-les un peu plus vite qu’autrement. » Utilisez le plan du site pour déclencher l’exploration mise à jour John Mueller a suggéré de mettre à jour le plan du site et de laisser Googlebot découvrir la dernière date modifiée et de l’utiliser comme un indice pour qu’il sorte et explore les anciennes pages Web. Outil d’inspection d’URL Google Quelque chose que John Mueller n’a pas mentionné est l’utilisation de l’outil d’inspection d’URL de Google. Selon la page d’aide aux webmasters de Google sur la réindexation, une soumission peut prendre jusqu’à une semaine ou deux. L’outil d’inspection d’URL est utile si vous avez quelques URL individuelles qui nécessitent une nouvelle exploration. Si vous avez un grand nombre de pages Web, Google vous recommande de soumettre un plan de site à la place.

A quoi sert un moteur de recherche

Internet est en grande partie désorganisé et les informations sur ses pages Web sont de qualité très différente, y compris des informations industrielles, des répertoires nationaux, des sélections de guides de recherche et des collections de documents individuels. Les moteurs de recherche comme Google essaient de déterminer les pages Web fiables en les pondérant ou en les positionnant en fonction du nombre d’autres pages Web qui y font référence, en identifiant les « autorités » que de nombreuses pages Web recommandent, et également en identifiant les « hubs » qui font référence à de nombreux pages. Ces techniques peuvent fonctionner correctement, mais le consommateur doit toujours s’entraîner à choisir les combinaisons appropriées de termes de recherche. La recherche d’une banque peut renvoyer des centaines d’innombrables pages (« appels »), dont beaucoup proviennent d’institutions bancaires commerciales. La recherche d’une banque de flux peut néanmoins renvoyer plus de 10 millions de pages, dont certaines proviennent d’institutions bancaires avec rivière dans le titre. Seules d’autres améliorations telles que l’institution financière des cours d’eau et les riverains réduisent le nombre de grèves à des milliers et des milliers de pages Web, dont les plus importantes concernent de loin les rivières ainsi que leurs institutions bancaires. Les moteurs de recherche utilisent des robots, des applications qui explorent Internet en utilisant des hyperliens hypertextes de page en page Web, enregistrant tout sur une page Web (appelée mise en cache) ou des zones d’une page Web, ainsi qu’un moyen exclusif de marquer le contenu pour être capable de développer des indices pondérés. Les sites Web comportent souvent leurs propres étiquettes sur les pages Web, qui ne sont généralement vues que par les robots d’exploration, afin d’améliorer le complément entre les requêtes et leurs sites. Les abus de l’étiquetage volontaire peuvent fausser les résultats des moteurs de recherche s’ils ne sont pas pris en compte lors de la conception d’un moteur de recherche. De même, une personne doit savoir si un moteur de recherche Internet spécifique vend des mots-clés aux enchères en ligne, en particulier si les sites qui ont payé pour un placement préférentiel ne sont généralement pas signalés séparément. Même les moteurs de recherche de base les plus importants comme Google, tels que Google, Yahoo!, Baidu et Bing, ne peuvent pas maintenir la prolifération des pages Web, et chacun laisse de grandes parties découvertes. lien de site Web, un lien entre des éléments d’information connexes par des connexions électroniques afin de permettre à une personne un accès rapide entre eux. L’hypertexte, un lien hypertexte impliquant un contenu textuel, est une fonctionnalité de certaines applications qui permettent à l’utilisateur de médias de masse électroniques de sélectionner n’importe quoi dans le texte et de recevoir plus d’informations concernant ce terme, comme une description ou des recommandations connexes à l’intérieur du contenu textuel. Dans l’article « baleine » d’une encyclopédie numérique, par exemple, un lien hypertexte dans la référence à la baleine bleue permet à votre lecteur d’accéder à l’article sur cette variété en cliquant simplement sur les mots « baleine bleue » avec une souris. . Le lien vers le site Web est généralement indiqué en mettant en évidence le mot ou l’expression pertinent dans le contenu textuel avec une police ou une couleur différente. Les hyperliens peuvent également relier le contenu textuel à des photos, des images ou des séquences de dessins animés. Les backlinks entre différentes parties d’un document ou entre différents documents créent un cadre de branchement ou de réseau qui peut accueillir des sauts directs et sans intermédiaire vers des bits d’informations connexes. La structure arborescente des informations hyperliées contraste avec le cadre linéaire d’une encyclopédie imprimée ou d’un thésaurus, par exemple, dans lequel les éléments ne peuvent être physiquement atteints qu’au moyen d’une séquence statique et linéaire d’éléments classés par ordre alphabétique. Les backlinks sont, en un sens, des références croisées qui permettent un accès immédiat à leur focalisation sur des éléments d’information. Ce type d’hyperliens est plus efficace lorsqu’il est utilisé sur un large éventail d’informations structurées en de nombreux éléments associés plus petits et lorsque l’utilisateur ne demande qu’une petite partie d’informations à tout moment. Les hyperliens ont déjà été utilisés avec le plus de succès par les sites Web. Pour prendre en charge cette masse de données sans précédent, les moteurs de recherche ont construit 11 centres de données dans le monde, tous contenant plusieurs centaines de milliers de serveurs Web (essentiellement des ordinateurs multiprocesseurs et des disques durs installés dans des racks exclusivement construits). Les systèmes informatiques interconnectés de Google sont probablement au nombre de plusieurs millions. Le centre de la procédure de Google, néanmoins, est construit autour de trois bits exclusifs de code informatique : Google File Program (GFS), Bigtable et MapReduce. GFS gère le stockage des données en « morceaux » sur plusieurs appareils ; Bigtable est le programme de source de données de l’entreprise ; et MapReduce est utilisé par Google pour créer des données de niveau supérieur (par exemple, constituer un répertoire de pages Web contenant les mots « Chicago », « théâtre » et « participatif »).

Smartcities: bientôt une réalité

Les zones métropolitaines sages sont rendues possibles par des connexions Internet à grande vitesse. Ils s’appuient sur de grandes informations, des ensembles de règles et le réseau de points pour mieux fournir leurs communautés de plus en plus diversifiées. Par exemple, les régions métropolitaines avisées utiliseraient les informations recueillies à partir de détecteurs sans fil pour calculer le nombre d’autocars qui devraient être en circulation sanguine dans un temps imparti afin de réduire les temps d’attente. L’espoir est que l’expansion de l’utilisation des technologies permette aux zones métropolitaines intelligentes de faire évoluer instantanément les services en fonction des besoins et des choix changeants des citoyens. Cependant, l’accessibilité inégale du haut débit dans de nombreuses communautés du You.S. a entraîné des problèmes qui font que les efforts de changement qui se concentrent sur les technologies, tels que les projets de ville sage, pourraient renforcer les inégalités sociales existantes. En tant que spécialiste qui recherche les technologies et les plans du secteur public, je pense que cela fait de l’élargissement de l’accessibilité à large bande dans les communautés mal desservies un élément essentiel de la nouvelle loi sur les infrastructures et une étape importante vers la réalisation de l’objectif du président Biden d’utiliser ces lois sur les infrastructures pour faire progresser la valeur sociale. Il y a 2 raisons derrière cela. Le haut débit à des vitesses haut débit Le premier est les installations électroniques qui permettent une sélection et une analyse généralisées de l’information, telles que le Web Internet haut débit, ont tendance à sous-performer dans les communautés moins aisées. Par exemple, une étude réalisée en 2019 par Microsoft montre que 162,8 millions de personnes aux États-Unis n’étaient pas en mesure d’accéder au Web à des vitesses à large bande. Un fait contrasté de la FCC a estimé que beaucoup moins de citoyens américains travaillaient avec des connexions Internet lentes au cours de la même période. Mais leur nombre s’est concentré sur l’utilisation de contacts Internet à large bande, par opposition à l’utilisation de connexions Internet qui fonctionnent réellement à des débits Internet à haut débit élevés. L’expansion de l’utilisation de l’Internet haut débit dans les communautés mal desservies contribuera à garantir que les informations utilisées pour informer une prestation de service public avisée font un travail plus satisfaisant en décrivant les exigences et les choix d’une section beaucoup plus complète de citoyens et d’utilisateurs de services, et pas seulement les habitants des zones riches. A cet effet, délivrer à ces communautés un véritable web haut débit évitera qu’elles soient exclues de vos démarches de notification à la prestation de service public général. L’acte de gestion Une autre cause de l’accès croissant au Web à haut débit favorisera l’équité dans les villes sages tient au fait que les villes sages s’appuient sur des techniques de services interdépendants qui fonctionnent en même temps. Prenez, par exemple, les transports publics, la gestion de la pollution atmosphérique et la santé publique. Les changements dans les modèles de circulation doivent être bien équilibrés avec les objectifs de pollution atmosphérique, qui à leur tour nécessitent de prendre en compte les mesures de performance du bien-être du public en général. Malheureusement, les autorités municipales se battent souvent pour coordonner les services, et lorsqu’elles le font, des conflits de service peuvent survenir. Par exemple, des traitements visant à améliorer brièvement le flux de trafic dans une seule région peuvent améliorer les degrés de pollution atmosphérique au-delà d’un niveau satisfaisant dans une zone supplémentaire, améliorant ainsi les services pour quelques-uns et les détériorant pour d’autres. Dans le cadre des métropoles intelligentes, les efforts de coordination des services nécessitent la disponibilité de connexions en ligne à haute vitesse et d’un réseau de détecteurs. Néanmoins, la disponibilité de connexions en ligne à haut débit fonctionnant à grande vitesse est particulièrement limitée dans les quartiers minoritaires. Le résultat de la disparité est que les communautés de couleur sont plus susceptibles de faire les frais des affrontements de services. Par exemple, les capteurs de qualité de l’atmosphère peuvent être rares dans les communautés de couleur étant donné la pénurie d’Internet à haut débit, ce qui rend difficile de savoir quand les efforts de réacheminement du trafic entraînent une pollution de l’air atmosphérique dépassant les quantités acceptables. L’élargissement de l’accès à l’Internet haut débit est une étape vitale pour arrêter ce type d’effet secondaire. Les villes intelligentes et la dépendance croissante des gouvernements à l’égard des technologies promettent d’améliorer les performances du gouvernement, mais elles peuvent également renforcer les modèles actuels d’inégalité. Avec une quantité massive d’installations à l’horizon, la direction de Biden a le potentiel d’éliminer les causes essentielles de l’inégalité généralisée, en particulier en élargissant l’utilisation des connexions à large bande qui fonctionnent à grande vitesse dans les quartiers mal desservis.

Est-ce que Facebook est trop gros ?

Les procureurs généraux de huit États et du district de Columbia ont ouvert une enquête formelle sur Facebook pour pratiques anticoncurrentielles, a confirmé vendredi matin le bureau du procureur général de New York.

L’enquête cherchera à savoir si Facebook « a mis en danger les données des consommateurs, a réduit la qualité des choix des consommateurs ou a augmenté le prix de la publicité », a déclaré la procureure générale de New York, Letitia James, dans un communiqué.

L’enquête antitrust fait partie d’un examen plus large qui est coordonné avec les procureurs généraux du Colorado, de la Floride, de l’Iowa, du Nebraska, de la Caroline du Nord, de l’Ohio, du Tennessee et du district de Columbia.

« Même la plus grande plate-forme de médias sociaux au monde doit suivre la loi et respecter les consommateurs », a déclaré James.

Tout cela se produit à un moment où Facebook a accepté de payer 5 milliards de dollars à la Federal Trade Commission pour ne pas avoir protégé les données des utilisateurs contre un large partage avec des applications tierces, entre autres problèmes.

Et le ministère de la Justice a déclaré plus tôt cet été qu’il lance un examen antitrust de même envergure des grandes entreprises technologiques. Le DOJ n’a pas nommé d’entreprises spécifiques dans son annonce, mais il s’agissait de la première confirmation publique claire d’un examen antitrust américain majeur de l’industrie technologique.

Le ministère de la Justice a déclaré que sa division antitrust examinerait comment les principales plates-formes en ligne ont augmenté leur part de pouvoir de marché et si elles agissent de manière à « réduire la concurrence, étouffer l’innovation ou nuire aux consommateurs ».

Les machines qui seront plus intelligentes que les personnes

Au-delà d’un quart de siècle, nous avons certainement réussi à trouver Internet en interrogeant les moteurs de recherche à l’aide de plusieurs mots-clés et expressions pertinents. Sans une telle ressource, Internet serait carrément un dépotoir sans valeur de données Web. En 1998, la formule de l’algorithme PageRank de Google a redéfini tout ce que nous pouvons obtenir en termes de signification des résultats de recherche. Récemment, une certaine digestion sémantique a été incluse dans la magie qui peut aider le moteur à comprendre un problème qui avait été exprimé dans la terminologie de base. À très long terme, nous pourrions peut-être identifier des fichiers en fascinant une brève forme de dialogue QAndA avec un moteur de recherche, tout comme nous pouvons utiliser un libraire. Il existe cependant une différence importante entre un libraire et les moteurs de recherche. Dans le cas où vous n’êtes pas sûr de la réserve que vous devriez lire, vous pourriez faire un effort pour interroger le libraire pour le résumer pour vous personnellement en quelques phrases. Ce type de projet de synthèse est depuis longtemps apparu absolument inaccessible dans les approches PNL intemporelles centrées sur les principes et n’a pas été jugé raisonnable dans un avenir proche. Mais, lentement, tout se transforme maintenant avec les dernières avancées dans les types de compréhension forte pour la PNL. Imaginez simplement que vous aviez besoin d’une liste de contrôle inférieure à côté du champ de saisie du moteur de recherche préféré qui pourrait vous permettre d’établir la durée d’un résumé automatisé pour un document présenté. Dites, une phrase, 10 phrases ou peut-être un aperçu d’une page. Serait-ce utile? En fait, il est vraiment assez probable que cela pourrait rapidement confirmer si utile qu’il pourrait devenir omniprésent. En plus d’augmenter la recherche de fichiers, cela peut également aider dans de nombreuses autres activités. À titre d’exemple, cela pourrait éventuellement aider les scientifiques à maintenir une circulation vertigineuse de publications dans des domaines tels que le traitement ou l’IA. Plus prosaïquement, cela peut aider à créer de brèves informations sur les marchandises pour les détaillants sur Internet avec des catalogues trop volumineux pour être gérés personnellement. De nombreux autres exemples d’applications de résumé intelligent sont expliqués ici à titre d’illustration. Pour les papiers de plus grande taille avec une vaste sélection de pages Web comme des romans, ces types d’équipement de synthèse générique continuent de faire partie du domaine de la science-fiction. Cependant, en raison de la polyvalence toujours étonnante des modèles Strong Discovering, l’accroche ne sera pas aussi étendue pour les outils qui peuvent résumer des documents d’une ou deux pages Web dans certaines phrases, un minimum à l’intérieur de régions de compréhension spécifiques. Le but de ces informations est de décrire les unités d’information récentes et les architectures d’études sérieuses qui nous ont peut-être un peu plus rapprochés de l’objectif. L’évaluation de la synthèse par l’homme est subjective et implique une décision comme le style, la cohérence, l’exhaustivité et la lisibilité. Cependant, aucun score n’est désormais connu, Informatique Minute ce qui est à la fois une tâche facile à calculer et consacrée au verdict humain. La cote ROUGE est la perfection que nous avons maintenant, mais elle a des points faibles évidents puisque nous le verrons. ROUGE numérote simplement la quantité de mots, ou n-gr, qui peuvent être présents avec le résumé fait par une unité avec un résumé de guide créé par un humain.

Avis: plus de qualité, moins de quantité

Alors que nous restons, courons et manœuvrons dans un monde de plus en plus électronique, les entreprises doivent changer leur méthode de conservation des clients. Auparavant, l’excellent article pouvait se tenir tout seul avec une protection assez faible. La sursaturation du Web a conduit à un regain d’importance des véritables critiques en ligne. Les évaluations en ligne sont au milieu de chaque élément, service ou entreprise positif et durable. De vraies évaluations positives peuvent créer des clients à long terme pendant de nombreuses années dans le futur. Le seul problème? Il peut être difficile d’obtenir des avis sur le Web. Selon Statista, Facebook compte bien plus de 2,85 milliards de clients mensuels. Comment pouvez-vous amener certains de ces clients des médias sociaux à évaluer vos produits et services ? Tout d’abord, vous trouverez très peu de problèmes plus importants pour votre nom de marque sur le Web que vos classements de recherche d’optimisation pour les moteurs de recherche. Également appelée optimisation pour les moteurs de recherche, une solution efficace pour la domination de l’optimisation pour les moteurs de recherche peut amener les résultats de vos recherches au sommet du classement. Ce faisant, vous faciliterez la découverte de vos produits par les gens et beaucoup plus pratique pour leur permettre de vous laisser une évaluation. Et bon, si c’est une bonne évaluation, c’est encore mieux ! Si vous ne déterminez pas si les mesures d’optimisation des moteurs de recherche sont le bon sujet sur lequel vous concentrer, ce n’est pas grave ! Forbes a organisé un certain nombre de bonnes raisons fantastiques d’envisager de travailler avec une entreprise d’optimisation des moteurs de recherche pour soutenir votre entreprise, alors considérez que c’est un choix ! Les avis ne sont pas aussi faciles à trouver que les ventes réelles, il va donc de soi que les experts malhonnêtes ont déjà cherché à rogner sur les raccourcis. Les bots dans le monde des critiques ont déjà été un énorme problème depuis qu’ils sont devenus une chose. Dans le cadre d’une tentative nécessiteuse pour améliorer l’apparence d’un article, une entreprise peut débourser de l’argent pour obtenir de fausses critiques afin de compléter ses statistiques. Bien que cela puisse sembler séduisant, il s’avère que c’est une bonne idée. Comme décrit à maintes reprises par les professionnels de l’argent et les spécialistes du référencement, les fausses critiques sont suffisamment faciles à identifier pour déterminer qu’elles peuvent nuire à la réputation de votre entreprise. Au lieu de cela, acceptez les évaluations qui apparaissent, qu’elles soient positives, défavorables ou totalement neutres. Assurez-vous de répondre où et quand vous êtes en mesure d’améliorer les circonstances pour les clients insatisfaits. Dans lequel vous ne pouvez pas atteindre vos anciens clients, utilisez leur négativité pour les améliorations énergétiques à l’avenir. Tous les clients ne pourraient pas être sauvés, mais des clients à long terme pourraient être gagnés. Le moyen le plus simple d’avoir plus d’évaluations pour votre article sur Internet est de simplement demander ! Il existe une ligne fine entre demander un avis honnête et propager un faux, alors pensez à utiliser une société intermédiaire pour envoyer des sollicitations d’avis à votre liste d’abonnés. Des stratégies de marketing par e-mail personnalisées qui ciblent les anciens clients avec peu ou de petites incitations pourraient faire des merveilles pour construire votre marque et votre réputation en faisant beaucoup d’exercice. Ces messages électroniques doivent être à la fois professionnels et clairs, garantissant que vous recevez des commentaires honnêtes des clients sans aucune fausse déclaration. Non seulement la demande d’examen vous fournit des informations sur lesquelles vous pouvez apprendre, mais cela permet également à vos clients de devenir beaucoup plus positifs. Les clients se sentiront vraiment remarqués et entendus tandis que les entreprises auront l’opportunité d’acquérir des connaissances à partir de leurs erreurs ou réalisations passées. Pour pouvoir vraiment accumuler des témoignages pour votre marque, vos produits ou votre service, vous devrez être sur les principaux annuaires en ligne. De toute évidence, ces annuaires Web varient d’une entreprise à l’autre, Equadoria mais il existe des points communs qui sont partagés. Toutes les entreprises voudront avoir une existence sur les avis des moteurs de recherche, et cela ne nuit pas non plus à garder un compte Yelp et Facebook ou Twitter actif. Les profils d’utilisateurs d’entreprise dévoués sont le moyen le plus simple d’attirer des clients passés et à long terme dans votre entreprise. Non seulement vos visiteurs et votre audience s’amélioreront, mais vos interactions aussi. En atteignant la plupart de ces objectifs, vous verrez l’augmentation du classement de vos visiteurs en tandem. Les annuaires Web en ligne sont une partie vitale de chaque entreprise autonome qui se concentre sur l’avancement du développement.

Internet: optimiser ses conversions

Dans le marketing des moteurs de recherche, nous parlons souvent de leviers »que nous poussons ou tirons pour optimiser les performances des campagnes.
Du côté de l’achat, ou dans le moteur », + SEO nous optimisons le plus souvent les enchères afin de faire monter ou descendre la position en fonction de l’efficacité du rendement. Nous optimisons également le contenu publicitaire, les mots clés (à la fois les types de correspondance et les éléments négatifs) ainsi que divers autres critères de ciblage tels que la géographie, les extensions et les emplacements.
Du côté de l’offre ou sur site », nous examinons le plus souvent la page de destination et optimisons en conséquence pour offrir une pertinence maximale par rapport aux mots clés spécifiés. Nous allons souvent plus loin et optimisons les pages de destination afin de générer les taux de conversion les plus forts et d’améliorer les résultats globaux.
Cependant, nous devons aller encore plus loin dans l’optimisation de la page de destination et optimiser l’entonnoir de conversion complet. Bien que l’optimisation de la page de destination soit un bon début, même la page de destination la plus efficace peut échouer si les étapes qui suivent ne sont pas conviviales.
Beaucoup de gens mettent trop l’accent sur la page de destination unique pour générer des conversions réussies « , lorsque nous devons examiner toutes les pages de manière globale pour réussir à optimiser les conversions.
Opportunité 1: Limitez les choix
Sur de nombreux sites de commerce électronique, de multiples choix sont proposés aux consommateurs afin de revendre et de vendre des articles (pensez à plusieurs couleurs de chemises ”et les utilisateurs ont également acheté ce” type d’options).
Si nous proposons trop de choix, nous pouvons confondre l’utilisateur, ce qui rend difficile pour lui de trouver l’article qu’il souhaite. Cela pourrait les éloigner au lieu d’acheter.
Pensez aux fois où vous vous êtes levé et avez regardé l’allée des céréales dans l’épicerie, que vous ne pouviez pas décider et que vous êtes parti! Ne laissez pas cela arriver à vos visiteurs.
Opportunité 2: mettre en évidence le chemin
Lors de la conception de vos pages, gardez à l’esprit l’action d’objectif de chaque page et concevez la page de manière à ce que l’action d’objectif soit claire et optimisée. Voulez-vous que l’utilisateur ajoute un produit au panier ou télécharge un livre blanc?
Vous souhaitez peut-être qu’ils consultent une liste de magasins dans leur région. Quel que soit l’objectif de la page, rendez la prochaine étape «facile à trouver et facile d’accès. En concevant de cette manière, vous pouvez guider »l’utilisateur sur le chemin que vous voulez qu’il prenne, jusqu’à la dernière étape de l’achat.
Occasion 3: Appel à l’action
Ayez un appel à l’action et assurez-vous qu’il est optimisé pour que les utilisateurs le remarquent.
Ressources
Opportunité 4: Coupez les données inutiles
De nombreux sites posent une tonne de questions pendant le processus de paiement, ce qui peut rendre le processus long et lourd. Demandez seulement ce qui est vraiment nécessaire.
Avez-vous vraiment besoin d’un numéro de téléphone? Avez-vous vraiment besoin de savoir comment ils vous ont trouvé »?
Limitez votre processus de vérification aux seules questions essentielles et assurez-vous que votre formulaire est limité à une seule page pour maximiser vos chances d’obtenir que l’utilisateur le remplisse.
Sommaire
L’importance de l’optimisation de la conversion ne peut pas être sous-estimée. Bien que l’optimisation du côté de la demande »soit critique et importante, vous ne pourrez presser le jus que tant, finalement il s’assèche. Optimiser l’offre »permet à vos campagnes de continuer à croître et à réussir.
Une augmentation de 10% du taux de conversion signifie une augmentation de 10% du retour sur investissement. Cette augmentation de 10% du retour sur investissement peut être la différence pour pouvoir se permettre »les 200 prochains clics, ce qui entraîne 25 commandes et vous pousse au-delà de vos objectifs.

Tirer parti des RLSA

En 2013, Google a lancé un programme appelé Remarketing Lists for Search Ads (RLSA) .C’est un programme qui, à bien des égards, applique les meilleures pratiques des annonces graphiques traditionnelles de ciblage des annonces aux clients qui ont déjà visité votre site et le rend disponible pour la recherche. En marquant votre site avec le pixel de remarketing de Google, vous commencez à collecter des données clients inestimables que vous pouvez cibler.
Les RLSA deviennent un outil très puissant pour les spécialistes du marketing de recherche, + SEO d’autant plus que la personnalisation se poursuit en tant que tendance dans le paysage numérique. Voici trois choses que vous pouvez faire pour tirer pleinement parti des RLSA.
Existe-t-il des mots clés qui ne fonctionnent généralement pas bien pour vous lorsqu’ils sont ciblés sur le marché en général, mais qui seraient de bons mots clés si vous ne pouviez cibler que des clients précédents? Les RLSA vous permettent de faire exactement cela.
Par exemple, il n’est généralement pas rentable d’acheter un terme comme Paris Vacation, « mais si vous connaissiez un client actuel qui s’était rendu sur votre site de voyage trois fois au cours du mois dernier ou si vous aviez déjà acheté des vacances chez vous, vous voudrez peut-être savoir qu’ils sont maintenant sur le marché pour ces vacances.
2. Enchérir ou même afficher une annonce
Si vous savez qu’un client actuel revient et recherche un terme de marque le plus susceptible de servir son compte, vous pouvez choisir de ne pas afficher d’annonce ou de réduire votre enchère pour ce client et de lui permettre d’utiliser votre annonce de recherche organique.
L’inverse peut également être vrai lorsque vous savez qu’un client effectue des achats répétés ou qu’il est plus susceptible de se convertir s’il avait précédemment effectué un achat de quelque nature que ce soit. Dans ce cas, vous pouvez augmenter votre enchère pour qu’elle soit plus importante pour ces clients.
3. Copie d’annonce ciblée
Vous souhaitez accueillir à nouveau un client précédent ou vendre croisé un produit spécifique en raison d’un achat récent? Cette capacité est disponible via les RLSA.
Avoir plusieurs copies d’annonces en rotation était toujours la meilleure pratique en tant que test, mais tester cette copie d’annonces avec des informations basées sur les données peut changer le jeu.
3 rappels rapides lors de la configuration des RLSA
Vous avez besoin d’un pool de cookies de 1 000 utilisateurs avant de pouvoir exécuter des RSLA.
Les RLSA nécessitent actuellement Google SmartPixel pour tirer pleinement parti des fonctionnalités de RLSA. Le pixel de conversion permet certaines fonctionnalités.
Il existe deux options pour tirer parti des RLSA. Ce que vous choisissez est basé sur vos objectifs commerciaux. Cependant, je suis fan de lancer plusieurs campagnes RLSA:
La diffusion ou la création de plusieurs campagnes RLSA (pour le même ensemble de mots clés) permet une messagerie unique (par exemple, la modification de la copie publicitaire de marque pour un utilisateur acheté sur le site auparavant), mais présente également des défis supplémentaires en matière de gestion de campagne / logistique.
Alternativement, le simple fait d’utiliser des modificateurs pour optimiser les enchères d’audience RLSA dans une campagne existante offre de nombreuses efficacités de gestion, mais les leviers et l’optimisation ne sont pas aussi robustes.
Sommaire
Ces tactiques RLSA ont bien fonctionné pour mon agence au cours des derniers mois. Son importance continuera de croître à mesure que davantage de données sont collectées et que des informations spécifiques sont comprises et utilisées pour optimiser les campagnes AdWords.
Cela dit, la capacité unique de dialoguer avec les clients en fonction de leur expérience antérieure ou de leur propension à acheter continuera d’évoluer et deviendra une tactique de plus en plus importante pour tous les spécialistes du marketing.