Un processus étape par étape pour évaluer votre contenu

Publié: 2020-12-22

processus-étape-par-étape-scoring-content

Pensez à un élément de contenu publié récemment par votre équipe. Sur une échelle de 0 à 100, comment l'évaluez-vous? Et comment votre évaluation aiderait-elle votre entreprise?

Perplexe? Considérez la méthode que Jared Whitehead a conçue pour évaluer les performances du contenu.

Jared travaille comme analyste dans le groupe des opérations marketing chez Red Hat. Après 10 ans de croissance et d'acquisitions, la société de technologie B2B s'est retrouvée dans un «chaos constant» avec son approche du contenu.

Leigh Blaylock, qui dirige le groupe de stratégie de contenu global de Red Hat et a travaillé avec Jared, note que l'entreprise «avait tellement d'acquisitions, tellement de produits, tellement d'équipes marketing» que personne ne savait quel contenu était significatif et à quel contenu refuser.

L'année dernière, Jared, Leigh et leurs collègues ont décidé de maîtriser le contenu de Red Hat. Ils voulaient savoir quel contenu ils avaient, ce qu'ils voulaient conserver, ce qui était et n'était pas en train de jouer, et ce que signifiait même «jouer».

Voici comment ils l'ont fait:

  • Construit une équipe de notation de contenu
  • Types de contenu standardisés
  • Audité le contenu
  • Développer une méthode de notation de contenu
  • Créé une preuve de concept

Et voici ce qu'ils continuent de faire:

  • Trouvez des passionnés pour promouvoir leur méthode de notation
  • Faire évoluer la méthode d'évaluation du contenu
  • Auditer le contenu régulièrement

La nouvelle méthode de notation de contenu de Red Hat prouve sa valeur commerciale en donnant aux équipes de contenu un moyen cohérent d'évaluer les performances de différents éléments de contenu afin que tout le monde sache à quel contenu dire non - ou oui - .

La notation du contenu offre aux équipes un moyen cohérent d'évaluer les performances de #content, explique @marciarjohnston. Cliquez pour tweeter

Leigh et Jared ont partagé cette initiative dans leur présentation de Content Scoring chez Red Hat: Building and Applying a Repeatable Performance Model lors de l'Intelligent Content Conference.

CONTENU ASSOCIÉ À LA MAIN: Comment documenter votre flux de travail de marketing de contenu

1. Construisez une équipe de notation du contenu

Jared décrit deux écoles de pensée sur la façon de créer une carte de pointage de contenu:

  • Un groupe de contenu développe une méthode de notation que d'autres suivent.
  • Un groupe interdépartemental développe une méthode de notation qui fonctionne pour tous.

L'une ou l'autre approche peut fonctionner. Choisissez ce qui a du sens pour les personnes et le contenu de votre situation. Dans tous les cas, choisissez des personnes pour contribuer à la méthodologie de notation des performances qui ont une vue d'ensemble du contenu et ont une idée des systèmes utilisés pour créer, étiqueter, distribuer et gérer ce contenu.

Choisissez des personnes pour créer des scores de performance qui ont une vue d'ensemble du contenu ou des personnes. @jaredwhitehead Cliquez pour tweeter

Pour Red Hat, cela signifiait que Jared impliquait l'équipe de contenu marketing, qui a une vue d'ensemble des actifs marketing et des systèmes de contenu de l'entreprise, de la marque au marketing produit en passant par le marketing d'entreprise. Les membres de l'équipe pourraient dire: «C'est notre CMS, c'est notre taxonomie. C'est ainsi que nous arriverions au contenu pour l'analyser. Ce sont les outils dont nous disposons. C'est ainsi que nous pourrions les utiliser pour obtenir ce que nous recherchons. »

Lorsque vous avez des personnes qui comprennent le contenu à noter et les systèmes prenant en charge ce contenu, vous avez une meilleure idée des autres compétences nécessaires dans l'équipe. Pour certaines choses, vous voudrez peut-être embaucher de l'aide; pour d'autres choses, les employés peuvent être des choix naturels.

Red Hat a embauché une bibliothécaire, Anna McHugh, pour se joindre à l'équipe. Jared et Leigh l'appellent la rock star du projet. «Elle voit tous les atouts marketing», dit Leigh. «Elle sait ce qui est disponible et elle fait un travail remarquable en analysant ces actifs.»

Jared ajoute: «Je pourrais écrire un roman sur le rôle d'Anna. Elle est devenue conservatrice en plus d'une bibliothécaire. Et un analyste. Elle fait TOUTES les choses.

CONTENU ASSOCIÉ CHOISI À LA MAIN: Pourquoi les spécialistes du marketing de contenu ont besoin de bibliothécaires numériques

2. Standardisez vos types de contenu

L'équipe Red Hat a lancé l'initiative en 2012 en standardisant ses types de contenu - livres blancs, fiches techniques, infographies, etc. - dans l'ensemble de l'organisation marketing. Il souhaitait que toutes les unités commerciales aient une compréhension commune de chaque type de contenu produit par l'entreprise.

Pour accomplir ce travail de gouvernance fondamentale, Red Hat a invité un représentant de chaque équipe marketing à participer à une équipe centrale qui a développé des normes pour les types de contenu sur lesquels ils travaillaient.

Si vous abordez la notation de contenu comme une équipe interfonctionnelle, comme l'a fait Red Hat, vous devez standardiser les types de contenu dans tous les services. Si, en revanche, vous êtes un seul groupe de contenu développant une méthode de notation, vous n'avez pas besoin de rassembler des représentants des autres groupes, mais vous devez quand même standardiser les types de contenu de votre groupe.

Si vous approchez le #content scoring comme une équipe interfonctionnelle, standardisez les types de contenu. @marciarjohnston Cliquez pour tweeter

3. Auditez votre contenu

Ensuite, l'équipe Red Hat a nettoyé sa maison avec un audit de contenu. Sa bibliothèque de ressources - un référentiel de contenu externe sur redhat.com - était passée à plus de 1700 actifs. Leigh, Jared et Anna ne savaient pas lesquels étaient obsolètes ou non pertinents, mais ils savaient qu'ils avaient beaucoup de ménage à faire. «C'était comme avoir un espace plein de poussière», dit Leigh, «provoquant une infection des sinus et le départ des visiteurs, sans jamais vouloir revenir.

Ils ont dû trouver un moyen d'identifier - et obtenir l'approbation de supprimer - les actifs de contenu poussiéreux appartenant à plusieurs groupes qui investissaient du temps et de l'argent dans ces actifs. Ils ont trouvé 419 éléments de contenu datant de plus de 18 mois, répertorié ces éléments sur une feuille partagée, identifié les propriétaires et leur ont demandé de décider quels éléments devaient rester disponibles.

Étant donné que l'équipe ne pouvait pas s'attendre à ce que les propriétaires de contenu parcourent tous ces actifs en même temps, ils ont effectué un audit continu sur plusieurs mois, en examinant 25 actifs par semaine. Chaque semaine, ils ont envoyé un e-mail aux propriétaires de contenu de chaque pièce, leur donnant une semaine pour justifier toute pièce à conserver dans la bibliothèque de ressources. Leigh explique:

Nous ne voulions pas un simple keep-it-in-there ou non. Nous voulions comprendre pourquoi ils voulaient le laisser là-dedans. A-t-il été utilisé dans une campagne de promotion ou une promotion? Si tel est le cas, nous pourrions parfois proposer une alternative.

Finalement, en éliminant le ROT (contenu redondant, obsolète et trivial), ils ont réduit les 1700 actifs et plus à 1200.

4. Développer une méthode de notation du contenu

Après avoir nettoyé la boutique, l'équipe Red Hat s'est concentrée sur l'analyse des 1 200 actifs de contenu restants. Jared a créé une méthode d'évaluation du contenu à appliquer à tous les types de contenu et groupes de contenu.

Étant donné que tous les groupes marketing utilisaient la même plate-forme d'analyse Web, Jared a utilisé cet outil pour savoir ce qui était important pour eux. Ses résultats ont montré ces mesures importantes par type de contenu:

  • Blogs - temps passé sur une page ou pourcentage de page défilée
  • Vidéos - fois que les gens appuient sur lecture ou pourcentage de la vidéo visionnée
  • PDF - nombre de téléchargements

En d'autres termes, selon le groupe ou le type de contenu, les gens avaient différentes façons de déterminer: «Nous gagnons. Nous faisons notre travail. » Il appartenait à Jared de concevoir une méthode universelle de notation des performances du contenu. Il fallait que tout le monde parle la même langue.

Cette lingua franca des nombres devait fonctionner pour les personnes qui aiment les aspects geek de l'analytique ainsi que pour ceux qui préfèrent un anglais simple: ce contenu a-t-il fonctionné ou non? At-il fait ce que nous voulions qu'il fasse?

Jared a mis au point une méthode de notation qui attribue à chaque élément de contenu un score global compris entre 0 et 100. Ce nombre est dérivé de quatre sous-scores - Volume, Complet, Trajectoire et Récence - chacun étant un nombre compris entre 0 et 100. Le score global comprend un facteur de pondération, qui tient compte de l'importance relative de chaque sous-score pour un actif donné.

CONTENU ASSOCIÉ À LA MAIN: 4 rapports Google Analytics que chaque spécialiste du marketing de contenu devrait utiliser

Le volume

Le sous-score Volume est une mesure relative du trafic. «Ce nombre est relatif à tous les autres supports de notre bibliothèque de ressources. Ce n'est pas spécifique à un type de contenu particulier », dit Jared.

Le sous-score Volume parle de la conscience. C'est un classement. Il montre combien de personnes ont vu un actif donné par rapport aux vues d'autres actifs sur le site.

Exemple: si une page Web Red Hat, qui contient un livre blanc téléchargeable, reçoit plus de trafic que 60% des autres pages Web Red Hat avec des ressources téléchargeables, cette page Web obtient un sous-score Volume de 60 sur 100.

Achevée

Le sous-score Complet est le pourcentage de visiteurs qui téléchargent un élément.

Exemple: si 40 visiteurs sur 90 téléchargent le livre blanc sur une page donnée, c'est un taux de téléchargement de 44%. Le sous-score complet de cette page est 44 sur 100.

Trajectoire

Le sous-score Trajectory reflète une tendance.

Exemple: au cours du premier mois, une page Web compte 900 visiteurs. Deuxième mois, 600 visiteurs. Troisième mois, 300 visiteurs. Le trafic vers cette page est en baisse. Chez Red Hat, cette pente négative équivaut à un sous-score Trajectory de 0.

Si les visites avaient augmenté au cours de ces trois mois, le sous-score Trajectoire refléterait une pente positive. Plus la pente est élevée, plus le sous-score Trajectoire est élevé.

Par exemple, un élément a eu 10 visites au cours de la première semaine, 20 la deuxième semaine et 30 la troisième semaine. La pente (montée sur course) de cet actif serait de 30 divisé par trois, ce qui équivaut à 10. Voici comment ce calcul se décompose:

augmentation de 30 (10 la première semaine + augmentation de 10 la deuxième semaine + augmentation de 10 la troisième semaine)

sur (divisé par)

série de trois (nombre de semaines)

Déterminez l'échelle de trajectoire en fonction de ce que vous espérez tirer de l'analyse et de ce qui est le plus utile à votre organisation, explique Jared. Chaque entreprise définit différemment une forte pente. Par exemple, si vous considérez qu'une pente de 10, comme indiqué ci-dessus, est forte - en interprétant que cet élément reçoit en moyenne 10 visiteurs supplémentaires par semaine - vous pouvez lui attribuer 100 points sur votre échelle de trajectoire. Vous pouvez déterminer arbitrairement votre échelle de points de pente (toute pente supérieure à X obtient des points Y) ou vous pouvez évaluer la pente moyenne de tous les actifs et baser votre échelle sur cette distribution.

L'équipe Red Hat comprend qu'une valeur aberrante peut affecter la pente. Il pourrait avoir zéro vue un mois, zéro vue le deuxième mois, puis deux vues dans le troisième (la valeur aberrante). La trajectoire monte. Bien que ce soit un signe positif, cela n'indique pas nécessairement un trafic stable. Les valeurs aberrantes sont prises en compte dans le sous-score Récence, qui indique si le trafic a été maintenu et stable pendant votre fenêtre d'analyse.

Récence

Le sous-score Récence reconnaît les actifs qui conservent leur valeur. Red Hat fixe un objectif de référence mensuel pour chaque actif. L'actif accumule des points en fonction du nombre de fois où il atteint l'indice de référence:

  • 40 points si atteint le mois le plus récent
  • 30 points si atteint le mois précédent
  • 20 points si rencontré deux mois auparavant
  • 10 points si rencontré trois mois auparavant

Exemple: Red Hat définit un benchmark de 50 téléchargements pour un actif et évalue les métriques le 1er juillet. Les points de récence de l'actif se répartissent comme suit:

  • 0 point pour juin (téléchargé 31 fois)
  • 0 point pour mai (téléchargé 49 fois)
  • 20 points pour avril (téléchargé 51 fois)
  • 10 points pour mars (téléchargé 60 fois)

Le sous-score Récence de l'actif en juillet serait de 30 points (0 + 0 + 20 + 10) sur 100 points.

Comme indiqué sous Trajectoire, un score de Récence tient compte des valeurs aberrantes. Une trajectoire positive (les chiffres grimpent chaque mois) pourrait être associée à un sous-score de Récence faible si les deux premiers mois avaient des chiffres particulièrement bas (moins de trafic ou moins de téléchargements). Le sous-score Recency, dit Jared, «fournit le contrôle intestinal de Trajectory en nous indiquant si cette pente est un hasard en raison d'un trafic extrêmement volatil, ou si cette pente est soutenue par un trafic fort et régulier.»

Un autre exemple serait un actif recevant un trafic à volume élevé au cours des mois un, trois et quatre, mais peu de trafic au deuxième mois. La pente de cet actif pourrait encore être positive dans le calcul global, auquel cas vous ne sauriez jamais que le trafic a chuté au deuxième mois sans creuser plus profondément. Le score de récence indique un mois de faible trafic. «Si cela vous intéressait», dit Jared, «nous saurions que nous devons examiner cet actif immédiatement.»

Pondération

Pour chaque élément de contenu, les quatre sous-scores sont classés différemment en importance et sont pondérés en conséquence. En d'autres termes, la pondération des sous-scores est unique à chaque élément de contenu pour souligner ce que l'équipe apprécie le plus à propos de cet élément. Chaque sous-score se voit attribuer un pourcentage de poids, ce qui permet aux scores globaux standardisés de prendre en compte les variations de priorité. En raison de cette pondération, le score global d'un actif peut être plus utile que celui d'un autre.

Comment fonctionne la pondération? Supposons que pour un contenu donné, Red Hat ne se soucie pas du trafic (sous-score Volume). Il veut que les visiteurs qui arrivent sur un élément téléchargeable disent: «Hé, je veux en savoir plus sur ce sujet. Je vais télécharger ceci. " Dans ce cas, le sous-score Complet est plus important que les autres sous-scores. Red Hat pondère le sous-score complet plus haut que les trois autres, quelque chose comme ceci:

exemple de pondération 1

Sinon, dans le cas d'un élément de contenu de sensibilisation, Red Hat peut se soucier du nombre de personnes qui ont accédé à l'actif (volume) et peut ne pas se soucier de la récence. Les pourcentages de pondération pour cet actif peuvent ressembler à ceci:

exemple de pondération 2

Score global

Pour calculer le score global d'un actif, Red Hat multiplie chaque sous-score par son pourcentage de pondération. Dans cet exemple, le score global de l'élément de contenu est de 45:

pondération-exemple-notation

Le score global n'est ni bon ni mauvais. Il ne prend de sens que par rapport aux scores globaux du reste du contenu - c'est pourquoi le score a été normalisé à l'aide de pourcentages de pondération. Le score global permet à l'équipe de comparer divers types de contenu et de mesures qui seraient autrement difficiles à comparer.

Il n'y a pas d'échelle absolue pour indiquer ce qu'il faut faire d'un score global de 45. Si le reste des éléments de contenu en moyenne 32, un 45 est fantastique. Cela signifie que cette pièce se porte bien. Si les ressources de contenu en moyenne 60, cependant, un score global de 45 invite l'équipe à rechercher pourquoi ce contenu ne fonctionne pas aussi bien que ses pairs.

Leigh dit que cette méthode de notation fait bien plus que répondre à la question: «At-elle bien fonctionné?» Les équipes peuvent regarder les sous-scores et dire: «OK, cette pièce obtient de bons numéros de volume, mais les nombres complets sont terribles. Nos efforts publicitaires dans la campagne sont-ils centrés sur le fait de toucher les bonnes personnes et d'obtenir une tonne de trafic, et aucun d'entre eux ne le veut? Ma page de destination n'est-elle pas efficace? Que se passe t-il ici?"

Une méthode de notation réfléchie peut faire beaucoup plus que répondre: «Est-ce que ça a bien fonctionné?», Dit @leighblaylock. Cliquez pour tweeter

Pièges

Comme toutes les méthodes de notation, celle-ci comporte des pièges. D'une part, un faible score ne signifie pas nécessairement qu'un élément de contenu ne fonctionne pas. La notation est relative. Les gens ont besoin de formation pour interpréter les notes globales. Jared donne cet exemple: "Lorsque vous voyez un score de 0 à 100, vous pensez que 90 et plus est un A, 80 à 90 est un B, 75 est un C. La nôtre n'est pas une méthode de notation alphabétique."

Un autre écueil dont Jared a été témoin est que les gens ne regardent que le score. «Le nombre n'est pas une règle absolue. Il n'est pas destiné à servir de seul point de données pour décider du contenu à retirer. Les scores ne sont pas un bloc de hachage. »

Les scores fournissent simplement un moyen d'estimer les performances de chaque élément de contenu. En fin de compte, les gens doivent considérer ce qui se cache derrière les scores et décider quelles actions ont du sens.

CONTENU ASSOCIÉ À LA MAIN: Comment mesurer les performances pour améliorer votre marketing de contenu

5. Créez une preuve de concept pour votre méthode de notation

La notation du contenu n'est pas un processus rapide et nécessite de nombreuses parties prenantes. Comment amener les gens à consacrer le temps nécessaire à ce processus - à mettre de côté d'autres tâches pour le faire?

Jared et Leigh suggèrent de commencer par une preuve de concept pour montrer à l'équipe quel type de nouvelles informations peuvent être obtenues.

La notation du contenu n'est pas un processus rapide et nécessite de nombreuses parties prenantes, explique @marciarjohnston. Cliquez pour tweeter

Red Hat utilise cette période expérimentale pour recueillir les commentaires de ceux qui participeront au projet. «Lorsque vous appelez quelque chose une preuve de concept, ils sont plus disposés à vous donner des commentaires critiques et utiles que de simplement jeter un coup d'œil dessus et de dire:« Non, cela ne fonctionnera pas ici »», dit Leigh.

La preuve de concept de Red Hat a été conçue comme un bac à sable d'analyse dans un classeur de feuilles de calcul contenant des données provenant d'une API sur leur plate-forme d'analyse Web. Une fois les données extraites du classeur, Jared a créé des fonctions et des calculs pour résumer les données dans un modèle expérimental de notation du contenu. Il a ensuite partagé ces données sous forme de fichiers CSV pour que d'autres les examinent et les commentent.

Une fois que les parties prenantes ont approuvé et examiné le modèle de notation du contenu, l'équipe de contenu a présenté le modèle sous forme de roadshow: ils ont donné des conférences à l'équipe de direction marketing et à quelques équipes marketing pour recueillir des commentaires et encourager l'adoption. À partir de là, après que davantage de spécialistes du marketing aient compris le modèle et son potentiel, les collègues de Red Hat ont commencé à demander des analyses à Jared, Leigh et Anna.

L'équipe a conçu la preuve de concept autour de la question: «Quelle méthodologie nous donnera ce que nous voulons?» Il a fallu beaucoup de sessions de tableau blanc et beaucoup de maths. Une fois qu'ils ont construit (théoriquement) ce qu'ils voulaient, Jared s'est mis à le construire «dans un état actif et actualisable, afin que nous puissions tester et modifier le modèle au fur et à mesure que d'autres y étaient exposés.

L'itération actuelle n'est pas loin de ce classeur de preuve de concept. Red Hat entre dans une phase finale qui comprendra un utilitaire de tableau de bord, actualisé quotidiennement, que tout le monde dans le marketing pourra voir.

Voici les conseils de Jared pour créer une preuve de concept:

Commencez par quelque chose. N'importe quoi. Si vous avez une idée ou une idée générale de ce que vous essayez d'accomplir, construisez ce que vous pouvez avec ce que vous avez. D'autres ont beaucoup plus de facilité à comprendre votre processus et votre objectif s'ils peuvent voir et jouer avec un prototype.

6. Trouvez des passionnés pour promouvoir votre méthode de notation

Après votre preuve de concept et une fois que vous avez une méthode de notation, votre travail ne fait que commencer. Si vous jetez votre méthode là-bas et que vous partez, «elle mourra dans un mois. Personne ne l'utilisera », dit Jared.

Vous devez être un évangéliste. Vous devez croire que d'autres membres de votre organisation pourraient utiliser votre méthode dès maintenant. Soyez prêt à vous approcher des gens et à dire: «Nous avons quelque chose de nouveau avec lequel vous n'êtes probablement pas encore à l'aise; nous pouvons vous y amener.

Et vous ne pouvez pas le faire seul. Trouvez des personnes dans votre organisation qui, lorsqu'elles entendent parler de la méthode de notation, sont enthousiasmées: «Je peux l'utiliser. Cela peut m'aider à démarrer ces conversations qui n'ont pas lieu pour le moment. "

Recherchez des experts en la matière qui comprendront votre méthode de notation et parleront avec enthousiasme aux autres fournisseurs et propriétaires de contenu. Ils argumenteront en fonction de ce qui fonctionne et de ce qui ne fonctionne pas, en disant des choses comme «Je ne dis pas que votre livre blanc ou votre vidéo était terrible ou que c'était fantastique. Je vous dis ce que dit le trafic. »

Il est difficile de discuter avec une personne respectée qui dit: «Voici ce que nous devrions faire avec ce contenu, car c'est ainsi qu'il fonctionne.»

7. Continuez à développer votre méthode de notation

Votre méthode de notation doit évoluer. Recherchez des opportunités pour obtenir de nouvelles informations sur la manière dont les gens interagissent avec votre contenu. Par exemple, Red Hat a beaucoup de données sur le nombre de personnes téléchargeant ses PDF, mais les données s'arrêtent là. Il s'agit de construire une analyse de rentabilisation pour utiliser plus de contenu HTML, comme l'explique Jared:

Avec le contenu HTML, nous pouvons plonger dans l'actif lui-même. Au lieu de dire simplement «Oui, ils l'ont téléchargé», je veux savoir, combien de temps ont-ils passé avec cet actif? Jusqu'où ont-ils défilé? Nous voulons intégrer ce type d'informations dans la partition.

Pensez au type d'informations que vous souhaitez sur votre public et recherchez des moyens par lesquels votre méthode de notation pourrait fournir ces informations.

Réfléchissez au type d'informations que vous souhaitez et recherchez les façons dont votre méthode de notation peut vous aider. @jaredwhitehead Cliquez pour tweeter

8. Vérifiez régulièrement votre contenu

Red Hat audite désormais son contenu tous les trimestres. «Nous ne voulons pas revoir tous nos actifs en même temps», dit Leigh. Chaque trimestre, l'équipe identifie les actifs qui n'ont pas été mis à jour depuis 18 mois et ceux qui se situent dans les 20% inférieurs des scores globaux.

Bien que l'âge et le score du contenu seuls n'indiquent pas à l'équipe quoi archiver, ces informations identifient les actifs à envisager d'archiver. «Il y a de fortes chances que le contenu ne fonctionne pas bien - mais peut-être que c'est le cas», dit Leigh. «Il y a peut-être deux ans, nous avons créé un actif qui était tellement avant-gardiste que les gens commencent tout juste à y accéder et à y accéder.» Pour filtrer des pièces comme ça, l'équipe note également les sous-scores Trajectoire et Récence.

Ils répertorient ensuite tous les candidats à l'archivage dans une feuille partagée, identifient les propriétaires de contenu et donnent à ces propriétaires un mois pour évaluer les actifs pouvant être archivés. «Nous faisons cela maintenant depuis deux trimestres, en examinant environ 65 actifs par trimestre. Je m'attends à ce que ce nombre diminue », dit Leigh.

Elle ajoute: «Aujourd'hui, 100% de nos visiteurs trouvent exactement ce dont ils ont besoin 100% du temps.» OK, peut-être pas, admet-elle, "mais nous avons de meilleures chances de satisfaire notre public."

Conclusion

L'équipe marketing de Red Hat utilise sa méthode de notation depuis un an et a hâte d'en faire plus. «De nombreuses équipes au sein de Red Hat bénéficieront de la connaissance des performances du contenu», déclare Jared. "Cela va bien au-delà de l'équipe de contenu."

Vous avez des questions pour Leigh et Jared? Vous avez vos propres idées à partager? Faites-nous savoir dans un commentaire.

Voici un extrait de la conférence de Leigh et Jared:

Inscrivez-vous à notre bulletin électronique hebdomadaire sur la stratégie de contenu pour les spécialistes du marketing , qui présente des histoires et des idées exclusives du conseiller en chef du contenu de CMI, Robert Rose. Si vous êtes comme beaucoup d'autres spécialistes du marketing que nous rencontrons, vous aurez hâte de lire ses pensées tous les samedis.

Image de couverture par Joseph Kalinowski / Content Marketing Institute