Szczegółowy proces oceniania treści
Opublikowany: 2020-12-22Pomyśl o treści opublikowanej niedawno przez Twój zespół. Jak oceniasz to w skali od 0 do 100? A jak Twoja ocena pomogłaby Twojej firmie?
Zaskoczony? Rozważ metodę, którą opracował Jared Whitehead do oceniania wydajności treści.
Jared pracuje jako analityk w grupie działań marketingowych w firmie Red Hat. Po 10 latach rozwoju i przejęć firma technologiczna B2B znalazła się w „ciągłym chaosie” ze swoim podejściem do treści.
Leigh Blaylock, który zarządza globalną grupą ds. Strategii treści w Red Hat i współpracował z Jaredem, zauważa, że firma „miała tak wiele przejęć, tak wiele produktów, tak wiele zespołów marketingowych”, że nikt nie wiedział, jaka treść ma znaczenie, a której należy odmówić.
W zeszłym roku Jared, Leigh i ich koledzy postanowili przejąć kontrolę nad zawartością Red Hata. Chcieli dowiedzieć się, jakie treści mają, co chcieli zachować, co było, a czego nie występowało, a nawet co znaczyło „występowanie”.
Oto jak to zrobili:
- Zbudowano zespół oceniający zawartość
- Standaryzowane typy treści
- Sprawdzono zawartość
- Opracował metodę punktacji treści
- Stworzono dowód słuszności koncepcji
A oto, co nadal robią:
- Znajdź entuzjastów, którzy będą promować ich metodę punktacji
- Rozwiń metodę oceniania treści
- Regularnie kontroluj zawartość
Nowa metoda oceny zawartości firmy Red Hat udowadnia swoją wartość biznesową, zapewniając zespołom treści spójny sposób oceny wydajności poszczególnych elementów treści, tak aby każdy wiedział, jakiej treści powiedzieć nie lub tak .
Punktacja treści zapewnia zespołom spójny sposób oceny wyników #content, mówi @marciarjohnston. Kliknij, aby tweetowaćLeigh i Jared podzielili się tą inicjatywą podczas prezentacji Content Scoring w Red Hat: Building and Applying a Repeatable Performance Model na konferencji Intelligent Content Conference.
1. Zbuduj zespół oceniający treść
Jared opisuje dwie szkoły myślenia na temat tworzenia karty wyników treści:
- Grupa treści opracowuje metodę punktacji, którą stosują inni.
- Grupa międzywydziałowa opracowuje metodę punktacji, która działa dla wszystkich.
Każde podejście może działać. Wybierz, co ma sens dla ludzi i treści w Twojej sytuacji. Tak czy inaczej, wybierz osoby, które mają uczestniczyć w metodologii oceny wydajności, które mają pełny obraz treści i mają wyczucie systemów używanych do tworzenia, oznaczania, dystrybucji i zarządzania tą zawartością.
Wybieraj osoby, aby tworzyć oceny wyników, które mają pełny obraz treści lub osób. @jaredwhitehead Kliknij, aby tweetowaćDla firmy Red Hat oznaczało to, że Jared zaangażował zespół ds. Treści marketingowych, który ma duży obraz zasobów marketingowych firmy i systemów treści, od marki, przez marketing produktów, po marketing korporacyjny. Członkowie zespołu mogliby powiedzieć: „To jest nasz CMS, to jest nasza taksonomia. W ten sposób doszlibyśmy do treści, aby ją przeanalizować. Oto dostępne dla nas narzędzia. W ten sposób możemy ich użyć, aby uzyskać to, czego szukamy ”.
Kiedy masz ludzi, którzy rozumieją treść do oceny i systemy obsługujące te treści, masz lepsze wyczucie innych umiejętności potrzebnych w zespole. W pewnych sprawach możesz zatrudnić pomoc; w innych przypadkach pracownicy mogą być naturalnymi wyborami.
Red Hat zatrudnił bibliotekarkę Annę McHugh, aby dołączyła do zespołu. Jared i Leigh nazywają ją gwiazdą rocka projektu. „Widzi wszystkie zasoby marketingowe” - mówi Leigh. „Wie, co jest dostępne, i wykonuje niesamowitą pracę, analizując te aktywa”.
Jared dodaje: „Mógłbym napisać powieść o roli Anny. Została kustoszem obok bibliotekarza. I analityk. Robi WSZYSTKIE rzeczy. ”
2. Standaryzuj typy treści
Zespół Red Hat rozpoczął inicjatywę w 2012 r. Od ujednolicenia rodzajów treści - białych ksiąg, arkuszy danych, infografik itp. - w całej organizacji marketingowej. Chciała, aby wszystkie jednostki biznesowe miały wspólne rozumienie każdego rodzaju treści, które produkuje firma.
Aby wykonać tę fundamentalną pracę w zakresie zarządzania, firma Red Hat zaprosiła przedstawiciela każdego zespołu marketingowego do udziału w podstawowym zespole, który opracował standardy dla typów treści, nad którymi pracowali.
Jeśli podchodzisz do oceniania treści jako zespół wielozadaniowy, tak jak zrobił to Red Hat, musisz ustandaryzować typy treści w różnych działach. Jeśli z drugiej strony jesteś pojedynczą grupą treści opracowującą metodę punktacji, nie musisz gromadzić przedstawicieli z innych grup, ale nadal musisz ustandaryzować typy treści w swojej grupie.
Jeśli podchodzisz do #content scoring jako zespół wielozadaniowy, ustandaryzuj typy treści. @marciarjohnston Kliknij, aby tweetować3. Przeprowadź audyt swoich treści
Następnie zespół Red Hat wyczyścił swój dom, przeprowadzając audyt treści. Biblioteka zasobów - zewnętrzne repozytorium treści na redhat.com - rozrosła się do ponad 1700 zasobów. Leigh, Jared i Anna nie wiedzieli, które z nich są nieaktualne lub nieistotne, ale wiedzieli, że mają dużo do wyczyszczenia. „To było jak przestrzeń pełna kurzu” - mówi Leigh - „powodując, że odwiedzający dostają infekcji zatok i wychodzą, nie chcąc nigdy wracać”.
Musieli znaleźć sposób na zidentyfikowanie - i uzyskanie zgody na usunięcie - zakurzonych zasobów należących do wielu grup, które zainwestowały czas i pieniądze w te zasoby. Znaleźli 419 zasobów treści starszych niż 18 miesięcy, wymienili te zasoby na wspólnym arkuszu, zidentyfikowali właścicieli i poprosili ich, aby zdecydowali, które zasoby muszą pozostać dostępne.
Ponieważ zespół nie mógł oczekiwać, że właściciele treści przejdą przez wszystkie te zasoby naraz, przeprowadził audyt kroczący przez kilka miesięcy, sprawdzając 25 zasobów tygodniowo. Co tydzień wysyłali e-mail do właścicieli treści każdego utworu, dając im tydzień na uzasadnienie, że każdy element pozostaje w bibliotece zasobów. Leigh wyjaśnia:
Nie chcieliśmy prostego trzymania go w środku lub nie. Chcieliśmy zrozumieć, dlaczego chcieli go tam zostawić. Czy był używany w kampanii pielęgnacyjnej lub promocji? Jeśli tak, możemy czasami zaproponować alternatywę.
Ostatecznie, usuwając ROT (nadmiarową, przestarzałą, trywialną zawartość), zredukowali ponad 1700 zasobów do 1200.
4. Opracuj metodę punktacji treści
Po oczyszczeniu sklepu zespół Red Hat zajął się analizą pozostałych 1200 zasobów treści. Jared stworzył metodę oceniania treści, którą można zastosować we wszystkich typach treści i grupach treści.
Ponieważ wszystkie grupy marketingowe korzystały z tej samej platformy analityki internetowej, Jared użył tego narzędzia, aby dowiedzieć się, co jest dla nich ważne. Jego ustalenia pokazały te ważne wskaźniki według typu treści:
- Blogi - czas spędzony na stronie lub procent przewinięcia strony
- Filmy - liczba naciśnięć przycisku odtwarzania lub procent obejrzanego filmu
- Pliki PDF - liczba pobrań
Innymi słowy, w zależności od grupy lub typu treści, ludzie mieli różne sposoby na określenie: „Wygrywamy. Wykonujemy naszą pracę ”. Do Jareda należało opracowanie uniwersalnego sposobu oceniania wydajności treści. Musiał sprawić, by wszyscy mówili tym samym językiem.
To lingua franca liczb musiało zadziałać zarówno dla osób, które kochają geekowe aspekty analityki, jak i dla tych, którzy wolą prosty angielski: czy ta treść zadziałała, czy nie? Czy zrobiło to, czego chcieliśmy?
Jared opracował metodę punktacji, która daje każdemu zasobowi treści ogólną ocenę od 0 do 100. Ta liczba pochodzi z czterech wyników cząstkowych - Tom, Complete, Trajectory i Recency - z których każdy jest liczbą od 0 do 100. Ogólny wynik obejmuje współczynnik wagowy, który uwzględnia względne znaczenie każdego wyniku cząstkowego dla danego zasobu.
Tom
Wynik podrzędny wolumenu jest względną miarą ruchu. „Ta liczba jest odniesiona do wszystkich innych zabezpieczeń w naszej bibliotece zasobów. Nie jest to specyficzne dla konkretnego typu treści ”- mówi Jared.
Wynik cząstkowy wolumenu mówi o świadomości. To ranking. Pokazuje, ile osób widziało dany zasób w porównaniu z widokami innych zasobów w witrynie.
Przykład: Jeśli strona internetowa firmy Red Hat, która zawiera białą księgę do pobrania, odbiera ruch większy niż 60% innych stron internetowych Red Hat z zasobami do pobrania, ta strona internetowa uzyskuje wynik cząstkowy wolumenu równy 60 na 100.
Kompletny
Wynik podrzędny Complete to odsetek użytkowników, którzy pobrali zasób.
Przykład: jeśli 40 z 90 odwiedzających pobiera białą księgę na daną stronę, to wskaźnik pobierania wynosi 44%. Całkowity wynik podrzędny tej strony wynosi 44 na 100.
Trajektoria
Wynik cząstkowy Trajektorii odzwierciedla trend.
Przykład: w pierwszym miesiącu stronę internetową odwiedziło 900 osób. Drugi miesiąc 600 odwiedzających. Trzeci miesiąc 300 odwiedzających. Ruch na tej stronie spada. W Red Hat to ujemne nachylenie równa się podskali Trajektorii równej 0.
Gdyby liczba odwiedzin wzrosła w ciągu tych trzech miesięcy, wynik podrzędny Trajektorii odzwierciedlałby dodatnie nachylenie. Im wyższe nachylenie, tym wyższy wynik cząstkowy Trajektorii.
Na przykład zasób miał 10 wizyt w pierwszym tygodniu, 20 w drugim i 30 w trzecim. Nachylenie (wzrost po przebiegu) tego zasobu byłoby równe 30 podzielone przez trzy, co daje 10. Oto jak to obliczenie rozkłada się:
wzrost o 30 (10 w pierwszym tygodniu + wzrost o 10 w drugim tygodniu + wzrost o 10 w trzecim tygodniu)
ponad (podzielone przez)
cykl trzech (liczba tygodni)
Określ skalę trajektorii zgodnie z tym, co masz nadzieję uzyskać z analizy i co jest najbardziej przydatne dla Twojej organizacji, mówi Jared. Każda firma inaczej definiuje silne nachylenie. Na przykład, jeśli uważasz, że nachylenie 10, jak pokazano powyżej, jest silne - interpretując, że ten zasób uzyskuje średnio 10 dodatkowych odwiedzających tygodniowo - możesz przyznać mu 100 punktów w skali trajektorii. Możesz dowolnie określić skalę punktu nachylenia (każde nachylenie większe niż X daje punkty Y) lub możesz ocenić średnie nachylenie wszystkich zasobów i oprzeć swoją skalę na tym rozkładzie.
Zespół Red Hat rozumie, że wartość odstająca może wpływać na nachylenie. Może mieć zero wyświetleń w jednym miesiącu, zero wyświetleń w drugim miesiącu, a następnie dwa widoki w trzecim (wartość odstająca). Trajektoria idzie w górę. Chociaż jest to pozytywny znak, niekoniecznie oznacza stały ruch. Wartości odstające są uwzględniane w podwyniku Czas od poprzedniej wizyty, który wskazuje, czy ruch był utrzymywany i stabilny w okresie analizy.
Niedawność
Wynik podrzędny Recency rozpoznaje aktywa, które zachowują swoją wartość. Firma Red Hat ustala miesięczny cel porównawczy dla każdego zasobu. Zasób gromadzi punkty w zależności od tego, ile razy spełniał benchmark:
- 40 punktów, jeśli osiągnięto je w ostatnim miesiącu
- 30 punktów, jeśli osiągnięto w poprzednim miesiącu
- 20 punktów, jeśli spełnione dwa miesiące wcześniej
- 10 punktów, jeśli spełnione trzy miesiące wcześniej
Przykład: Red Hat wyznacza wzorzec 50 pobrań dla zasobu i ocenia wskaźniki 1 lipca. Punkty czasowe zasobu rozkładają się w następujący sposób:
- 0 punktów za czerwiec (pobrano 31 razy)
- 0 punktów za maj (pobrano 49 razy)
- 20 punktów za kwiecień (pobrano 51 razy)
- 10 punktów za marzec (pobrano 60 razy)
Podwynik tego zasobu w lipcu wyniósłby 30 punktów (0 + 0 + 20 + 10) na 100 punktów.
Jak zauważono w sekcji Trajektoria, wartości odstające uwzględniają wynik od niedawna. Dodatnia trajektoria (liczby rosnące co miesiąc) może łączyć się z niskim wynikiem podrzędnym od niedawna, jeśli pierwsze dwa miesiące miały szczególnie niskie liczby (mniejszy ruch lub mniej pobrań). Jared mówi, że wynik podrzędny Recency „pozwala dokładnie sprawdzić Trajektorię, mówiąc nam, czy to nachylenie jest przypadkiem spowodowane wyjątkowo niestabilnym ruchem, czy też jest ono wspierane przez silny, stały ruch”.
Innym przykładem może być zasób, który generuje duży ruch w pierwszym, trzecim i czwartym miesiącu, ale niewielki w drugim miesiącu. Nachylenie tego zasobu nadal może być dodatnie w ogólnych obliczeniach, w takim przypadku nigdy nie dowiedziałbyś się, że ruch spadł w drugim miesiącu bez głębszego kopania. Wynik Recency wskazuje miesiąc małego ruchu. „Gdyby to było interesujące” - mówi Jared - „wiedzielibyśmy, jak natychmiast przyjrzeć się temu aktywowi”.
Ważenie
Dla każdego zasobu treści cztery wyniki cząstkowe mają różną wagę i są odpowiednio ważone. Innymi słowy, waga podwyników jest unikalna dla każdego zasobu treści, aby podkreślić, co zespół najbardziej ceni w tym zasobie. Każdemu punktowi podrzędnemu przypisuje się wagę procentową, dzięki czemu ustandaryzowane wyniki ogólne mogą uwzględniać zmiany priorytetów. Ze względu na tę wagę ogólny wynik jednego zasobu może być bardziej użyteczny w porównaniu z innym.
Jak działa ważenie? Powiedz, że dla danego fragmentu treści Red Hat nie dba o ruch (wynik podrzędny wolumenu). Chce, aby odwiedzający, którzy dotrą do zasobu do pobrania, powiedzieli: „Hej, chcę wiedzieć na ten temat. Mam zamiar to pobrać ”. W takim przypadku pełny wynik cząstkowy ma większe znaczenie niż inne wyniki cząstkowe. Red Hat waży wynik podrzędny Complete wyżej niż pozostałe trzy, mniej więcej tak:
Alternatywnie, w przypadku treści uświadamiającej, Red Hat może dbać o to, ile osób dotarło do zasobu (tom) i może nie przejmować się ostatnią wizytą. Wartości procentowe ważenia dla tego zasobu mogą wyglądać następująco:
Ogólna ocena
Aby obliczyć ogólny wynik zasobu, firma Red Hat mnoży każdy wynik podrzędny przez jego procent wagowy. W tym przykładzie ogólny wynik zasobu treści to 45:
Ogólny wynik nie jest ani dobry, ani zły. Nabiera znaczenia tylko w porównaniu z ogólnymi wynikami pozostałej części treści - dlatego wynik został znormalizowany za pomocą procentów wagowych. Ogólny wynik umożliwia zespołowi porównanie różnych typów treści i wskaźników, które w innym przypadku byłyby trudne do porównania.
Nie ma skali absolutnej, która wskazywałaby, co zrobić z ogólnym wynikiem 45. Jeśli pozostałe zasoby treści mają średnią 32, 45 jest fantastyczna. To znaczy, że ten kawałek ma się dobrze. Jeśli jednak zasoby treści wynoszą średnio 60, ogólny wynik 45 skłania zespół do zbadania, dlaczego ten element treści nie działa tak dobrze, jak jego odpowiedniki.
Leigh mówi, że ta metoda punktacji daje dużo więcej niż tylko odpowiedź na pytanie „Czy sprawdziła się dobrze?” Zespoły mogą spojrzeć na wyniki cząstkowe i powiedzieć: „OK, ten utwór ma świetne wyniki w tomie, ale wyniki kompletne są okropne. Czy nasze działania reklamowe w kampanii koncentrują się na tym, aby trafić do właściwych osób i uzyskać tony ruchu, a żaden z nich tego nie chce? Czy moja strona docelowa nie jest skuteczna? Co tu się dzieje?"
Przemyślana metoda punktacji może zdziałać o wiele więcej niż odpowiedź: „Czy to się udało?”, Mówi @leighblaylock. Kliknij, aby tweetowaćPułapki
Podobnie jak wszystkie metody punktacji, ta ma pułapki. Po pierwsze, niski wynik niekoniecznie oznacza, że część treści nie działa. Punktacja jest względna. Ludzie potrzebują szkolenia w interpretacji ogólnych wyników. Jared podaje następujący przykład: „Kiedy widzisz wynik od 0 do 100, myślisz, że 90 i więcej to A, 80 do 90 to B, 75 to C. Nasza metoda nie jest metodą literową”.
Kolejną pułapką, której Jared był świadkiem, jest to, że ludzie patrzą tylko na wynik. „Liczba nie jest sztywną regułą. Nie ma służyć jako jedyny punkt danych przy podejmowaniu decyzji, jakie treści wycofać. Wyniki nie są blokiem do krojenia ”.
Wyniki stanowią po prostu jeden ze sposobów szacowania wydajności poszczególnych zasobów treści. Ostatecznie ludzie muszą zastanowić się, co kryje się za wynikami i zdecydować, jakie działania mają sens.
5. Stwórz dowód słuszności swojej metody punktacji
Ocena treści nie jest szybkim procesem i wymaga wielu interesariuszy. Jak sprawić, by ludzie poświęcali potrzebny czas na ten proces - odkładając na to inną pracę?
Jared i Leigh sugerują rozpoczęcie od weryfikacji koncepcji, aby pokazać zespołowi, jakiego rodzaju nowe spostrzeżenia można uzyskać.
Ocena treści nie jest szybkim procesem i wymaga wielu interesariuszy, mówi @marciarjohnston. Kliknij, aby tweetowaćRed Hat wykorzystuje ten okres eksperymentalny do zbierania opinii od osób, które wezmą udział w projekcie. „Kiedy nazywasz coś dowodem słuszności koncepcji, chętniej udzielają krytycznej, pomocnej informacji zwrotnej niż po prostu rzucić okiem na to i powiedzieć:„ Nie, to nie zadziała ”- mówi Leigh.
Proof of concept firmy Red Hat został zbudowany jako piaskownica analityczna w skoroszycie arkuszy kalkulacyjnych z danymi z interfejsu API na platformie analityki internetowej. Po pobraniu danych do skoroszytu Jared zbudował funkcje i obliczenia, aby podsumować dane w eksperymentalnym modelu oceny treści. Następnie udostępnił te dane jako pliki CSV, aby inni mogli je przejrzeć i skomentować.
Gdy interesariusze zatwierdzili i przeanalizowali model oceny treści, zespół ds. Treści przedstawił model w sposób pokazowy: przeprowadzili rozmowy z kierownictwem marketingu i kilkoma zespołami marketingowymi, aby zebrać opinie i zachęcić do przyjęcia. Od tego momentu, gdy więcej osób w marketingu zrozumiało model i jego potencjał, koledzy z Red Hat zaczęli prosić Jareda, Leigha i Annę o analizy.
Zespół opracował dowód słuszności koncepcji wokół pytania „Jaka metodologia da nam to, czego chcemy?” Wymagało to wielu sesji na tablicy i sporo matematyki. Gdy już zbudowali (teoretycznie) to, czego chcieli, Jared przystąpił do budowania tego „w stanie odświeżalnym, aktywnym, abyśmy mogli przetestować i ulepszyć model w miarę, jak inni są na niego narażeni”.
Obecna iteracja nie jest daleka od tego skoroszytu weryfikacji koncepcji. Firma Red Hat wkracza w ostatnią fazę, która będzie zawierała codziennie odświeżany pulpit narzędziowy, który każdy w marketingu będzie mógł zobaczyć.
Oto rada Jareda dotycząca tworzenia dowodu słuszności koncepcji:
Zacznij od czegoś. Byle co. Jeśli masz pomysł lub ogólne przeczucie co do tego, co próbujesz osiągnąć, buduj, co możesz, za pomocą tego, co masz. Inni o wiele łatwiej zrozumieją Twój proces i cel, jeśli mogą zobaczyć prototyp i bawić się nim.
6. Znajdź entuzjastów, którzy będą promować Twoją metodę punktacji
Twoja praca dopiero się zaczęła, po potwierdzeniu koncepcji i metodzie punktacji. Jeśli wyrzucisz swoją metodę i odejdziesz, „umrze w ciągu miesiąca. Nikt go nie użyje ”- mówi Jared.
Musisz być ewangelistą. Musisz wierzyć, że inni w Twojej organizacji mogą teraz użyć Twojej metody. Bądź gotów podejść do ludzi i powiedzieć: „Mamy coś nowego, z czym prawdopodobnie jeszcze nie czujesz się komfortowo; możemy cię tam zabrać.
I nie możesz tego zrobić sam. Znajdź osoby w swojej organizacji, które, słysząc o metodzie punktacji, ekscytują się: „Potrafię to wykorzystać. Może mi to pomóc w rozpoczęciu rozmów, które się teraz nie odbywają ”.
Poszukaj ekspertów merytorycznych, którzy zrozumieją Twoją metodę punktacji i będą entuzjastycznie rozmawiać z innymi dostawcami i właścicielami treści. Będą się kłócić na podstawie tego, co działa, a co nie, mówiąc rzeczy w stylu: „Nie mówię, że twoja biała księga lub wideo były okropne lub fantastyczne. Mówię ci, co mówi ruch uliczny ”.
Trudno dyskutować z szanowaną osobą, która mówi: „Oto, co powinniśmy zrobić z tymi treściami, ponieważ tak to działa”.
7. Kontynuuj rozwijanie metody punktacji
Twoja metoda punktacji musi ewoluować. Poszukaj okazji do uzyskania nowych informacji na temat interakcji ludzi z Twoimi treściami. Na przykład Red Hat ma wiele danych o tym, ile osób pobiera jego pliki PDF, ale dane na tym się kończą. Buduje uzasadnienie biznesowe dla wykorzystania większej ilości treści HTML, jak wyjaśnia Jared:
Dzięki zawartości HTML możemy zagłębić się w sam zasób. W przeciwieństwie do zwykłego powiedzenia „Tak, pobrali go”, chcę wiedzieć, ile czasu spędzili z tym zasobem? Jak daleko się przewinęli? Chcemy wypiekać tego typu informacje w partyturze.
Zastanów się, jakiego rodzaju wglądu w swoich odbiorców chcesz, i poszukaj sposobów, w jakie Twoja metoda punktacji może je dostarczyć.
Zastanów się, jakiego rodzaju spostrzeżeń potrzebujesz i poszukaj sposobów, w jakie może pomóc Twoja metoda punktacji. @jaredwhitehead Kliknij, aby tweetować8. Regularnie kontroluj swoje treści
Red Hat przeprowadza teraz kwartalny audyt zawartości. „Nie chcemy jeszcze raz przeglądać wszystkich naszych aktywów” - mówi Leigh. Co kwartał zespół identyfikuje zasoby, które nie były aktualizowane od 18 miesięcy, oraz te, które osiągają najniższe 20% ogólnej oceny.
Chociaż sam wiek treści i wynik nie mówią zespołowi, co zarchiwizować, informacje te określają, które zasoby należy wziąć pod uwagę przy archiwizacji. „Są szanse, że treść nie działa dobrze - ale może tak jest” - mówi Leigh. „Może dwa lata temu stworzyliśmy zasób, który był tak perspektywiczny, że ludzie dopiero zaczynają do niego nawigować i uzyskiwać do niego dostęp”. Aby odfiltrować takie elementy, zespół odnotowuje również wyniki podrzędne Trajektorii i Czasu od poprzednich odwiedzin.
Następnie wymieniają wszystkich kandydatów do archiwizacji we wspólnym arkuszu, identyfikują właścicieli treści i dają im miesiąc na ocenę, które zasoby można zarchiwizować. „Robiliśmy to już od dwóch kwartałów, patrząc na około 65 aktywów na kwartał. Spodziewam się, że ta liczba spadnie ”- mówi Leigh.
Dodaje: „Teraz 100% naszych odwiedzających znajduje dokładnie to, czego potrzebują przez 100% czasu”. OK, może nie, przyznaje, „ale mamy większe szanse na zadowolenie naszej publiczności”.
Wniosek
Zespół marketingowy Red Hat od roku korzysta z tej metody punktacji i nie może się doczekać, aby zrobić z nią więcej. „Wiele zespołów w firmie Red Hat odniesie korzyści ze znajomości wydajności treści” - mówi Jared. „To znacznie wykracza poza zespół ds. Treści”.
Masz pytania do Leigh i Jareda? Masz własne spostrzeżenia, którymi możesz się podzielić? Daj nam znać w komentarzu.
Oto fragment rozmowy Leigh i Jareda:
Zarejestruj się, aby otrzymywać nasz cotygodniowy e-biuletyn dotyczący strategii treści dla marketerów , który zawiera wyjątkowe historie i spostrzeżenia głównego doradcy ds. Treści CMI, Roberta Rose'a. Jeśli jesteś jak wielu innych sprzedawców, których spotykamy, z niecierpliwością czekasz na przeczytanie jego przemyśleń w każdą sobotę.
Zdjęcie na okładce: Joseph Kalinowski / Content Marketing Institute