Rosnąca popularność oprogramowania wykorzystującego sztuczną inteligencję (AI) rodzi pytania o przyszłość content marketingu. Czy przez ChatGPT albo Rytr czeka nas fala zwolnień w agencjach marketingowych? Czy zaleją nas teksty generowane w mgnieniu oka przez maszyny? W artykule spróbujemy odpowiedzieć na te pytania i zastanowić się, jak najefektywniej wykorzystać narzędzia AI w codziennej pracy.
Czy sztuczna inteligencja jest w pełni inteligenta?
Narzędzia sztucznej inteligencji (ang. artificial intelligence, AI) to oprogramowanie wykazujące cechy podobne do ludzkiego mózgu, czyli umiejące uczyć się, rozumieć i działać w sposób twórczy. Dzięki temu efekt jego pracy nie jest mechaniczną reprodukcją danych źródłowych. W content marketingu zastosowanie AI to przede wszystkim wsparcie w tworzeniu treści i grafik, ale także optymalizacja ich pod względem SEO.
Pomimo wielu podobieństw i wymieniania w mediach obu pojęć jednym tchem, sztuczna inteligencja i inteligencja człowieka to dwa odrębne zagadnienia. A przynajmniej dwa różne stopnie rozwoju. Ta pierwsza dysponuje wielokrotnie większymi zasobami danych i błyskawicznym do nich dostępem. Przewagą drugiej są tysiące lat treningu i stopniowego, ewolucyjnego, a nie skokowego postępu i komplikacji.
— Moim zdaniem to narzędzia przydatne, o ile przykładamy do nich zakorzenione w realiach oczekiwania. Na obecnym poziomie rozwoju dobrze sprawdzają się w generowaniu pomysłów na treści, potem tworzeniu ich konspektów (nawet tych rozbudowanych) i szybkim szukaniu „pierwszego wsadu”. – mówi Michał Grzebyk, PR & Content Marketing Director w ContentHouse.
Narzędzia AI są ciągle na wczesnym etapie rozwoju. Być może, w trudnej do określenia przyszłości, będą zdolne do całkowitego zastąpienia człowieka, natomiast dziś są wciąż typowym narzędziem. Powinniśmy doceniać ich wkład w ułatwienie i przyspieszenie pracy, jednak bądźmy świadomi ograniczeń, związanych przede wszystkim z kreatywnością, uzależnieniem od danych wejściowych oraz użytkownika wprowadzającego dane.
Inny problem dotyczy własności treści wygenerowanych przez sztuczną inteligencję na podstawie już istniejących danych wyjściowych.
— Na ten moment treści znane w internecie jak „deep fake”, muszą być odpowiednio oznaczone, w przeciwnym razie firmy pozwalające na ich publikację czekają wielomilionowe kary. Istnieje duże prawdopodobieństwo, że Europejska ustawa, regulująca wspomniane wcześniej „deep fake”, obejmie również treści generowane przez sztuczną inteligencję, co może skutecznie zahamować nadmierny napływ niechlujnie wygenerowanych artykułów – przynajmniej w obrębie mediów społecznościowych. – zauważa Aleksander Mrowiec, Marketing & Project Manager w WhitePress.
Czy AI jest kreatywne?
Tak, narzędzia AI są kreatywne, ale w ograniczonym stopniu. Widać to szczególnie w content marketingu: sztuczna inteligencja nie umie improwizować. Musi opierać się na danych wejściowych i jest nimi ograniczona. Możemy narzędziu AI wydać polecenie: „Przygotuj plakat do filmu Oppenheimer w stylu Pixar” i wynikiem będzie obraz wspaniale wpisujący się w tę stylistykę. Ale jeśli zażądamy: „Przygotuj plakat do filmu Oppenheimer w stylu zupełnie nowej szkoły plakatu”, to takiego obrazu nie otrzymamy. Możliwe, że narzędzie wygeneruje interesujący obraz, ale będzie on nawiązywał do istniejącego już wcześniej stylu w sztuce.
Pojawia się tu kolejne ograniczenie: popularne narzędzia sztucznej inteligencji nie potrafią powiedzieć: „Nie wiem”. Fora internetowe pełne są zmyślonych odpowiedzi, które powstały w momencie, gdy nie było możliwe udzielenie poprawnej na podstawie danych wejściowych.
— Znaczące problemy pojawiają się przy tworzeniu treści z wąskich zakresów tematycznych, treści, od których oczekujemy więcej – treści eksperckich. Nierzadko narzędzia AI zrealizują zadania znacząco przekraczające jej możliwości, przez co otrzymane wyniki istotnie odbiegają od oczekiwań specjalisty w takim przypadku mamy do czynienia z halucynacjami, czyli błędnymi lub nieprawdziwymi wynikami — aktualnie to jedno z większych wyzwań stojących na linii współpracy człowieka z AI. – konkluduje Jakub Barabasz — SEO Specialist w DevaGroup.
Czy narzędzia sztucznej inteligencji rozumieją kontekst społeczny?
Sztuczna inteligencja nie posiada ani emocji, ani nie potrafi wykazać się empatią. Wykorzystuje wprawdzie mechanizmy NLP (ang. Natural Language Processing), dzięki którym rozumie frazy wypowiedziane w języku naturalnym i potrafi w nim odpowiadać, ale potrzebuje kogoś (człowieka), kto określi styl i formę adekwatne do adresata.
— To inteligencja węglowa, wraz z bogatym doświadczeniem życiowym, umiejętnością odnajdywania kontekstów, a przede wszystkim potencjałem empatii (tak ważnej w czasie tworzenia treści „trafiających do serca”) jest tym cienkim, dokładnym dłutem obrabiającym materię języka. – podkreśla Michał Grzebyk.
Każdy z nas zna z doświadczenia lub opowieści problemy, szczególnie osób wykluczonych cyfrowo, ze zautomatyzowaną obsługą klienta. Chatbot, niezależnie od tego, jak bardzo pomocny stara się być, nie zrozumie problemów człowieka wynikających z odmiennych doświadczeń, wieku czy pochodzenia. Jeżeli narzędzia AI znają jakiś kontekst, to jest to kontekst społeczny na podstawie zastanych źródeł.
— Aktualnie najistotniejszymi barierami w zastąpieniu content managera przez AI to długość context’u, którym operuje dany model oraz występowanie halucynacji. Wymienione problemy generują błędy związane z samopowtarzaniem treści czy długością treści i przekazywaniem nieprawdziwych informacji w treściach dostarczonych od AI. Tak jak w przypadku ograniczeń związanych z contex’tem częściowo z pomocą przychodzą iteracje tak w przypadku halucynacji nie mamy jeszcze niezawodnego rozwiązania. – dodaje Jakub Barabasz.
Z drugiej strony, mechanizmy uczenia maszynowego wykorzystują do „trenowania” treści dostępne w Internecie. A, jak udowadnia Bartłomiej Sieja w „Komputer Świat”, nie ma w pełni reprezentatywnej bazy danych. Mniejszości zawsze będą poszkodowane, a stereotypy będą częściej cytowane niż rzetelna wiedza. To, że narzędzia AI są zasilane i „napędzane” przez ludzi jest z jednej strony szansą na jak najlepsze wsparcie człowieka w pracy i codziennym życiu, ale z drugiej strony stanowi wielkie zagrożenie.
— Modele językowe nadal popełniają błędy, które są łatwo zauważalne dla ludzkiego oka. Ich teksty zawsze posiadają pewne charakterystyczne cechy, które mogą odstraszyć lub zwyczajnie zniechęcić odbiorców. Często zdarza się, że w treściach stworzonych przez sztuczną inteligencję występują kardynalne i niedopuszczalne błędy.
Zawsze będzie potrzebna osoba, która wniesie do wygenerowanej treści ludzki element oraz dokładnie zweryfikuje zawarte w niej informacje, nadając im autentyczność. – stwierdza Aleksander Mrowiec.
Jak najlepiej wykorzystać narzędzia AI?
Wiemy już, że narzędzia sztucznej inteligencji nie są w stanie zastąpić człowieka, ale mogą być przydatne jako wsparcie, szczególnie dla osób wykonujących zawody wymagające kreatywności. Ich największą zaletą jest szybki dostęp do olbrzymich zasobów danych, możliwość ich selekcji oraz kreatywnego zestawiania.
— Odpowiednio skonfigurowane narzędzia pozwalają zaoszczędzić każdego dnia całe godziny, które można przeznaczyć na tak cenne zajęcia, jak myślenie i planowanie. To procesy płodne i cieszące owocami, o ile mają szansę paść na grunt zrelaksowanego umysłu. A nic nie daje głowie tyle relaksu, co poczucie panowania nad czasem. – podsumowuje Michał Grzebyk.
O jakich narzędziach mówimy konkretnie? Wymienić wystarczy te najpopularniejsze: ChatGPT czy Rytr pozwalają na tworzenie propozycji, szkiców treści marketingowych. Z kolei LanguageTool sprawdzi styl i poprawność gramatyczną tekstu. Midjourney i inne edytory grafiki potrafią wygenerować twórcze przykłady obrazów, inspirujące naszą własną kreatywność.
Również w planowaniu i wdrażaniu strategii marketingowych zastosowanie znajdą takie narzędzia AI jak Microsoft Power BI czy Contadu, z których pierwsze umożliwia zaawansowaną analizę danych, a drugie zarządzanie i optymalizację treści.