Kilka miesięcy temu, podczas noworocznych podsumowań, niektórzy eksperci wspominali, że już rok 2022 był rokiem Sztucznej Inteligencji w SEO, ponieważ już wtedy temat AI pojawiał się w większości podcastów szkoleniowych i właściwie na każdej poważniejszej konferencji. Publikacje rozważające szanse i zagrożenia niesione przez zaawansowane technologie uczenia maszynowego nie są więc niczym nowym, ale dla przeciętnego użytkownika internetu stanowią źródło niepokojów i wątpliwości. Szczególnie, że niedawno byliśmy świadkami skoku jakości AI przy przejściu z modelu GPT 3.5 na GPT 4, przy czym eksperci zapowiadają „wejście piątki” jeszcze w tym roku. Na co należy zwrócić uwagę analizując ostatnie miesiące rozwoju technologii opartych na sztucznej inteligencji? Czy sytuacja jest naprawdę poważna? A może rewolucja AI okaże się czymś rzeczywiście pozytywnym dla naszej przyszłości? Spróbujmy przedstawić naszą perspektywę, która wynika z wielu lat doświadczeń w branży IT oraz znajomości niektórych rządzących nią mechanizmów. Jak sztuczna inteligencja wpływa na architekturę cyberprzestrzeni, na reguły SEO i na nasze życie? Tym co budzi najwięcej obaw jest oczywiście możliwość zastąpienia człowieka przez maszynę, a w dalszej perspektywie – zakłócenie równowagi rynku pracy, reperkusje ekonomiczne i długofalowe konsekwencje łącznie z kryzysem humanitarnym. Czy faktycznie może do tego dojść? Każdy z nas zetknął się już z jakąś historią, która opowiada
Jak sztuczna inteligencja koliduje z ludzkim interesem?
Przykładem może być relacja pewnego amerykańskiego grafika komputerowego, który chciał umieścić swoje prace na jednym z portali promujących sztukę. Administrator portalu odmówił przyjęcia prac argumentując, że zbyt przypominają dokonania AI. Zażądał od artysty by ten albo zmienił styl, albo popracował nad swoim warsztatem na tyle, by być lepszym od komputera. O ile praca nad warsztatem zawsze jest zasadna, o tyle sugerowanie że pewne harmonie kompozycji są zarezerwowane dla sztucznej inteligencji i człowiek powinien ich unikać, budzi już sprzeciw.
Nie koniec jednak na tym, kolejne przykłady możemy zauważyć nawet na rodzimym rynku pracy, gdzie mniejsze i tańsze firmy IT tną w dobie kryzysu koszty, rezygnując z wielu usług świadczonych do tej pory przez copywriterów. Faktycznie, styl w jakim ChatGPT udziela odpowiedzi nie odbiega zbytnio od tekstów tworzonych przez żywych ludzi. Szczególnie widać to w przypadku treści, w których copywriter niczego nie udowadnia, a jedynie popisuje się swoją erudycją. Jak można się domyślić,
- opisy produktów do sklepów internetowych,
- teksty zapleczowe,
- artykuły pozycjonowane na frazę i wrzucane na portale branżowe,
- linkowanie
powstają szybciej, niż przy zamówieniu u zawodowego kreatora treści.
Z kolei artykuły dla blogosfer na internetowych witrynach, czy opisy stron również można „zamówić u AI” i nawet jeśli nie spełniają do końca oczekiwań, po prostu je zoptymalizować. Ryzyko błędów rzeczowych wydaje się mniejsze, poza tym sztuczna inteligencja nie robi błędów ortograficznych, stylistycznych, ani interpunkcyjnych. Praktyka wygląda więc tak, że zamiast inwestować we współpracę z czterema-pięcioma rzemieślnikami od słowa, wyznacza się z firmie jedną osobę, która wciąż za tę samą pensję będzie zamawiać treści u maszyny, a potem tylko je sprawdzać i korygować. Większość managerów wychodzi przy tym z założenia, że jeśli pracownik optymalizujący teksty otrzymane od AI nie znajdzie w treściach błędów merytorycznych, to przeciętny użytkownik internetu, a więc potencjalny Klient, nie znajdzie ich również. Trzeba tu jednak powiedzieć, iż oprócz tego, że to błędne założenie, taka strategia na dłuższą metę na pewno nie przejdzie, a zadbają o to… algorytmy Google’a. Zacznijmy jednak od początku.
Co to jest sztuczna inteligencja?
Skrót AI pochodzi od słów Artificial Intelligence, tłumaczonych dosłownie jako Sztuczna Inteligencja. Stanowi kryptonim, oznaczający dziedzinę informatyki związaną z tworzeniem systemów zdolnych do realizacji złożonych zadań, wymagających udziału decyzyjności związanej z inteligencją, czyli zdolności do przewidzenia efektów działania, przy abstrakcyjności danych, albo ograniczonej ich ilości, tudzież przy niepełnej liczbie założeń. Zadaniami takimi może być na przykład:
- nauka slangu branżowego,
- rozwiązywanie problemów obwarowanych większą ilością niewiadomych jak w przypadku diagnostyki medycznej, lub automatyzacji upraw rolnych,
- rozpoznawanie mowy,
- zarządzanie ryzykiem.
Temat ten jest znany większości z nas dzięki literaturze science fiction i filmom futurystycznym podejmującym temat technologicznej organizacji przyszłości cywilizacji, a więc nie jest zupełnie nowy. Tak naprawdę pierwsze prace nad działaniem maszyn, pretendującym do miana inteligentnego zostały udokumentowane w połowie ubiegłego wieku. Za najstarszy udany program AI uznaje się algorytm stworzony w 1951 roku przez Christophera Stracheya, znanego szerzej jako jeden z dyrektorów Programming Research Group Uniwersytetu Oksfordzkiego. Z kolei sam kryptonim „AI” po raz pierwszy został użyty na konferencji w Dartmouth College, zorganizowanej przez Marvina Minsky’ego, Nathaniela Rochestera, Claude’a Shannona i Johna McCarthy’ego w 1956 roku. Kilka lat później liczba projektów naukowych związanych ze sztuczną inteligencją znacznie wzrosła, angażując naukowców z wielu dziedzin, nie tylko informatyki.
Równolegle, temat zaczął być eksplorowany przez kulturę, czemu zawdzięczamy wizje przejęcia kontroli nad światem przez roboty, w tym klasykę kina katastroficznego, czyli obraz „Terminator” z pierwszej połowy lat 80-tych. Na zapoczątkowanej przez ten film serii wychowało się już kilka pokoleń. Potomkowie tych pokoleń deklarują współcześnie w badaniach statystycznych, że
- boją się sztucznej inteligencji (34 procent),
- uważają że będzie ona szkodliwa dla społeczeństwa (24 procent),
- martwią się w jaki sposób ich dane są wykorzystywane przez firmy big-tech (64 procent).
Warto jednak pamiętać, że ostatni ze wspomnianych lęków – ten dotyczący danych – nie jest dziełem AI, tylko nie do końca jawnych działań platform społecznościowych, które lubią się zasłaniać niedostatecznym dopracowaniem swoich algorytmów.
Wykazywana przez potentatów internetu chęć kontroli przepływu informacji, czyli niezbyt uregulowana pod względem prawnym kontrola nad użytkownikiem danego systemu, powierzana algorytmom, budzi obawy związane z etyką i moralnością. Z jednej strony w korporacjach rozwijających technologie AI powstają działy odpowiedzialne za etykę przedsięwzięć (przykładem może być google’owe Ethical AI). Trwają też prace nad regulacjami prawnymi sankcjonującymi użycie sztucznej inteligencji. Z drugiej jednak strony regularnie widać jak algorytmy ruchu internetowego naruszają prawo międzynarodowe, albo ingerują w sytuację polityczną państw, wpływając na zachowanie użytkowników przy okazji wyborów parlamentarnych i prezydenckich. Wróćmy jednak do tematu szans i zagrożeń oraz wpływu technologii na życie codzienne.
Copywriter kontra AI-Writer
Rozwój technologiczny zmienia styl pracy. Na giełdach zleceń copywriterskich pojawili się już AI-writerzy, którzy oferują teksty napisane przez sztuczną inteligencję, twierdząc że dogadują się z nią lepiej od przeciętnych użytkowników i wiedzą jakie zadawać pytania, by dostać tekst bardziej wartościowy niż ten, który dostanie zwykły laik. Czy to oznacza koniec copywritingu takiego jaki znamy?
Otóż nie. Specjaliści od SEO wskazują, że na dłuższą metę AI-writing zakrawa na oszustwo. Przede wszystkim dlatego, że część AI-writerów oferuje wyłącznie… swoje pośrednictwo między AI a gotowym do zapłacenia za treści Klientem, a więc bez merytorycznego sprawdzenia uzyskanych treści. Druga sprawa – sztuczna inteligencja niczego nie tworzy. Efekty jej działania nie są kreacją, a odtwórstwem.
W konsekwencji może dojść do sytuacji, w której w dziesięciu polskich miastach, dziesięciu stolarzy zamawia u AI-writerów treści na swoje strony internetowe. Ponieważ cała dziesiątka rzemieślników działa według branżowych standardów, zamawiają treści według identycznych założeń. W efekcie, na dziesięciu internetowych witrynach pojawiają się identyczne treści. Roboty indeksujące, które zbierają informacje o stronach na potrzeby wyszukiwarek odnotowują dziesięć plagiatów. To oczywiście mocno przejaskrawiony opis, ale pokazuje że obecność sztucznej inteligencji na rynku treści jest sytuacją, którą potentaci ruchu internetowego przewidzieli już dawno, ponieważ pracowali z AI zanim jeszcze ktokolwiek wpadł na pomysł, by zastąpić nią copywritera.
AI na tle reguł internetu
Osoby początkujące w SEO, czyli ci którzy w dziedzinie pozycjonowania stron internetowych stawiają pierwsze kroki, na ogół zadają zawsze jedno charakterystyczne pytanie. Mianowicie, czy nie dałoby się na marginesach danej strony internetowej powypisywać po prostu fraz pozycjonujących tak, by widziała je tylko wyszukiwarka, a użytkownik już nie, na przykład białą czcionką, na białym tle. Odpowiedź wszyscy znamy: technicznie by się dało, ale algorytmy Google’a są na tyle mądre, że rozpoznają taki zabieg, a jego odkrycie skutkuje punktami karnymi, czyli efektem diametralnie odwrotnym od tego, jaki miałoby przynieść takie SEO.
W założeniu fraza pozycjonująca nie ma być wstawiana na stronę wyłącznie „na wabia” dla algorytmów wyszukiwarek, ale ma być częścią treści czyniących daną witrynę unikalną. Zgodnie z założeniami regulacji ruchu internetowego, treści na stronach internetowych obsługiwanych przez najważniejsze dla rynku wyszukiwarki mają być
- wartościowe,
- rzetelne,
- unikalne,
a dopiero w nich mają być zagnieżdżane frazy pozycjonujące. Powiedzmy sobie szczerze: treści pozszywane z tekstów wyprodukowanych przez AI wcale takie nie są i jeszcze długo nie będą.
Oprócz tego trzeba zwrócić uwagę na to, że do narzędzi jakimi dysponujemy, by ustrzec się przed plagiatami, doszły niedawno programy umożliwiające stwierdzenie, czy dany tekst został napisany przez człowieka, czy przez sztuczną inteligencję – między innymi znają one schematy, na podstawie których AI generuje treści. Skoro nimi dysponujemy, to znaczy że przeglądarki wykorzystują je już od dawna. Co to oznacza?
Że opis dla strony warsztatu stolarskiego można zamówić u AI-writera, ale taka strona nie przebije się w rankingach SERP i wątpliwe, by AI-writer ostrzegał przed tym swoich Klientów. Natomiast w przypadku zamówień wypozycjonowania takiej strony opisanej tekstami zamówionymi u sztucznej inteligencji treści trzeba będzie stworzyć na nowo (i po nowych kosztach) ponieważ te rozpoznane jako „sztuczne”, mogą zostać potraktowane dokładnie tak, jak SEO frazami wypisanymi na marginesach witryny białą czcionką na białym tle, czyli próba oszustwa.
Nieco inną odmianą AI-writera są oferenci uzyskiwania treści od AI i przeredagowywania ich, jednak jak to bywa w przypadku ludzi, którzy chcieliby zarobić więcej ale mniejszym kosztem, proponowana przez nich stawka przekracza na ogół tę, za którą przeciętny copywriter oferuje treści unikalne i stworzone od podstaw. Skoro jednak dotknęliśmy tematu rozpoznawania AI przez algorytmy wyszukiwarek, popatrzmy do czego wykorzystuje ją Google.
AI na smyczy Google’a
Na sztucznej inteligencji opiera się działanie asystenta głosowego Google’a. To dzięki AI
- asystent wypowiada poszczególne słowa bez konieczności wcześniejszego ich nagrywania,
- Mapy Google są w stanie ocenić szanse jak najszybszego dojazdu do danej lokalizacji oraz ograniczyć emisję dwutlenku węgla biorąc pod uwagę natężenie ruchu na danej trasie i kąt nachylenia drogi.
Nieco bardziej doniosłym dziełem współpracy Google’a z AI są działające w Grecji i Nowej Zelandii systemy ostrzegania przed trzęsieniami ziemi. Sztuczna Inteligencja analizuje odczyty fal sejsmicznych i powiadamia obszary zagrożone.
Wszystko to pokazuje, że trend wykorzystywania technologii uczenia maszynowego nie będzie się w najbliższych latach zmniejszać. Zamiast więc liczyć na spadek znaczenia AI dla rynku i życia codziennego, lepiej będzie się zastanowić jak ją wykorzystać w biznesie zwiększając komfort swoich Klientów i jednocześnie chroniąc rynek.
Google takie analizy ma już za sobą:
- w 2015 roku potentat sieciowy wprowadził na scenę RankBrain, czyli algorytm pozwalający wyszukiwarce „zrozumieć” powiązanie słów z konkretnymi pojęciami, co pozwala reagować na bardziej skomplikowane zapytania użytkowników. W chwili wprowadzenia RankBrain obsługiwał około 15 procent zapytań, a aktualnie jest stosowany we wszystkich językach i we wszystkich regionach świata. Jego znaczenie polega między innymi na tym, że mając wpływ na ranking wyszukiwań, stanowi bodziec do dostosowywania treści na stronach do intencji użytkowników.
- Z kolei w 2018 roku na arenie internetowej pojawił się kolejny projekt Google’a oparty na AI, czyli dopasowanie neuronowe. Jest ono częścią algorytmu rankingowego wyszukiwarek i pomaga w uszeregowaniu wyników. Szacuje się, że analizy dopasowania neuronowego uczestniczą współcześnie w większości zapytań we wszystkich językach.
- Zastosowanie AI oczywiście nie kończy się na tym – do kompletu algorytmów dochodzi też BERT, „rozumiejący” w jaki sposób kombinacje słów dają różne znaczenia oraz MUM obsługujący zrozumienie przez systemy Google’a nowych terminów językowych.
Co ważne, wszystkie wymienione projekty powstały osobno, ale dziś współpracują ze sobą pomagając w zrozumieniu i uszeregowaniu tych samych zapytań. Z zapytaniami zaś łączy się to, czego pragną nasi Klienci, czyli pozycjonowanie pozytywne dla ich biznesu.
Kwestie SEO
Wykorzystywanie treści zakrawających na spam, a przy tym pozbawionych dodatkowej wartości jest niezgodne z zasadami Google’a. Ponieważ AI nie jest nieograniczonym źródłem wiedzy, teksty wygenerowane przez projekty oparte na sztucznej inteligencji potrzebują ingerencji człowieka, by zasłużyć w oczach algorytmów indeksujących na miano oryginalnych i wartościowych. Treści generowane przez AI są rozpoznawalne, w przyszłości proces rozpoznania będzie jeszcze dokładniejszy. Klienci, którzy dziś płacą za teksty pozyskane od sztucznej inteligencji, w przyszłości zapłacą za ich optymalizację – na początek spadkiem strony w rankingach. Być może o groźbie spadku – co zakrawa na ironię losu – zostaną zawczasu poinformowani przez oparty na AI program zdolny przewidzieć wynik analizy SEO dokonywanej przez systemy wyszukiwarek.
Z kolei udział sztucznej inteligencji w SEO poprawi spójność i stabilność rankingów SERP, chociażby dlatego że dzięki AI
- wyszukiwarki będą mogły identyfikować linki o niskiej jakości i treści spamerskie, zaś tak określone dane wpłyną na widoczność stron, do których takie linki prowadzą.
- Rekomendacje treści staną się dokładniej dopasowane do zainteresowań użytkowników i ich indywidualnych potrzeb, w rezultacie określanie i segmentowanie grup docelowych stanie się dokładniejsze.
AI pozwoli również na analizę wydajności stron internetowych pod względem konwersji na urządzeniach mobilnych. Zachowania użytkowników i trendy w reakcjach na treści będą dla sztucznej inteligencji wskazówkami identyfikacji problemów z witrynami i podstawą sugestii, co można zmienić, a wszystko uszeregowane według priorytetów. Jak można przewidzieć, wszystko to podniesie istotność tworzenia unikalnych treści przez człowieka.
Według innych przewidywań, ewolucja projektów związanych z AI uczyni z internetu środowisko znacznie przyjaźniejsze dla użytkowników, miedzy innymi dzięki zdolnościom automatycznego raportowania i automatycznych, inteligentnych alertów. Kompleksowy audyt SEO, czy nadzór zmian wartości strony internetowej pod względem pozycjonowania staną się znacznie łatwiejsze i będą przebiegać szybciej niż dotychczas. Diametralnie zmieni się sytuacja z identyfikacją linków słabej jakości, a oprócz tego będzie można lepiej zrozumieć intencje użytkowników i dokładniej dopasować witryny internetowe do ich potrzeb, między innymi dzięki szybkiej analizie danych demograficznych i historii wyszukiwań. Jak widać, awantury z AI wynikają z perspektywy spojrzenia na zdobycze technologii oraz z niewiedzy na temat zabezpieczeń przed nadużyciami. Jeśli chodzi o resztę, możemy mówić o nadchodzącej rewolucji.