ChatGPT dla treści i SEO?
Opublikowany: 2022-12-13ChatGPT to chatbot ze sztuczną inteligencją, który może wyznaczać kierunki i wykonywać zadania, takie jak pisanie esejów. Przed podjęciem decyzji o tym, jak wykorzystać go do treści i SEO, należy zrozumieć wiele kwestii.
Jakość treści ChatGPT jest zdumiewająca, więc należy zająć się pomysłem wykorzystania ich do celów SEO.
Odkryjmy.
Dlaczego ChatGPT może robić to, co robi
Krótko mówiąc, ChatGPT to rodzaj uczenia maszynowego zwany modelem dużego uczenia się.
Duży model uczenia się to sztuczna inteligencja, która jest szkolona na ogromnych ilościach danych i może przewidzieć, jakie będzie następne słowo w zdaniu.
Im więcej danych jest szkolonych w zakresie większej liczby zadań, które jest w stanie wykonać (takich jak pisanie artykułów).
Czasami duże modele językowe rozwijają nieoczekiwane zdolności.
Uniwersytet Stanforda pisze o tym, jak wzrost danych szkoleniowych umożliwił GPT-3 tłumaczenie tekstu z angielskiego na francuski, mimo że nie był specjalnie przeszkolony do wykonywania tego zadania.
Duże modele językowe, takie jak GPT-3 (i GPT-3.5, który leży u podstaw ChatGPT), nie są szkolone do wykonywania określonych zadań.
Są szkoleni z szerokim zakresem wiedzy, którą mogą następnie zastosować w innych dziedzinach.
Jest to podobne do tego, jak uczy się człowiek. Na przykład, jeśli człowiek nauczy się podstaw stolarki, może zastosować tę wiedzę do zbudowania stołu, mimo że nigdy nie został specjalnie nauczony, jak to robić.
GPT-3 działa podobnie do ludzkiego mózgu, ponieważ zawiera ogólną wiedzę, którą można zastosować do wielu zadań.
Artykuł Uniwersytetu Stanforda na temat GPT-3 wyjaśnia:
„W przeciwieństwie do silników szachowych, które rozwiązują konkretny problem, ludzie są „ogólnie” inteligentni i mogą nauczyć się wszystkiego, od pisania poezji, przez grę w piłkę nożną, po składanie zeznań podatkowych.
W przeciwieństwie do większości obecnych systemów sztucznej inteligencji, GPT-3 zbliża się do takiej ogólnej inteligencji…
ChatGPT zawiera inny duży model językowy o nazwie InstructGPT, który został przeszkolony w zakresie przyjmowania wskazówek od ludzi i długich odpowiedzi na złożone pytania.
Ta umiejętność podążania za instrukcjami sprawia, że ChatGPT jest w stanie przyjąć instrukcje, aby stworzyć esej na praktycznie każdy temat i zrobić to w dowolny określony sposób.
Może napisać esej w ramach ograniczeń, takich jak liczba słów i włączenie określonych punktów tematycznych.
Sześć rzeczy, które warto wiedzieć o ChatGPT
ChatGPT może pisać eseje na praktycznie każdy temat, ponieważ jest szkolony w zakresie szerokiej gamy tekstów, które są dostępne dla ogółu społeczeństwa.
Istnieją jednak ograniczenia ChatGPT, o których należy wiedzieć przed podjęciem decyzji o użyciu go w projekcie SEO.
Największym ograniczeniem jest to, że ChatGPT nie jest wiarygodny w generowaniu dokładnych informacji. Powodem, dla którego jest niedokładny, jest to, że model przewiduje tylko, jakie słowa powinny wystąpić po poprzednim słowie w zdaniu w akapicie na dany temat. Nie chodzi o dokładność.
To powinno być głównym problemem dla wszystkich zainteresowanych tworzeniem wysokiej jakości treści.
1. Zaprogramowany do unikania określonych rodzajów treści
Na przykład ChatGPT jest specjalnie zaprogramowany, aby nie generować tekstu na tematy przedstawiające przemoc, wulgarny seks i treści szkodliwe, takie jak instrukcje, jak zbudować urządzenie wybuchowe.
2. Nieświadomy bieżących wydarzeń
Kolejnym ograniczeniem jest to, że nie jest świadomy żadnych treści tworzonych po 2021 roku.
Jeśli więc Twoje treści muszą być aktualne i świeże, ChatGPT w obecnej formie może nie być przydatny.
3. Ma wbudowane uprzedzenia
Ważnym ograniczeniem, o którym należy pamiętać, jest to, że jest wyszkolony, aby być pomocnym, prawdomównym i nieszkodliwym.
To nie są tylko ideały, to celowe uprzedzenia wbudowane w maszynę.
Wygląda na to, że programowanie, które jest nieszkodliwe, sprawia, że dane wyjściowe unikają negatywności.
To dobrze, ale jednocześnie subtelnie zmienia artykuł z takiego, który mógłby być idealnie neutralny.
W pewnym sensie trzeba zasiąść za kierownicą i wyraźnie powiedzieć ChatGPT, aby jechał w pożądanym kierunku.
Oto przykład, jak odchylenie zmienia wyjście.
Poprosiłem ChatGPT o napisanie historii w stylu Raymonda Carvera i kolejnej w stylu tajemniczego pisarza Raymonda Chandlera.
Obie historie miały optymistyczne zakończenia, które były nietypowe dla obu pisarzy.
Aby uzyskać wynik zgodny z moimi oczekiwaniami, musiałem udzielić ChatGPT szczegółowych wskazówek, aby uniknąć optymistycznych zakończeń i zakończyć w stylu Carvera, aby uniknąć rozwiązania historii, ponieważ tak często rozgrywały się historie Raymonda Carvera.
Chodzi o to, że ChatGPT ma uprzedzenia i trzeba być świadomym, w jaki sposób mogą one wpłynąć na wynik.
4. ChatGPT wymaga bardzo szczegółowych instrukcji
ChatGPT wymaga szczegółowych instrukcji, aby tworzyć treści o wyższej jakości, które mają większe szanse na bycie wysoce oryginalnymi lub prezentującymi określony punkt widzenia.
Im więcej otrzyma instrukcji, tym bardziej wyrafinowany będzie wynik.
Jest to zarówno siła, jak i ograniczenie, którego należy być świadomym.
Im mniej instrukcji znajduje się w żądaniu treści, tym bardziej prawdopodobne jest, że dane wyjściowe będą współdzielić podobne dane wyjściowe z innym żądaniem.
W ramach testu skopiowałem zapytanie i dane wyjściowe, o których wiele osób pisało na Facebooku.
Kiedy zadałem ChatGPT dokładnie to samo zapytanie, maszyna stworzyła całkowicie oryginalny esej o podobnej strukturze.
Artykuły były różne, ale miały tę samą strukturę i poruszały podobne podtematy, ale w 100% różniły się słowami.
ChatGPT jest zaprojektowany do wybierania całkowicie losowych słów podczas przewidywania, jakie powinno być następne słowo w artykule, więc ma sens, że nie jest to plagiat.
Ale fakt, że podobne prośby generują podobne artykuły, podkreśla ograniczenia prostego pytania „daj mi to. ”

5. Czy można zidentyfikować zawartość ChatGPT?
Naukowcy z Google i innych organizacji od wielu lat pracują nad algorytmami skutecznego wykrywania treści generowanych przez sztuczną inteligencję.
Istnieje wiele artykułów naukowych na ten temat i wspomnę o jednym z marca 2022 r., który wykorzystywał dane wyjściowe z GPT-2 i GPT-3.
Artykuł naukowy nosi tytuł Konfrontacyjna odporność cech neuronowo-statystycznych w wykrywaniu transformatorów generatywnych (PDF).
Naukowcy testowali, jaki rodzaj analizy może wykryć treści generowane przez sztuczną inteligencję, które wykorzystywały algorytmy zaprojektowane w celu uniknięcia wykrycia.
Przetestowali strategie, takie jak używanie algorytmów BERT do zastępowania słów synonimami, kolejna, która dodała między innymi błędy ortograficzne.
Odkryli, że niektóre cechy statystyczne tekstu generowanego przez sztuczną inteligencję, takie jak wyniki Gunning-Fog Index i Flesch Index, były przydatne do przewidywania, czy tekst został wygenerowany komputerowo, nawet jeśli tekst ten wykorzystywał algorytm zaprojektowany w celu uniknięcia wykrycia.
6. Niewidoczny znak wodny
Bardziej interesujące jest to, że badacze OpenAI opracowali kryptograficzne znaki wodne, które pomogą w wykrywaniu treści tworzonych za pomocą produktu OpenAI, takiego jak ChatGPT.
Niedawny artykuł zwrócił uwagę na dyskusję badacza OpenAI, która jest dostępna w filmie zatytułowanym Scott Aaronson Talks AI Safety.
Badacz twierdzi, że etyczne praktyki sztucznej inteligencji, takie jak znak wodny, mogą ewoluować i stać się standardem branżowym w taki sam sposób, w jaki plik Robots.txt stał się standardem etycznego indeksowania.
stwierdził:
„…widzieliśmy przez ostatnie 30 lat, że duże firmy internetowe potrafią uzgodnić pewne minimalne standardy, czy to z obawy przed pozwem, z chęci bycia postrzeganym jako odpowiedzialny gracz, czy z jakiegokolwiek innego powodu.
Prostym przykładem może być robots.txt: jeśli nie chcesz, aby Twoja witryna była indeksowana przez wyszukiwarki, możesz to określić, a główne wyszukiwarki to uszanują.
W podobny sposób można sobie wyobrazić coś w rodzaju znaku wodnego — gdybyśmy byli w stanie to zademonstrować i pokazać, że to działa, jest tanie i nie szkodzi jakości wydruku, nie wymaga dużo mocy obliczeniowej i tak dalej — to stałoby się to po prostu standardem branżowym i każdy, kto chciałby być uważany za odpowiedzialnego gracza, uwzględniłby to”.
Znak wodny opracowany przez badacza opiera się na kryptografii. Każdy, kto ma klucz, może przetestować dokument, aby sprawdzić, czy ma cyfrowy znak wodny, który pokazuje, że został wygenerowany przez sztuczną inteligencję.
Kod może mieć na przykład formę użycia interpunkcji lub doboru słów.
Wyjaśnił, jak działa znak wodny i dlaczego jest ważny:
„Do tej pory moim głównym projektem było narzędzie do statystycznego znakowania wodnego wyników modelu tekstowego, takiego jak GPT.
Zasadniczo, ilekroć GPT generuje jakiś długi tekst, chcemy, aby w jego doborze słów był niezauważalny tajny sygnał, którego możesz później użyć, aby udowodnić, że tak, to pochodzi od GPT.
Chcemy, aby znacznie trudniej było pobrać dane wyjściowe GPT i przekazać je tak, jakby pochodziły od człowieka.
Może to być oczywiście pomocne w zapobieganiu akademickim plagiatom, ale także na przykład w masowym generowaniu propagandy – wiesz, spamowaniu każdego bloga pozornie na temat komentarzami wspierającymi rosyjską inwazję na Ukrainę, nawet bez budynku pełnego trolli w Moskwie.
Lub podszywanie się pod czyjś styl pisania w celu oskarżenia tej osoby.
To wszystko są rzeczy, które można chcieć utrudnić, prawda?
Badacz powiedział, że znak wodny pokonuje algorytmiczne wysiłki mające na celu uniknięcie wykrycia.
Ale stwierdził również, że możliwe jest pokonanie znaku wodnego:
„Teraz wszystko to można pokonać przy wystarczającym wysiłku.
Na przykład, jeśli użyłeś innej sztucznej inteligencji do sparafrazowania danych wyjściowych GPT – cóż, w porządku, nie będziemy w stanie tego wykryć”.
Badacz ogłosił, że celem jest wprowadzenie znaku wodnego w przyszłej wersji GPT.
Czy powinieneś używać AI do celów SEO?
Zawartość AI jest wykrywalna
Wiele osób twierdzi, że Google nie ma możliwości sprawdzenia, czy treść została wygenerowana przy użyciu sztucznej inteligencji.
Nie rozumiem, dlaczego ktoś miałby mieć taką opinię, skoro wykrywanie AI to problem, który już został rozwiązany.
Nawet treści wykorzystujące algorytmy zapobiegające wykryciu mogą zostać wykryte (jak zauważono w artykule badawczym, do którego link umieściłem powyżej).
Wykrywanie treści generowanych maszynowo było przedmiotem badań już od wielu lat, w tym badań nad wykrywaniem treści przetłumaczonych z innego języka.
Treść generowana automatycznie narusza wytyczne Google
Google twierdzi, że treści generowane przez sztuczną inteligencję naruszają wytyczne Google. Dlatego ważne jest, aby o tym pamiętać.
ChatGPT może w pewnym momencie zawierać znak wodny
Na koniec badacz OpenAI powiedział (kilka tygodni przed wydaniem ChatGPT), że znak wodny „miejmy nadzieję” pojawi się w następnej wersji GPT.
Więc ChatGPT może w pewnym momencie zostać zaktualizowany o znak wodny, jeśli nie jest jeszcze znakiem wodnym.
Najlepsze wykorzystanie sztucznej inteligencji w SEO
Najlepszym zastosowaniem narzędzi AI jest skalowanie SEO w sposób, który zwiększa produktywność pracownika. Zwykle polega to na umożliwieniu sztucznej inteligencji wykonywania żmudnej pracy badawczej i analitycznej.
Podsumowanie stron internetowych w celu utworzenia metaopisu może być dopuszczalnym zastosowaniem, ponieważ Google wyraźnie twierdzi, że nie jest to sprzeczne z jego wytycznymi.
Używanie ChatGPT do generowania konspektu lub podsumowania treści może być interesującym zastosowaniem.
Jednak przekazanie tworzenia treści sztucznej inteligencji i opublikowanie jej w obecnej postaci może nie być najskuteczniejszym wykorzystaniem sztucznej inteligencji z wielu powodów, w tym możliwości wykrycia jej i spowodowania, że witryna otrzyma ręczne działanie (inaczej zablokowanie).
Wyróżniony obraz autorstwa Shutterstock/Roman Samborskyi
