Czy najnowsi twórcy treści AI mogą rywalizować z ludzkimi pisarzami?
Opublikowany: 2022-06-21Tworzenie treści AI poczyniło ogromne postępy w ostatnich latach. Wiadomości zachwycają się tym, że roboty piszą teraz fanfiction. Inżynier Google twierdził, że chatbot, który budował, był tak dobry, że mógł być świadomy. Przy tych wszystkich postępach może się wydawać, że współczesna sztuczna inteligencja może dorównać ludzkiemu pisarzowi.
Rzeczywistość jest nieco bardziej skomplikowana. Za każdym zabawnym fragmentem pisania o sztucznej inteligencji kryją się dziesiątki bzdurnych szkiców, których nie udało się wydrukować. Nawet najbardziej zaawansowana sztuczna inteligencja ma trudności z napisaniem ponad stu słów na jeden temat. Język jest niezwykle złożonym systemem, który ewoluował przez tysiące lat, więc nie jest łatwo go zakodować.
Tworzenie treści w oparciu o sztuczną inteligencję może tworzyć zdania, układać akapity i czasami opowiadać historię. Mimo to podstawowe ludzkie elementy pisania — takie jak nastrój, zamiary i emocje — są poza zasięgiem nawet najnowocześniejszej technologii.
Programy do tworzenia treści AI mogą stanowić punkt wyjścia dla ludzkich pisarzy, ale wciąż daleko im do zastąpienia ich. Biorąc pod uwagę, jak fundamentalny jest język dla ludzkiego doświadczenia, zastąpienie ludzkich pisarzy sztuczną inteligencją może nawet nie być możliwe.
Co to jest tworzenie treści AI?
Na najbardziej podstawowym poziomie tworzenie treści AI polega na programowaniu komputera do pisania treści podobnych do tego, co napisałby człowiek. Ta technologia opiera się na dziesięcioleciach programów generowania języka naturalnego. Niemal odkąd istniały komputery, programiści NLG próbowali nauczyć ich czytać i pisać.
Generowanie czy naśladowanie?
Jedną z kluczowych rzeczy, które należy zrozumieć, jeśli chodzi o tworzenie treści AI, jest to, że sztuczna inteligencja nie wymyśla samej treści — przynajmniej nie w taki sam sposób, w jaki zrobiłby to człowiek. Nie ma kodu źródłowego kreatywności. Zamiast tego sztuczna inteligencja próbuje skopiować istniejące treści napisane przez człowieka w sposób, który może oszukać czytelnika, aby pomyślał, że jest prawdziwy.
Aby to zrobić, sztuczna inteligencja analizuje dobór słów, długość zdań i tysiące innych wskaźników z próbek napisanych przez ludzi. Programiści mogą również zapewnić reguły i pożądane wzorce dla wyników AI. Na przykład mogą poinstruować program, aby używał tylko stu najpopularniejszych słów w języku angielskim, aby ułatwić czytanie.
Następnie sztuczna inteligencja analizuje próbki napisane przez człowieka, krzyżuje je z zaprogramowanymi zasadami i zestawia wszystko, czego się nauczyła, w najlepszym przybliżeniu artykułu napisanego przez człowieka.
Jak zaawansowane jest dziś tworzenie treści AI?
Przez dziesięciolecia pisanie generowane komputerowo nigdy nie mogło uchodzić za coś, co napisała prawdziwa osoba. Wczesne programy NLG były ograniczone pamięcią i mocą obliczeniową ówczesnych komputerów. Obecnie, przy znacznie bardziej zaawansowanych komputerach i Internecie, programy AI mogą odwoływać się do milionów artykułów napisanych przez ludzi, aby pomóc w generowaniu ich treści.
Wraz z postępem w tworzeniu treści w oparciu o sztuczną inteligencję programiści nie muszą już wprowadzać reguł wyjściowych. Zamiast tego sztuczna inteligencja może odwoływać się do artykułów napisanych przez ludzi, aby wygenerować własne zasady, skutecznie ucząc się, jak samodzielnie lepiej naśladować język.
Najbardziej zaawansowana sztuczna inteligencja do tworzenia treści nazywa się dziś GPT-3. Opiera się na ogromnej bazie danych języków o nazwie OpenAI. Prawdopodobnie widziałeś pracę GPT-3 w Internecie. Wygenerował wszystko, od fałszywych scenariuszy o Harrym Potterze po kolumny „Modern Love” dla The New York Times.
Jakie są ograniczenia treści tworzonych przez sztuczną inteligencję?
GPT-3 to imponująca technologia, ale nadal istnieją ograniczenia co do tego, jak bardzo komputer może naśladować pismo ludzkie. Kilka poważnych problemów wpływa na treści tworzone przez sztuczną inteligencję na całym świecie.
Jakość jest niespójna
Każdy element treści stworzonej przez sztuczną inteligencję jest próbą naśladowania człowieka i nie wszystkie z tych prób się udają. W przypadku każdego projektu, któremu dasz AI do napisania, będzie kilka bezużytecznych wyników dla każdego zadowalającego szkicu.
Wspomniany wcześniej eksperyment New York Times „Modern Love” jest doskonałym przykładem tej niekonsekwencji. The Times poprosił GPT-3 o napisanie dziesiątek krótkich, poprawiających samopoczucie kolumn o tym, jak hipotetyczna para mogła spotkać się po raz pierwszy. Kilka historii było niecodziennych, ale pozostawało w sferze możliwości. O wiele więcej kolumn wyraźnie nie zostało napisanych przez prawdziwą osobę.
Jedna kolumna zawierała frazę „Poszliśmy na obiad i drinki oraz obiad i drinki…” powtarzane w pętli przez ponad sto słów. Przypominamy, że jest to obecnie najbardziej zaawansowany program do tworzenia treści AI na świecie. Albo GPT-3 wchodził w swoją postmodernistyczną fazę, albo wciąż jest miejsce na ulepszenia na froncie spójności.
AI może pisać tylko krótkie fragmenty
Tworzenie treści oparte na sztucznej inteligencji jest najbardziej przydatne w przypadku małych fragmentów tekstu. Kolumny NYT, które napisał GPT-3, zawierały tylko kilkaset słów, a większość z nich nie miała sensu w końcowych sekcjach. Pęknięcia w treściach stworzonych przez sztuczną inteligencję zaczynają się pojawiać, gdy liczba słów przekracza sto.