Generatywne AI otwiera nowe możliwości tworzenia sztucznych, syntetycznych treści. Nie tylko będzie ich więcej ale będzie je coraz trudniej i trudniej odróżnić od prawdziwych. Zapnijmy pasy bo robi się dynamicznie.
Syntetyczne treści: przykłady
Gosia Fraser z techspressocafe napisała o problemie generowanych poprzez AI książek kucharskich, które zalewają Amazon. Zawarte w nich przepisy są pełne błędów, nie nadają się do realizacji, zawierają nieistniejące składniki. Sprawdziłem – faktycznie. Nawet ich autorzy są wytworzeni przez AI – co dobitnie pokazuje serwis Mashable.
Nieco inny problem opisuje magazyn Wired: Amazon zalewają wygenerowane przez AI wielostronicowe podsumowania prawdziwych książek oraz przegenerowane w dużym modelu językowym ich “alternatywne” warianty. Ani branża wydawnicza ani autorzy nie mają pomysłu co z tym zrobić. A tymczasem nieświadomi czytelnicy dają się zmylić.
Tymczasem na Instagramie pojawiają się “AI models” – takie jak Aitana Lopez, na której temat media pisały nieraz przytaczając rzekome zarobki. W pełni wygenerowane zdjęcia atrakcyjnej latynoski, która reklamuje normalne produkty mają 300 tysięcy obserwatorów.
Prawie 400 komentarzy pod ostatnim “zdjęciem” z lutego 2024 robi dość ponure wrażenie. Część osób pisze, że to AI ale niektórzy zdają się zachwycać “pięknem” modelki. Tylko, że w sumie nie wiemy czy te komentarze też nie są syntetyczne.
To wszystko nie jest specjalnie zaskakujące. Krzewiciele pasywnego dochodu już dawno rzucili się na generatywne AI i od miesięcy zalewają internet nową generacją swoich “wyrobów”. Zapełniające pierwsze wyniki wyszukiwania SEOidy – jak nazywam strony robione tylko pod Google – od lat utrudnią zwykłym twórcom przebicie się do szerszej publiczności. Generatywne AI już nasila ten proceder. Youtube walczy z “AI covers” miksujących głos i muzykę artystów, którzy nigdy razem nie zagrali. Spotify zwalcza sztucznie wytworzone, nieistniejące “przeboje” znanych artystów, których głos albo muzykę wygenerowano w AI.
Zwykli ludzie też coraz chętniej korzystają z generatywnych obrazków: zastępują nimi zdjęcia profilowe w portalach społecznościowych, uatrakcyjniają swoje slajdy, czy podkładają w tle wideokonferencji. Zachodzi też podejrzenie, że pod koniec zeszłego roku niejeden manager wygenerował ocenę roczną swojego pracownika, w odpowiedzi na podobny “wyrób” otrzymany jako samoocena. A jak się mają prace zaliczeniowe na uczelniach? Zadania domowe w szkołach? Wierszyki na konkursy w przedszkolach? Lepiej chyba tutaj nie drążyć.
Upowszechnianie się generatywnego AI
ChatGPT wywołał rewolucję, która z jednej strony polega na uświadomieniu ludziom możliwości sztucznej inteligencji, z drugiej daje nam środki by samodzielnie, na masową skalę z nich korzystać. I jest już za późno, żeby to cofnąć, nawet gdyby OpenAI jutro zniknęło. Narzędzia generatywnego AI są dostępne wszędzie. A tak naprawdę każdy może sobie dziś postawić chatbota na własnym komputerze. Nie tylko nie jest to specjalnie trudne ale w pełni darmowe.
A przecież wszyscy i tak od lat korzystamy z różnorodnych narzędzi ułatwiających nam tworzenie treści. Bo czym jest sprawdzanie pisowni w edytorze tekstu? Albo artystyczne filtry w Instagramie czy niewinne przeróbki zdjęcia w Photoshopie. Tak to się zaczęło i w kolejnych latach ewoluowało do coraz bardziej zaawansowanych form. Generatywne AI wpisuje się w ten trend tylko bardziej: tekstu nie trzeba już redagować bo sam się napisze, zdjęcia edytować bo samo się wygeneruje. A przecież są też generatory muzyki i wideo. I wszystkie te narzędzia robią się coraz bardziej skuteczne w naśladowaniu wytworów człowieka.
Problem był widoczny już na początku 2023 roku. Zwykle jednak dało się odrzucić sztuczne treści. Teksty pisane w ChatGPT na wiosnę 2023 miały taki charakterystyczny, syntetyczny wydźwięk. Zdjęcia z Midjourney wciąż miały liczne błędy anatomiczne i plastikowy klimat. Ale to się zmienia. Modele są coraz lepsze i dzisiaj nawet eksperci zaczynają mieć problem z oceną prawdziwości “zdjęcia” czy autorstwa tekstu.
Zróbmy test i zobaczymy co AI nam wygeneruje wywołane do tablicy. Zapytałem Mistrala:
Zaskoczenie, prawda? No chyba nie. Taka odpowiedź oznacza, że dane treningowe modelu zawierały wskazania na te ryzyka. Bo przecież eksperci piszą o nich od lat. Tyle tylko, że teraz właśnie zaczynamy je obserwować w praktyce.
Syntetyzacja treści jest nieunikniona
Oczywiście trwa debata na temat ograniczeń, znakowania i filtrowania treści od AI. Przykładowo organizacja Partnership in AI wylicza ostatnie przypadki, takie jak np.: znakowanie treści wytworzonych w generatorach obrazu Dall-E 3 (OpenAI) czy Imagen (Meta) albo wymóg tagowania treści AI przez TikTok. Podobne wymagania ma też YouTube. Ale jednocześnie jak donosi magazyn Futurism Facebook amplifikuje wygenerowane przez AI śmieciowe obrazki i pozwala ich twórcom na viralowe zasięgi.
Najwyższy czas poważnie przemyśleć skutki dalszej powszechnej adopcji wytworów generatywnej sztucznej inteligencji. Musimy zacząć zwracać uwagę na treści, które konsumujemy – bo coraz częściej będą do nas trafiać syntetyki od AI. Trzeba uczyć się rozpoznawać treści AI – tak samo jak rozpoznawać fake newsy. Łatwo nie będzie ale próbować trzeba. W końcu na tym polega istota ludzkiej natury, prawda?
Obrazek wyróżniający na początku artukułu został wygenerowany w Dale-3 (via MS Copilot)
Jeśli podobał Ci się tekst poleć go znajomym albo udostępnij w mediach społecznościowych.
Chcesz otrzymywać powiadomienia o nowych tekstach: zapisz się na newsletter.
Dodaj komentarz