Krzysztof Majdan, money.pl: Pamiętasz nasze pierwsze spotkanie lata temu?
Prof. ALK, dr hab. Aleksandra Przegalińska: W kawiarni? Coś pamiętam.
Po wywiadzie zaczepiła nas dziewczyna. Przeprosiła, że podsłuchiwała, tłumaczyła, że ciekawie mówiłaś o SI, zaciekawił ją temat, doczyta. A dziś SI już wyskakuje nawet z lodówki.
To prawda, sztuczna inteligencja przeszła długą drogę do mainstreamu. Choć moim zdaniem ów mainstream nie jest do końca świadomy tego, że produkty, z których korzysta na co dzień, są na SI postawione bądź o nią oparte. Wiele osób nie ma pojęcia, że w aplikacji pogodowej, rekomendacjach Netfliksa czy Lensie siedzi pod maską jakiś model SI. Mam wrażenie, że od czasu naszej pierwszej rozmowy przed laty SI robiła raczej powolne kroki. Przyspieszenie mainstreamizacji SI wybiło w ostatnich miesiącach, roku. Zaszło to niesamowicie daleko.
Zacząłem bawić się tym popularnym botem od OpenAI, GPT3. Wyłożył się.
Na czym?
Zapytałem, skąd Litwini wracali.
Okej?
Powiedział, że nie wie, skąd Litwini wracali, bo nie ma dostępu do sieci. To mnie zaciekawiło. Czyli model generatywny SI nakarmiony wiedzą, ale nie puszczony wolno.
Twórcy nie mogą sobie na to pozwolić. Tam jest nałożony techniczny limit tokenów, czyli fraz, które może wygenerować bot, by go nie przeciążyć. A do tego filtrowanie, nie można dostać każdej odpowiedzi. Czasem dlatego, że bot nie rozumie zdania albo odniesienia, a czasem dlatego, że ludzie chcieliby go podpuścić, zacząłby mówić straszne rzeczy o tym, jak to chciałby zgładzić ludzkość czy inne głupoty. Albo, żeby nie nauczył się przeklinać.
Czasem mamy wyobrażenie, że modele SI uczą się na każdej konwersacji, którą odbywają, ale tak nie jest. Tam w tle jest dużo ludzkiej pracy, selekcja danych wysokojakościowych ze sprawdzonych źródeł. Ten konkretny bot był trenowany przez jakieś 6 lat, zanim został wypuszczony w beta wersji. Bo wyobraź sobie sytuację, w której tak nie jest i mamy powtórkę z rozrywki z Tay Microsoftu.
Pamiętam. Bot, który został neonazistą.
Tak, niebacznie mógł się uczyć w czasie rzeczywistym. Został zaatakowany przez trolli z 4Chana, efekt był taki, że po paru godzinach na Twitterze stał się piewcą Hitlera. Myślę, że to ważna lekcja, dobrze się stało, bo Microsoft, nie wiem, czy do końca świadomie, zainicjował ciekawy eksperyment społeczny, który pokazuje, co się dzieje, gdy model uczy się w czasie rzeczywistym od użytkowników i jak łatwo może się przechylić w dowolną stronę.
To już modele, których nie kodujesz, a promptujesz. Dajesz im przykład, wsad, uczą się z konwersacji. Żaden szanujący się producent nie może sobie pozwolić na takie straty wizerunkowe. Zwłaszcza że to narzędzie dla biznesu. Na GPT3 możesz postawić najróżniejsze aplikacje, od marketingowych, po moderację treści, na analizie sentymentu kończąc. Jak bot będzie wygadywał farmazony, biznes nie kupi licencji.
Wracając do tych Litwinów, poszturchiwałem go dalej. Podrzucałem frazy "literatura piękna", "Konrad Wallenrod", "Adam Mickiewicz", nie mógł załapać kontekstu. Ale muszę przyznać, że był przekonujący. On jest oznaczony jako bot, ale gdybym to przegapił i zadawał proste pytania, to można się nabrać. Co by na to powiedział Alan Turing?
Turing przedstawił światu szatański eksperyment myślowy. Powiedział tak: jeśli będziesz rozmawiać z maszyną i ta rozmowa wydaje się na ludzkim poziomie, to "to coś" jest inteligentne. Prawda jest taka, że w realnej konwersacji, z tym całym szumem, który jej towarzyszy, wsteczną referencyjnością, osadzonej na osi czasu, kontekst budowany jest na bieżąco w mikro i makro skali. Wiesz, jak zapytasz oskryptowanego bota regułowego, jak ma na imię, i on odpowie, że Max, to nie jest konwersacja, to nie jest inteligentne, nie to Turing miał na myśli.
A co miał?
Są różne iteracje testu Turinga, np. Nagroda Lepnera. Przyznaje się ją, jeśli 30 proc. sędziów da się oszukać maszynie. I są to tak zaprojektowane rozmowy, by ludzie mieli pewien dyskomfort z ich oceną z typowo ludzkich powodów.
Na przykład?
Eugene Goostman, bot, który zdał test Turinga parę lat temu. Udawał ukraińskiego nastolatka, który kiepsko mówi po angielsku. W czasie rozmowy z sędziami dopytywał, prosił o inaczej sformułowane pytanie, bo nie rozumiał. Jak możemy mieć pretensje do nastolatka, że nie mówi po angielsku? Albo, gdy coś odpyskuje, bo Goostman był oskryptowany, by pyskować w nastoletnim stylu.
Inny przykład to bot, który udawał paranoika. Ciągle mówił, że nie może odpowiedzieć na pytanie, bo czuje, że ktoś go śledzi. Trudno odmówić inteligencji człowiekowi ze względu na taką przypadłość. Test to pułapki na ludzkich sędziów, budowa ram sytuacji, która utrudnia ocenę. Tkwiliśmy w paradygmacie symulowania takich interakcji człowiek-maszyna. Ale posunęliśmy się naprzód.
W jakim sensie?
Boty nie pracują tylko ze składnią zdania, nie przekładają go na komendy, tylko semantycznie w pewnym sensie "rozumieją" i radzą sobie lepiej z kontekstem. Jeśli w rozmowie z botem nawiążę do wcześniejszej z nim interakcji, on ją wyłapie, może zrozumieć pewne odniesienia. Wychwytuje, które słowa czy całe zdania w prompcie, wkładzie użytkownika, są kluczowe.
Dasz przykład?
Jeśli powiem ci: potrzebuję analizy SWOT [technika do porządkowania i analizy informacji – red.] produktu XYZ, to odpowiesz, że potrzebne jest to i to i możesz mi ją zrobić. Jeśli to samo powiem botowi, odpowie, że dostaniesz taką i jej nie wygeneruje. Albo wytłumaczy mi formułką encyklopedyczną, czym taka analiza jest. Jeśli z kolei powiem mu: wykonaj mi analizę SWOT na temat produktu XYZ, to ją wtedy wygeneruje.
Boty są ciągle ślepawe w pewnym sensie, to takie krety konwersacyjne. Mają pewnego rodzaju mechanizm "najlepszego strzału", zgadnięcia, o co chodzi użytkownikowi. I często trafiają. Ale mogą się też wyłożyć na błędzie trzylatka. To wciąż deterministyczny model statystyczny do języka, ale nie korzysta z niego tak, jak my, więc w tym sensie test Turinga wciąż nie jest zdany.
I dlatego tym, czy maszyny zabiorą mi pracę, zacznę się martwić za dekadę. Ale znów, GPT3, jeśli chodzi o suche informacje, jest świetny. I teraz załóżmy, że piszę tekst i bardzo mi się spieszy. Potrzebuję dwóch akapitów wsadu o RPP, co to jest i co robi. I bot wypluwa mi formułkę, której używam w tekście. Czyje to jest? Moje? Jego? Mam cytować bota?
Ciekawe pytanie. Niedawno omawialiśmy to na zajęciach ze studentami. Napisałam z GPT3 dwie książki.
No co ty?!
Jedną wydałam ostatnio z Robertem Wrightem o uniwersalnym dochodzie podstawowym. W tej pierwszej bot tylko pomagał, np. generował listę książek o podobnej tematyce do mojej. I tu trzeba bardzo uważać, bo one potrafią sypać fake newsami. Na dziesięć książek, które wskazał, pięć istniało. Tytuły kolejnych pięciu zmyślił, ale wskazał istniejących autorów. Jak zadasz pytanie, czym jest RPP, to okej. Jak zapytam, czym jest ALK, okej. Ale gdy zapytam, jakie oferuje kierunki studiów, to miejscami pozmyśla. Uczulam wszystkich na sprawdzanie, bo czasem boty syntetyzują nieistniejące fakty.
A producenci ich nie aktualizują?
Aktualizują, ale to nie jest proste. Ostatnio już w trakcie mundialu w Katarze zapytałam o niego bot. Powiedział, że jeszcze się nie odbył. Zapytany, czy Lewandowski będzie grał, stwierdził, że trudno powiedzieć, bo mecze się jeszcze nie zaczęły. Dobrze radzą sobie z ogólną wiedzą, ale z tą bieżącą, zmienną, już gorzej. Ale myślę, że to nadchodzący standard generacji treści, możemy się zżymać, ale tak będzie.
A druga książka?
Napisana z Darkiem Jemielniakiem, niebawem ją wydamy. Tutaj bot pisał już całe fragmenty. Dostał np. początek i koniec rozdziału, miał dopisać środek. Albo zaczęty rozdział z zadaniem dopisania zakończenia. Te fragmenty są oznaczone, myślę, że to kwestia dobrych praktyk. Wydaje mi się, że nie jest to wymagane prawem.
Ciekawe. Ja dałem komendę, a SI narysowało obraz. Czyje to jest?
Trudno powiedzieć, w którą stronę to skręci. Kompozytor będzie komponował muzykę z siecią generatywną, grafik tworzył z nią ilustrację. Bez promptu taka sieć nie ruszy, więc w jakimś sensie człowiek jest twórcą. Sama sieć generatywna też jest karmiona kolektywną wiedzą człowieka, tym, co wcześniej widziała, np. obrazy mistrzów renesansowych. Na bazie cudzego, kolektywnego wkładu generuje to, o co ją prosisz. Myślę, że to nigdy nie będzie tylko jej albo tylko twoje.
A to, co generuje, jest kreatywne czy odtwórcze?
To zależy, co rozumiesz przez kreatywność. Wiem, okropny sposób odpowiadania na pytanie.
No weź, przecież tak mnie nie zostawisz.
Pewnie, że nie. Trudno na nie odpowiedzieć, bo kreatywność narzędzi mierzymy inną miarą niż siebie samych. Załóżmy, że przychodzi do ciebie dziecko pochwalić się prostym obrazkiem. Jest kreatywne? No jest, przecież nie przerysowało go z innego obrazka, choć walor artystyczny jest znikomy. Nazwa sieć generatywna nie jest głupia, bo wycina nam problem kreatywności. Sieć nie narysowała tego sama, lecz wygenerowała na bazie wieków różnych wzorców. Jest tam element niespodzianki, nie wiesz, co dokładnie ostatecznie wygeneruje. Choć i to nie zawsze rozwiązuje tę kwestię.
Co masz na myśli?
SI Midjourney wygenerowała pracę, która wygrała konkurs artystyczny. To już coś, prawda? Można by powiedzieć, że powstała tam jakaś kreacja, a więc była kreatywna. Ostatecznie, moim zdaniem, porównujemy tu dwa różne rodzaje kreatywności. Maszyna widzi wzorzec i na jego podstawie tworzy coś nowego. I nie odczuwa potrzeby tworzenia. Człowiek pracuje inaczej, za naszą sztuką stoją przetwarzane za jej pośrednictwem doświadczenia i emocje.
Skoro przy sztuce jesteśmy, weźmy tę LensęAI. Jakie są konsekwencje mainstreamizacji SI?
Powiedzmy głośno, że to jednak aplikacja rosyjska.
I dlatego oparłem się pokusie.
Ja korzystałam, ale nic nie straciłam, bo dałam jej tylko dostępne w sieci zdjęcia. Prywatne archiwum lub zdjęcia dzieci to zły pomysł. Wcześniej była przecież PrismaApp, tych samych twórców, która przerabiała zdjęcia na styl Rembrandta. Była też ta aplikacja do postarzania i odmładzania osób na zdjęciach. To wszystko mechanizmy SI i bardzo dobrze im te prace wychodzą. Ale brakuje tej refleksji, wybucha nagle na coś moda, staje się viralem, refleksja przychodzi później. Natomiast to może być nowy standard generacji treści do przyszłych mediów społecznościowych (SM).
Czyli jakich?
Wpadłam kiedyś na artykuł "Wired", który przekonywał, że przyszłość SM to dzielenie się w mniejszym zakresie. Myślę, że nie tyle mniej, ile inaczej. Powstanie pewnego rodzaju cyfrowa persona, równoległa do nas, ale niemająca z nami wiele wspólnego. Mieliśmy czasy twórców w SM 2.0, ktoś pisze przemyślenia poza tradycyjnym medium, ktoś kręci filmik z ręki. A pierwsze social media miały charakter memuaru. Elon Musk pisze, że był na siłowni albo zjadł burgera. A po latach mu się to wyciąga.
Przestaliśmy tak z nich korzystać, zaczęliśmy ten wizerunek kreować bardziej świadomie. A dzięki narzędziom, o jakich rozmawiamy, będziemy mogli wykreować wizerunek innej osoby. Robią rozmaite rzeczy całkiem dobrej jakości, prawie że artystyczne i to marker nowego etapu cyfrowych treści. Generujemy obrazki i tekst, następne będzie wideo. Będzie trudniej odróżnić treści selekcjonowane od tych fałszywych wygenerowanych dzięki SI. Może odzyskamy część utraconej prywatności.
Czytałem niedawno, że Amerykanie używają SI do analizy posunięć strategicznych, np. jak zareagują Chiny na politykę celną albo Rosjanie na taki czy inny ruch Zachodu. Może to i lepiej? SI nie otworzy się nóż w kieszeni, gdy zobaczy zdjęcia z Buczy, człowiekowi mogą puścić nerwy.
SI ma nad nami określone przewagi, widzi korelacje, których my nie zauważamy, lepiej przetwarza dane numeryczne. SI, analiza danych z rekomendacją dla człowieka już jest wykorzystywana i będzie, także w przypadku wojen. Detekcja, gdzie odpoczywają rekruci, gdzie zostaną przerzucone wojska, to źródło najróżniejszych przewag. Ten militarny aspekt SI to trudny temat, z oczywistych względów mało o nim wiemy, mało słyszymy. Ale rzeczywiście, analiza SI i jej wpływ na decyzyjność człowieka np. w medycynie czy logistyce jest bardzo pomocna. To duży walor tej technologii, choć nie zawsze działa i wciąż szukamy złotego środka.
Dlaczego Google tak ostro zareagował na sprawę pracownika, który ogłosił powstanie osobliwości? Komisja etyki, duży szum.
To była skomplikowana sprawa. Ów pracownik był byłym księdzem, bardzo uduchowioną osobą. I chyba za wiele o sobie powiedział modelowi SI, zaczął rozmawiać z nim o życiu i w pewnym momencie odpłynął, dopatrzył się w afekcie osobliwości, czegoś, czego nie mogło tam być. To modele statystyczne. Tu nie ma osobliwości i nie będzie.
Etyka w kontekście SI wchodzi na ważną pozycję. Nawet papież nawoływał twórców SI o poszanowanie jej zasad.
To bardzo ważne zagadnienia. Czy chcemy uczyć te modele wzorcami opartymi na dobrych postępowaniach człowieka, czy tych kiepskich? Czy SI bierze odpowiedzialność za analizy i podejmowane na ich podstawie decyzje przez człowieka? Jakie mogą być konsekwencje? Zobacz, mamy autonomiczne samochody. Ale nie mamy regulacji, nie jesteśmy na nie gotowi. Pod wpływem etyki cofnęliśmy się o krok i zaczęliśmy produkować półautonomiczne. Im bardziej SI jest w mainstreamie, tym bardziej nie da się uciec od etyki.
Krzysztof Majdan, money.pl