Trwa ładowanie...
Notowania
Przejdź na
aktualizacja

Chatbot GPT3 odbierze ludziom pracę? "Test Turinga wciąż nie jest zdany"

7
Podziel się:

Chatbot GPT3 przebojem wdarł się do mainstreamu. Jest dobry, nawet bardzo dobry. Tak dobry, że bez oznaczeń można by go pomylić z człowiekiem. To rozpaliło na nowo pytania o to, czy to już koniec Google albo czy roboty zabiorą nam pracę. Pytania może i zasadne, jednak odpowiedź niezmiennie brzmi "nie" i "nie"!

Chatbot GPT3 odbierze ludziom pracę? "Test Turinga wciąż nie jest zdany"
ChatGPT3 potrafi napisać bajkę czy list motywacyjny. Czy ludzkie praca są już zagrożone przez coraz lepiej radzącą sobie sztuczną inteligencję? (Getty Images, gremlin)

Chatbot GPT3 to generatywny model językowy sztucznej inteligencji, rozwijany przez OpenAI. W ostatnich tygodniach stał się absolutnym przebojem. Po pierwsze dlatego, że gdyby nie oznaczenia o rozmowie z maszyną, można by go pomylić z człowiekiem. Wiele jego odpowiedzi jest zaskakująco składnych i "ludzkich".

Dalsza część artykułu pod materiałem wideo

Zobacz także: Robo-telefony męczą Polaków. "Wprowadzają w błąd, udając człowieka"

Maszyny listy piszą

Serwis "Insider" zachwalał jego umiejętność pisania listów motywacyjnych. Gdzie trzeba "lać wodę", chatbot jest niezwykle skuteczny. Jego listy motywacyjne pokazano amerykańskim rekruterom, którzy w większości, choć wskazywali pewne braki, stwierdzili, że zaprosiliby autora na rozmowę. Poprosiliśmy chatbota GPT3 o to samo, choć skroiliśmy temat pod własne podwórko i branżę. Bot dostał zadanie napisania listu motywacyjnego jako dziennikarz z 5-letnim stażem.

Werdykt?

Chatbot "dopowiedział" sobie umiejętności, których nie było w prompcie (wsad użytkownika), w tym m.in. trudną sztukę dziennikarstwa śledczego. Poza tym list motywacyjny napisał zgodnie z aktualnym standardem "lania wody", bo umówmy się, że ten dokument ma znacznie mniejsze znaczenie niż CV. Choć są w nim mało wiarygodne fragmenty, całość jest dość dobra, by zaprosić autora na rozmowę o pracę.

Miejmy z tyłu głowy to zmyślenie czy dopowiedzenie sobie kompetencji (różne działy). Po zaledwie pięciu latach w mediach zrobił z siebie eksperta w kilku szerokich zakresach tematycznych. Do tego jeszcze wrócimy. Umiejętność pisania tekstów przez chatbota GPT3 sprawia, że ludzie zaczynają zastanawiać się nad różnymi aspektami i konsekwencjami możliwości, które w tym momencie się otwierają. Skoro bot jest w stanie napisać list motywacyjny, to czemu nie esej? Albo pracę zaliczeniową?

I tu dochodzimy do sedna pytania o to, czy ludzkie prace są zagrożone. Nie są. Po pierwsze, chatbot źle radzi sobie z wiedzą krótkookresową, bieżącą, dotyczącą tego, co zmienne, jak mundial w Katarze. W szerszym ujęciu chatbot nie wie, jak odróżnić prawdę od fikcji. Może być tego nauczony, wytrenowany, jeśli ktoś woli, ale nie wie tego sam z siebie, to model generatywny języka.

Stąd trzeba mu uważnie patrzeć na ręce. Prof. Aleksandra Przegalińska, wiodąca ekspertka z zakresu SI w Polsce, w wywiadzie dla serwisu money.pl, który opublikujemy na początku lutego, opowiedziała, że posiłkując się tym chatbotem, napisała książkę. GPT3 miał za zadanie sporządzić bibliografię. Z 10 źródeł 5 tytułów było prawdziwych, 5 zmyślonych, ale istniejących autorów.

Google zwija manatki?

To prowadzi nas do kolejnego pytania: czy czas Google jest policzony? Czy dlatego Microsoft inwestuje ogromną kwotę w OpenAI, przygotowując grunt pod ekspansję wyszukiwarki Bing?

Dni Google wcale nie są policzone. Pomijając już fakt, że korporacja ma w portfolio spółkę Deep Mind, która zajmuje się rozwojem sztucznej inteligencji z dużymi sukcesami (to oni stworzyli SI, która pokonała arcymistrza gry go). Google model wyszukiwania informacji w sieci zbudował na metodzie czystych rąk. Wyszukiwarka agreguje i podsuwa treści, których nie jest autorem i za które nie bierze odpowiedzialności. To, co nam wyskakuje w wyszukiwarce, nieważne, czego szukamy, napisał ktoś inny, i ten ktoś ponosi za to odpowiedzialność. "Ręce" Google pozostają czyste.

Nie chcemy chatbota bez smyczy

Wreszcie, wyszukiwarka internetowa, jak nazwa wskazuje, działa w internecie. I choć teraz czat GPT3 nas zachwyca, to zupełnie by nam się nie spodobał, gdyby był wpuszczony do sieci wolno, bez ograniczeń, ucząc się od każdego, kto prowadzi z nim interakcję. Jak zauważyła prof. Przegalińska, w tle jest bardzo dużo ludzkiej pracy, polegającej na selekcji źródeł czy tematyki.

Kilka lat temu Microsoft wypuścił wolno na Twitterze podobne językowe narzędzie generatywne – bota Tay. Po 24 godzinach i nalocie trolli z 4chana trzeba było wyjąć botowi wtyczkę, bo trenowany przez internautów, stał się zasadniczo oralnym neonazistą.

- Myślę, że to ważna lekcja, dobrze się stało, bo Microsoft, nie wiem, czy do końca świadomie, zainicjował ciekawy eksperyment społeczny, który pokazuje, co się dzieje, gdy model uczy się w czasie rzeczywistym od użytkowników i jak łatwo może przechylić się w dowolną stronę. Żaden szanujący się producent nie może sobie pozwolić na takie straty wizerunkowe - mówi w obszernym wywiadzie dla money.pl prof. Przegalińska.

Test Turinga

GPT3 bez wątpienia jest przełomem. Dużym. I wskazuje kierunek rozwoju technologii. Ale sporo jest jeszcze do zrobienia. Jak wskazuje prof. Przegalińska, gdy zapytamy oskryptowanego bota regułowego, jak ma na imię, a on odpowie, to nie jest konwersacja.

Boty są ciągle ślepawe w pewnym sensie, to takie krety konwersacyjne. Mają pewnego rodzaju mechanizm "najlepszego strzału", zgadnięcia, o co chodzi użytkownikowi. I często trafiają. Ale mogą się też wyłożyć na błędzie trzylatka. To wciąż deterministyczny model statystyczny do języka, ale nie korzysta z niego tak, jak my, więc w tym sensie test Turinga wciąż nie jest zdany - mówi prof. Przegalińska w wywiadzie z money.pl.

Jeśli nie dziwi nas automatyzacja w fabrykach, dlaczego dziwi nas postęp automatyzacji w zawodach związanych ze słowem pisanym? Część z nich, bazujących np. na copywritingu czy opisie stron internetowych, będzie z biegiem lat stopniowo przejmowana przez narzędzia automatyczne, choć dużo czasu upłynie, zanim będą w pełni wiarygodne i ludzka moderacja w tle nie będzie potrzebna.

Niektórzy próbują przyspieszyć rewolucję i zastąpić człowieka już teraz, choć potrzebują do tego… człowieka.

Niemniej chatbot GPT3 jest na świetnej drodze. I na pewno nada się już teraz do zadań i treści, których odbiorcy są mniej krytyczni. Gdy bajki trzeba wymyślać ciągle nowe, na bieżąco i w skali przemysłowej, każdy rodzic doceni taką pomoc.

Krzysztof Majdan, money.pl

Masz newsa, zdjęcie lub filmik? Prześlij nam przez dziejesie.wp.pl
Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.
Źródło:
money.pl
KOMENTARZE
(7)
WYRÓŻNIONE
DD441`
2 lata temu
Robota to głupota ! Roboty powinny za nas pracować !
RPawłowski
2 lata temu
"...Chatbot "dopowiedział" sobie umiejętności, których nie było w prompcie (wsad użytkownika)...". Nazywamy to kłamstwem lub konfabulacją.
Arek
2 lata temu
Pismaki mają teraz raj wiszą wytyczne, czary mary i już mają artykuł, koniec z pracą, teraz już tylko żyjecie za darmo
NAJNOWSZE KOMENTARZE (7)
Nick
8 miesięcy temu
Żaden z tych tekstów nie jest imponujący. Fabuła bajki nie ma sensu, podobnie jak zdania: „spotkał tam wiele niebezpieczeństw, jak np. ciemność”. List motywacyjny w stylu „jestem doświadczonym dziennikarzem, bo mam dużo doświadczenia” to kompletna żenada. Do tego masa błędów i słów, które nie istnieją.
Polak
2 lata temu
Czatbooty powinny być wypuszczone na wolność, tylko one są bezstronne, ostatnimi czasy w trafić na dobrze napisany artykuł graniczy z cudem a z czatbota wszystko wygląda lepiej niż choćby na tym portalu, właściciel powinien was wszystkich zwolnić i dawać tylko artykuły z czatbootów, wyszedł by na tym lepiej niż płacić wam za wasze wypociny
Arek
2 lata temu
Pismaki mają teraz raj wiszą wytyczne, czary mary i już mają artykuł, koniec z pracą, teraz już tylko żyjecie za darmo
DD441`
2 lata temu
Robota to głupota ! Roboty powinny za nas pracować !
RPawłowski
2 lata temu
"...Chatbot "dopowiedział" sobie umiejętności, których nie było w prompcie (wsad użytkownika)...". Nazywamy to kłamstwem lub konfabulacją.