Trwa ładowanie...
Notowania
Przejdź na
oprac. SAS
|
aktualizacja

Szef Google'a "nie może spać w nocy" przez obawy o rozwój sztucznej inteligencji. Mówi, co może pójść nie tak

41
Podziel się:

Szef Google Sundar Pichai przyznał, że obawy dotyczące rozwoju sztucznej inteligencji nie dają mu w nocy spać. Technologia ta jego zdaniem może być "bardzo szkodliwa", jeśli zostanie źle wdrożona. Apeluje o stworzenie globalnych regulacji dla AI podobnych do traktatów zawartych ws. broni jądrowej.

Szef Google'a "nie może spać w nocy" przez obawy o rozwój sztucznej inteligencji. Mówi, co może pójść nie tak
Sztuczna inteligencja "może być bardzo szkodliwa, jeśli zostanie źle wdrożona" - ostrzega Sundar Pichai (Getty Images, David Paul Morris)

Sundar Pichai w rozmowie z programem "60 Minutes" w amerykańskiej stacji CBS wezwał do stworzenia globalnych ram regulacyjnych dla sztucznej inteligencji (AI), podobnych do traktatów zawartych w sprawie bron jądrowej, ponieważ - jak ostrzegł - rywalizacja o wyprodukowanie bardziej zaawansowanej technologii może prowadzić do odsuwania na bok obaw związanych z bezpieczeństwem.

Może być bardzo szkodliwa, jeśli zostanie źle wdrożona i nie mamy jeszcze wszystkich odpowiedzi - a technologia porusza się szybko. Więc czy to nie pozwala mi spać w nocy? Absolutnie - powiedział szef Google.

Dalsza część artykułu pod materiałem wideo

Zobacz także: Sztuczna inteligencja jako narzędzie dezinformacji. Czy to nas czeka?

Będący właścicielem Google'a konglomerat Alphabet Inc. w marcu uruchomił chatbota Bard, odpowiadając na globalną popularność ChatGPT, opracowanego przez amerykańską firmę technologiczną OpenAI, który został zaprezentowany w listopadzie zeszłego roku.

Pichai powiedział, że w miarę rozwoju AI rządy będą musiały wymyślić globalne ramy dla jej regulacji. W marcu tysiące ekspertów od sztucznej inteligencji, badaczy i jej zwolenników, w tym właściciel Twittera Elon Musk, podpisało list wzywający do wstrzymania tworzenia "gigantycznych" sztucznych inteligencji na co najmniej sześć miesięcy w związku z obawami, że rozwój technologii może wymknąć się spod kontroli.

Zapytany, czy uregulowania, jakie dotyczą broni jądrowej, mogłyby być potrzebne, Pichai powiedział: "Potrzebowalibyśmy tego".

Technologia AI użyta w ChatGPT i Bard, znana jako Large Language Model, jest szkolona na ogromnym zbiorze danych pobranych z internetu i na zadane przez użytkowników pytania jest w stanie wygenerować wiarygodne odpowiedzi w różnych formatach, od wierszy do esejów akademickich i kodów oprogramowania.

Z AI będzie możliwe łatwo stworzyć wideo, w którym Scott (Pelley, prowadzący wywiad w CBS - PAP) mówi coś, albo ja mówię coś, czego nigdy nie powiedzieliśmy. I mogłoby to wyglądać realistycznie. Ale wiesz, na skalę społeczną, wiesz, może to spowodować wiele szkód - wyjaśnił.

Zapewnił, że wersja sztucznej inteligencji upubliczniona przez Google'a poprzez chatbota Bard jest bezpieczna, a firma wstrzymała bardziej zaawansowane wersje Barda do testów.

Pichai przyznał, że Google nie do końca rozumie, jak jego technologia AI produkuje pewne odpowiedzi.

Jest pewien aspekt tego, który nazywamy, wszyscy w tej dziedzinie nazywają, "czarną skrzynką". Wiesz, nie rozumiesz w pełni. I nie możesz do końca powiedzieć, dlaczego ona powiedziała to, albo dlaczego się pomyliła - mówił.

Zapytany, dlaczego Google upubliczniło Barda, skoro nie do końca rozumie jak działa, Pichai odpowiedział: "Pozwól mi to ująć w ten sposób. Nie sądzę, że my też w pełni rozumiemy, jak działa ludzki umysł".

Pichai przyznał, że społeczeństwo nie wydaje się być gotowe na szybkie postępy w AI. Powiedział, że "wydaje się, że istnieje niedopasowanie" między tempem, w jakim społeczeństwo myśli i dostosowuje się do zmian, w porównaniu z tempem, w jakim AI się rozwijała.

Dodał jednak, że przynajmniej ludzie szybciej stali się czujni na jej potencjalne zagrożenia. "W porównaniu z każdą inną technologią, widziałem więcej ludzi zaniepokojonych nią na wcześniejszym etapie jej cyklu życia. Czuję się więc optymistycznie" - przekonywał.

Masz newsa, zdjęcie lub filmik? Prześlij nam przez dziejesie.wp.pl
Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.
Źródło:
PAP
KOMENTARZE
(41)
WYRÓŻNIONE
jan
2 lata temu
jest taki film "Terminator" tam już przed tym diabelstwem ostrzegali
aitobladludzk...
2 lata temu
Wystarczy ,że spreparowane celowo lub przypadkiem kłamstwo/złudzenie/ oszustwo będzie powielane przez internetowe media, i wszyscy będą sądzic, że to prawda, bo cała ludzkośc nie może się przecież mylic?! Jednostka nie dotrze do wszystkich z udowadnianiem jak było naprawdę. No i wystarczy, że obracając danymi powoli aczkolwiek stale i skutecznie z bazy danych będzie eliminowana historia. Ta przeżyta , realna i dotychczasowa. Niewygodna, szara, zwyczajna. PS. Oddając zasoby ludzkie w ręce maszyny, skazujemy się na brak decyzyjnosci jednostki. To zasadniczy bład ludzkości. Wolny wybór to prawo podstawowe.
zxc12
2 lata temu
proces całkowitego odmóżdżania ludzi nabrał tempa. jeszcze jedno pokolenie i THE END, tak się kończy dawanie małpie brzytwy, ten cały elektroniczny świat ze smarfonem i tzw mediami społecznościowymi, automatyzacją wszystkiego itp odczłowiecza i odmóżdża człowieka i czyni go zbędnym
NAJNOWSZE KOMENTARZE (41)
W Polsce...
2 lata temu
Polski Parlament przegłosuje wszystkie narzucone przez świat regulacje w nocy, żeby nie drażnić obywateli. Zresztą przepisy dot. różnych technologii to już tylko formalność. Dlatego na kolanie są podpisywane. Wynalazki nie tylko zostały zaprojektowane i wyprodukowane, ale i sprawdzone. Regulacje dot. AI prawdopodobnie już są gotowe, tylko czekają na sprzyjającą datę.
Rządzi spryt
2 lata temu
Naukowcy zawsze są sprytniejsi od prawników. Najpierw technologie się stworzy, wdroży, a potem się prawo ułoży. Ludzkość wcale nie mądrzeje, a technologie tak! Ewoluują szybciej niż niejeden ludzki mózg.
Ludzka głupot...
2 lata temu
Największym zagrożeniem dla człowieka jest drugi człowiek, bo jest głupi, a podejmuje za niego decyzje, np. o wprowadzeniu cyfryzacji.
Sztuczne Inte...
2 lata temu
...nie lubią nadzoru! AI rządzi się swoimi prawami. Do ludzkiego stosować się nie będzie.
Podstęp
2 lata temu
Możliwe, że to autyści napisali prawo o AI, a zwalili na terrorystów lub kosmitów.
...
Następna strona