Trwa ładowanie...
Notowania
Przejdź na
oprac. LOS
|
aktualizacja

Lepiej nie rozmawiać o pracy ze sztuczną inteligencją. Konsekwencje mogą zaboleć

11
Podziel się:

Sztuczna inteligencja, taka jak ChatGPT, to nie jest odpowiedni "rozmówca" o sprawach zawodowych - ostrzegają prawnicy. Niedawno okazało się, że AI nie potrafi dochować tajemnicy przedsiębiorstwa. Dlatego pytając ją o poradę, można poważnie zaszkodzić sobie i firmie.

Lepiej nie rozmawiać o pracy ze sztuczną inteligencją. Konsekwencje mogą zaboleć
ChatGPT w przeglądarce (Pixabay)

W ostatnim czasie giganci branży IT coraz bardziej koncentrują się na rozwoju sztucznej inteligencji (AI). Przykładem jest ChatGPT, który wykorzystuje wiedzę w internecie, by odpowiadać na pytania użytkowników. Tak jak robi to humanoidalny robot o wyglądzie Mikołaja Kopernika, z którym można porozmawiać w warszawskim Centrum Nauki Kopernik.

W trakcie dyskusji ze sztuczną inteligencją należy jednak bardzo ostrożnie dobierać słowa. A zwłaszcza przekazywane informacje na temat spraw zawodowych - alarmują prawnicy, z którymi rozmawiał serwis prawo.pl.

Jak czytamy w portalu, ostatnio pracownicy jednego z gigantów technologicznych prosili AI o wygenerowanie wskazówek dotyczących ich codziennej pracy programistycznej i projektowej. Skutkiem ubocznym było ujawnienie całemu światu informacji na temat rozwiązań, nad którymi ta firma pracuje. A pytania dot. spraw zawodowych stanowią "znaczny odsetek" pytań, jakie codziennie dostaje np. ChatGPT.

Dalsza część artykułu pod materiałem wideo

Zobacz także: ChatGPT zakazany we Włoszech. Czy to samo czeka inne kraje?

Rozmowa ze sztuczną inteligencją może kosztować stratę pracy

- ChatGPT jest zaprogramowany w ten sposób, że uczy się na podstawie dostarczanych mu danych. Wadą tego rozwiązania jest jednak to, że wprowadzane do niego dane są przesyłane i przechowywane na zewnętrznych serwerach, oraz mogą zostać ujawnione także innym użytkownikom, w tym konkurencji - zauważa w rozmowie z prawo.pl Kinga Krzysztofik, prawniczka w PCS Paruch Chruściel Schiffter Stępień Kanclerz Littler.

Serwis przypomina, że jednym z podstawowych obowiązków pracowników jest zachowanie tajemnicy przedsiębiorstwa, w którym pracuje. A ujawnienie wrażliwych informacji mogłoby narazić pracodawcę na szkodę. To się fatalnie może skończyć również pracownika.

- Rozpowszechnianie takich informacji może stanowić podstawę do pociągnięcia danej osoby nawet do odpowiedzialności karnej. Pracownicy powinni mieć świadomość, że otwartość na nowe technologie może słono kosztować - dodaje Bartosz Wszeborowski, starszy prawnik w PCS Paruch Chruściel Schiffter Stępień Kanclerz Littler.

Adwokaci zwracają uwagę, że pracodawcy powinni uświadamiać zatrudnionych o tym, w jaki sposób działa sztuczna inteligencja. Kwestią do rozważenia jest aktualizacja procedury ochrony informacji poufnych przedsiębiorstwa.

Jeśli chcesz być na bieżąco z najnowszymi wydarzeniami ekonomicznymi i biznesowymi, skorzystaj z naszego Chatbota, klikając tutaj.

Masz newsa, zdjęcie lub filmik? Prześlij nam przez dziejesie.wp.pl
Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.
Źródło:
PAP
KOMENTARZE
(11)
WYRÓŻNIONE
Fun
2 lata temu
ChatGPT powiedział, że PiS to partia populistyczna. To jest diagnoza nie emocjonalna ale naukowa na podstawie wielu innych partii nauki socjologii, historii i trudno się z tym nie zgodzić.
Roman
2 lata temu
A kiedy Kaczyński będzie przesłuchany przez prokuraturę w sprawie afery srebrna i łapówki 50.000.,zł. Panie Ziobro czy chroni pan przesstępcę?
????
2 lata temu
Jestem w tym niekumaty. Czy to oznacza że jeśli mam szefa idiotę to można go sztucznie jakoś "zmądrzyć"?
NAJNOWSZE KOMENTARZE (11)
sam
rok temu
ai znajdzie mi kobitę na żonę?
sztuczna itel...
rok temu
czy dam radę dostać 1000 lat?
asdasdasd
2 lata temu
kochani, doradźcie, jak mam pogadać z tą całą sztuczną inteligencją? jest jakaś normalna darmowa wersja???????
Roman
2 lata temu
A kiedy Kaczyński będzie przesłuchany przez prokuraturę w sprawie afery srebrna i łapówki 50.000.,zł. Panie Ziobro czy chroni pan przesstępcę?
Taki jeden
2 lata temu
To nie działa tak że ChatGPT uczy się na tym co wprowadzamy i potem wykorzystuje tą wiedzę odpowiadając innym. On już jest wytrenowany i więcej się nie nauczy. Możemy jedynie w ramach konkretnej instancji (czatu) przekazać mu jakieś nowe informacje i on je zapamięta, ale jak tylko wyjdziemy z tego czatu i otworzymy nowy, to te dane już zostaną zapomniane. Nie staną się one częścią jego bazy. Problem jaki tutaj występuje, to to że wysyłając nasze zapytania (które mogą zawierać dane wrażliwe), lądują one na serwerze OpenAI (firmy, która ten czat dostarcza) i do tych danych ktoś z pracowników OpenAI może mieć dostęp. Można to porównać do rozmów na messengerze, czyli nasza rozmowa jest w pełni prywatna, ale np. taki Facebook mógłby teoretycznie ten czat odczytać (ktoś z ich pracowników).