Trwa ładowanie...
Notowania
Przejdź na
Materiał partnera
|
aktualizacja

Jen czyli wychowawczyni od AI

4
Podziel się:

Maszyny uczą się od ludzi i z łatwością przejmują od nich stereotypy oraz uprzedzenia. W Google specjalny zespół dba więc o to, żeby sztuczna inteligencja była dobrze wychowana. Szefuje mu autorytet w tej dziedzinie – Jen Gennai, jedna z kluczowych przedstawicielek Doliny Krzemowej na Impact’19.

Jen czyli wychowawczyni od AI
(zdj. Edho Pratama)

Czym skorupka za młodu nasiąknie, tym na starość trąci - głosi przysłowie. Technologie z zakresu sztucznej inteligencji są jeszcze młode, ale już nasiąkają tym, czego uczą się od ludzi. Rodzi to sporo problemów, bo algorytmy przejmują jednocześnie cały szereg ludzkich wad.

- Wszyscy mamy mnóstwo uprzedzeń, a istniejące zbiory danych opierają się na stereotypach naszych i naszych przodków. Prawdziwym wyzwaniem w związku z bezpiecznym rozwojem sztucznej inteligencji jest więc to, że jeśli damy systemom dane zawierające uprzedzenia, systemy też będą uprzedzone – mówiła Jen Gennai, szefowa zespołu odpowiedzialnych innowacji w Google, w wywiadzie dla Evening Standard.

Rozumieć algorytmy

W ostatnich latach Google kilkukrotnie musiało mierzyć się z oskarżeniami o to, że algorytmy wyszukiwarki wyświetlają użytkownikom wyniki, które utwardzają i wzmacniają stereotypy.

Dla przykładu po wpisaniu w wyszukiwarkę obrazów hasła „CEO", czyli prezes, użytkownikom wyświetlano niemal wyłącznie zdjęcia białych mężczyzn w garniturach.

- Kiedy przyjrzeliśmy się temu szczegółowo, okazało się, że algorytm zaczął łączyć hasło “CEO” z pikselami o kolorze ciemno granatowym, a ponieważ na tych zdjęciach biali mężczyźni nosili garnitury w takim kolorze - tylko na bazie tego algorytm tak się nauczył. To pokazuje, że należy sprawdzać i kwestionować używane zbiory danych - mówiła wówczas Jen Gennai, która będzie gościem wydarzenia Impact '19, odbywającego się w dniach 21-22 maja w Krakowie.

Złota siódemka

Na co dzień Gennai kieruje w Google multidyscyplinarnym zespołem, składającym się m.in. z prawników, inżynierów, ekspertów od prywatności i nauk społecznych. Jego zadaniem jest dbanie o rozwój produktów i usług w zgodzie z właściwymi standardami. Jednym z takich działań była niedawna publikacja przez Google 7 zasad dla przyszłego rozwoju sztucznej inteligencji. Zgodnie z nimi, technologie tego rodzaju mają:

1. przynosić korzyść dla społeczeństwa,
2. unikać tworzenia lub utrwalania niesprawiedliwyc stereotypów,
3. być budowanie i testowane pod kątem bezpieczeństwa,
4. być kontrolowane przez ludzi,
5. zawierać zasady ochrony prywatności,
6. trzymać się wysokich standardów naukowych,
7. być wykorzystywane w sposób, który nie jest sprzeczny z tymi zasadami.

Wszyscy do Krakowa

Jaki będzie realny wpływ sztucznej inteligencji na gospodarkę i codzienne życie? W czym technologia będzie zastępowała człowieka? Żeby się tego dowiedzieć, nie trzeba jechać do Krzemowej Doliny czy Londynu. 21 i 22 maja Kraków - Miasto Gospodarz kongresu Impact’19 stanie samym sercem tygla, w którym realizują się innowacyjne idee i projekty. To wydarzenie, na którym przełomowe startupy, naukowcy, biznes i politycy mówią tym samym językiem. Impact’19 to 4 sceny, 6 tysięcy gości, 250 speakerów i dziesiątki wydarzeń towarzyszących. Stałymi bywalcami są tam m.in. premierzy jak i ministrowie z Polski oraz szefowie rządowych agencji (np. PFR i NCBR). W tym roku dołączą do nich kluczowi politycy z regionu CEE, w Krakowie pojawią się również wysocy rangą przedstawiciele takich potentatów i pretendentów jak Google, Orange, TAURON, Addo AI, MIT czy IBM Watson. Oni wszyscy pokażą swoje pomysły na to, jak przy wsparciu technologii, zmienić świat na lepsze. Impact’19 przyniesie też premiery najnowszych inwestycji, rządowych strategii i kluczowych raportów. Tutaj powstają pomysły i tworzone są projekty, które mają kluczowy wpływ na rozwój cyfrowej gospodarki. perspektywy biznesu. Na Impact’19 dzisiejszy liderzy - wielki biznes, startupy, środowisko naukowe, administracja publiczna - decydują o tym jak będzie wyglądać jutrzejszy świat.

Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.
KOMENTARZE
(4)
WYRÓŻNIONE
Joker ;-)
6 lat temu
Przykład z "CEO" jest śmieszny... A kogo miało pokazać? Czarnoskórego młodzieńca obwieszonego złotem? Jak wpiszemy "kobieta", to ma się pokazać Conchita Wurst? Chyba jestem uprzedzony ;-)
Aaaffg
6 lat temu
Jak zwykle resiści tępią białych. Typowe.
Gość
6 lat temu
A potem półgłówek jeden z drugim się dziwi, że islam się rozprzestrzenia. Tak dewiacji nie usprawiedliwia się tolerancją. I nie ma na siłę zmuszania do kochania kogoś, kogo się nie lubi.
NAJNOWSZE KOMENTARZE (4)
TAK tylko
6 lat temu
Programisci sami się przestraszyli Bo zobaczyli ze bez humanistycznego przygotowania nie stworza prawidlowego algorytmu opisujacego rzeczywistosc.
Gość
6 lat temu
A potem półgłówek jeden z drugim się dziwi, że islam się rozprzestrzenia. Tak dewiacji nie usprawiedliwia się tolerancją. I nie ma na siłę zmuszania do kochania kogoś, kogo się nie lubi.
Joker ;-)
6 lat temu
Przykład z "CEO" jest śmieszny... A kogo miało pokazać? Czarnoskórego młodzieńca obwieszonego złotem? Jak wpiszemy "kobieta", to ma się pokazać Conchita Wurst? Chyba jestem uprzedzony ;-)
Aaaffg
6 lat temu
Jak zwykle resiści tępią białych. Typowe.