W Akademii Biznesu Money pytamy liderów przedsiębiorczości i nauki o to, jaką obecnie technologię uważają za kluczową dla rozwoju nowoczesnego i zdrowego biznesu. Bartosz Baziński, dyrektor operacyjny w startupie SentiOne, nie ma trudności z wyborem.
- Sztuczna inteligencja i ChatGPT. Model ten ma znakomicie wymyślony sposób optymalizacji, gdzie zestaw językowy wytrenowany jest na ogromnych danych z wielką liczbą parametrów. Kontekst dla każdego słowa ma 2048 wyrazów i oddzielny model do scoringu odpowiedzi z wieloma punktami odniesienia. Dzięki czemu udało się go zoptymalizować pod kątem zwracania odpowiedzi robiących duże wrażenie na ludziach - argumentuje Bartosz Baziński.
- ChatGPT to blackbox (czarna skrzynka) typu question-answering, a więc generuje tekst, ale nie "rozumie" o co został zapytany. Bardzo ciężko nam sobie wyobrazić, w jaki sposób miałby bezpośrednio znaleźć zastosowanie w automatyzacji obsługi klientów, gdzie kluczowe jest przechodzenie pewnego określonego procesu, który rozwiązuje problem użytkownika - dodaje Baziński.
- Ten proces jest ściśle zdefiniowany przez firmę, dla wszystkich dużych przedsiębiorstw pełna kontrola nad jego przebiegiem i samymi komunikatami bota jest kluczowa pod kątem wizerunku marki, ewentualnych reklamacji itd. - dodaje. Zaznacza, że firma sama zamierza stworzyć podobną "czarną skrzynkę".
- Nikogo już nie trzeba przekonywać, że to przyszłość. Patrząc na zasoby SentiOne - zbiory danych i zespół - jestem przekonany, że dla języka polskiego nikt nie zbuduje lepszego modelu niż my - mówi. Wielkoskalowe modele (jak GPT) pozwalają jeszcze bardziej ulepszyć skuteczność rozpoznawania intencji, idziemy więc w kierunku pozyskania w przyszłym roku dużego grantu z NCBR na 30-40 mln zł z nowej perspektywy unijnej - dodaje.
- Planujemy zbudować podobny model, oparty jednak na danych dziedzinowych z naszych kluczowych branż - bankowości, ubezpieczeń, finansów. Wiele tego typu danych zbieramy w SentiOne z monitoringu internetu, a ponadto posiadamy informacje z wdrożeń produkcyjnych z kanałów tekstowych. W nowym roku wyjdą nowe karty obliczeniowe od Nvidia, w związku z tym infrastruktura stanieje i będzie można się zmieścić z wytrenowaniem takiego modelu w ok. 20 mln zł - tłumaczy.
- Rezultatem mogłoby być lepsze zrozumienie intencji użytkowników, szybsze budowanie botów (potrzeba mniej fraz uczących), ich automatyczne testowanie oraz generowanie odpowiedzi bota, w taki sposób, aby jego były bardziej ludzkie - kwituje.
Artykuł sponsorowany