Ładowanie...

Dailychain logo
Wpisz hasło i naciśnij enter

ChatGPT przejdzie audyt. Chodzi o rzetelność informacji, jakie przekazuje

Profilowe autora JaroslawCzarnecki

Jarosław Czarnecki

03 czerwca 2023

post miniature

Udostępnij

Wszyscy wiemy, że bolączką chatbota ChatGPT jest to, że nierzadko… kłamie. Jego twórcy chcą go więc udoskonalić. 

Audyt ChatGPT

ChatGPT to intrygujące narzędzie. Dziś wiele osób twierdzi, że zastąpi wielu pracowników w takich branżach jak np. prawo, dziennikarstwo, marketing czy medycyna. To możliwe, ale raczej za wiele lat. Powodem jest to, że chatbot dość często kłamie. Podaje po prostu zmyślone informacje.

Firma OpenAI, która stoi za ChatGPT, zna problem i chce udoskonalić swoje „dziecko”, by to nie zmyślało z taką pasją, jak robi to obecnie. Pierwszym krokiem do realizacji tego celu jest poprawa  możliwości rozwiązywania problemów matematycznych przez chatbota. Ma to pomóc w przekazywaniu przez narzędzie wiarygodnych informacji. 

To, co opisujemy, to tzw. “halucynacja AI”. Nie chodzi przecież o to, że ChatGPT jest złośliwy i celowo nas okłamuje. Sednem problemu jest to, że jest to program, który nadal nie jest w pełni dopracowany (możliwe, że nie powinien w ogóle trafić na rynek). 

Eksperci OpenAI analizowali teraz dwa rodzaje przekazywania i przetwarzania przez chatbota informacji. Pierwszy model opiera się na wyniku końcowym, a drugi  na danych wejściowych. Wszystko przeanalizowano za pomocą matematyki. Okazało się, że drugi model jest skuteczniejszy.

Nie można polegać tylko na chatbocie

O tym, że nie można polegać jedynie na ChatGPT, boleśnie przekonał się niedawno prawnik Steven Schwartz. Jego klient zatrudnił go, by zdobył dla niego odszkodowanie od linii lotniczej. W czasie lotu został bowiem poturbowany. 

Niestety adwokat okazał się zarazem leniwy i nazbyt ufny w możliwości AI. Przygotowując materiały do rozprawy oparł się na ChatGPT. Program wygenerował mu dokumentację, ale w argumentacji, która miała sugerować, że klientowi Schwartza należy się odszkodowanie, użył przykłady… zmyślonych spraw sądowych. Innymi słowy, wymyślił na poczekaniu sprawy, które pasowały pod tezę swojego użytkownika. Ten ostatni zapewne sam niechcący zastosował takie zapytanie, które niejako wymusiło na AI naginanie rzeczywistości. Sędzia, który prowadził sprawę, wykrył wszystkie te kłamstwa. Teraz adwokata czekają nieprzyjemności…

ChatGPT został tymczasowo zakazany we Włoszech. Chodziło jednak nie o owe zmyślenia, ale inne kwestie – dot. danych osobowych.

Źródło: nypost.com, OpenAI

Więcej newsów na dailychain.io

TAGI:
Advertisements