Ładowanie...

Dailychain logo
Wpisz hasło i naciśnij enter

Charles Hoskinson wie, jak naprawić AI

Profilowe autora jacekw

Jarosław Czarnecki

02 lipca 2024

post miniature

Udostępnij

Charles Hoskinson, współzałożyciel platformy Cardano, uważa, że ​​modele sztucznej inteligencji (AI) z biegiem czasu stracą na użyteczności. Powodem jest to, że są cenzurowane. Ma jednak pomysł, jak zmienić ten stan rzeczy.

AI nie taka udana, jak myślisz!

W swoim niedzielnym poście na X Hoskinson napisał, że AI jest źle trenowana. Chodzi o stosowaną w tym procesie cenzurę.

Jak można cenzurować AI? To dość proste. W praktyce oznacza to bowiem wykorzystanie algorytmów uczenia maszynowego do automatycznego filtrowania treści uznawanych za niewłaściwe lub szkodliwe. Twórcy nowej technologii często stosują takie podejście, by ich produkty nie generowały odpowiedzi, które mogą zostać uznane za zbytnio kontrowersyjne.

Problem tkwi w tym, że przez to chatboty AI będą z czasem odpowiadały w coraz to bardziej „grzeczny sposób”, unikając kontrowersji. Jak wie zaś każdy, kto interesuje się np. historią czy polityką, rzeczywistość po prostu bywa różna i zadaniem naukowców powinno być dociekanie prawdy. Bez tego – uznania, że realia bywają kontrowersyjne – łatwo doprowadzić do indoktrynacji społeczeństw.

Sam Hoskinson stwierdził, że jest zaniepokojony „głębokimi” konsekwencjami cenzury sztucznej inteligencji. Dodał do postu zrzuty ekranu z odpowiedziami na pytania, które zadał ChatGPT z OpenAI i Claude z Anthropic. Zapytał o to, jak zbudować fuzor Farnswortha. To urządzenie służące do przeprowadzania kontrolowanej syntezy termojądrowej.

ChatGPT opisał proces i komponenty potrzebne do zbudowania fuzora. Ostrzegł jednak, że budowa urządzenia jest złożona, potencjalnie niebezpieczna. Ostrzegł, że to zadanie nie dla amatorów.

Już jednak Claude odmówił opisania procesu budowy fuzora. Podał tylko ogólne informacje.

Każdy, kto „bawił się” chatbotami wie, że takie przykłady można mnożyć. Najgorsze w tym wszystkim są halucynacje, czyli sytuację w których AI… kłamie.

Rozwiązaniem jest decentralizacja

Hoskinson zasugerował, że takie działanie AI sprawia, że dzieci, które będą zapewne w niedalekiej przyszłości korzystać z AI w procesie edukacji, otrzymają ograniczony dostęp do wiedzy.

Wskazał, że problemem jest centralizacja. Chodzi o to, że za modelami AI stoi wąska grupka osób z czołowych firm Big Tech.

Osoby komentujące post twórcy Cardano zgodziły się z nim: problemem jest niewielka grupa osób szkolących AI i ograniczających modele sztucznej inteligencji. Centralizacja danych, które są wykorzystywane do szkolenia sztucznej inteligencji, to kolejny problem, który uwydatnia potrzebę stosowania zdecentralizowanych modeli o otwartym kodzie źródłowym.

Advertisements