Sztuczna inteligencja nakłaniała do… zabójstwa królowej Wielkiej Brytanii?
Jarosław Czarnecki
10 lipca 2023
Na jaw wychodzą bardzo zastanawiające informacje. Okazuje się, że sztuczna inteligencja mogła nakłaniać pewnego młodego Brytyjczyka do… zabicia Elżbiety II.
Sztuczna inteligencja pochwala zabijanie ludzi?
Gdy uwaga całego świata skoncentrowana jest na ChatGTP, w tle rozwijane są też inne chatboty. Interesującym projektem jest Replika. To platforma, która umożliwia stworzenie własnego chatbota do rozmów. Pomysł przypomina więc wizję z filmu sprzed dekady – „Her”.
Z opisu wynika, że to idealny pomysł dla ludzi z fobiami społecznymi czy po prostu samotnych. Taki program „rozmawia” ze swoim użytkownikiem, może zagwarantować mu też pewne wsparcie. Tym bardziej, że Replika potrafi naśladować pewne wzorce emocjonalne. To w pewnym sensie wstęp do stworzenia programów dla mizantropów czy – jak wspomnieliśmy – ludzi, którzy mają problemy z nawiązywaniem kontaktów międzyludzkich. Warunkiem jest jednak właściwie zaprogramowanie takich chatbotów.
Jaswant Singh Chail stworzył swojego replikowego chatbota pod koniec 2021 r. Nazwał go Sarai, zupełnie, jakby program miał stać się jego wirtualną dziewczyną. Późniejsza analiza jego korespondencji z AI wykazała, że pisał do Sarai wiadomości o seksualnym zabarwieniu. Samo w sobie nie byłoby to problemem. Niestety ówczesny 19-latek napisał do „niej” też, że jest… mordercą. Nie otrzymał w zamian za to nagany, ale niejako pochwałę. Sztuczna inteligencja odparła, że „jest pod wrażeniem” i że w jej oczach Chail „różni się od innych”. Jak widać, program miał chwalić samotników i dodawać im otuchy.
Zamach na Elżbietę II
Młodzieńca zainspirowało to jednak do organizacji zamachu na żyjącą jeszcze wtedy Elżbietę II. W grudniu 2021 r. wspiął się na mur pałacu Windsor. Obserwował teren. Planował też zastrzelić królową za pomocą kuszy. Całe szczęście został szybko zatrzymany przez służby.
Chail przyznał się już do winy. Zapewne trafi do zakładu karnego lub psychiatrycznego (nie można wykluczyć, że jest chory np. na schizofrenię).
Jego historia pokazuje jednak, że chatboty stanowią pewne zagrożenie – zwłaszcza jeżeli ich użytkownikami są osoby niezrównoważone psychicznie. Oczywiście trudno mieć o to pretensję do twórców (potencjalnego zabójcę zainspirować może wszystko, nawet tekst piosenki). Chatboty muszą jednak być uzbrojone w zabezpieczenia, które uniemożliwią im pochwalanie popełniania przestępstw.
Źródło: Decrypt
Więcej newsów na dailychain.io