ChatGPT zakazany we Włoszech
Jarosław Czarnecki
01 kwietnia 2023
Włoski urząd ochrony danych osobowych nakazał czasowe ograniczenie przetwarzania danych włoskich użytkowników przez OpenAI. Chodzi o amerykańską firmę, która stoi za ChatGPT.
ChatGPT jednak nie zrewolucjonizuje naszego świata?
Nazwa „ChatGPT” nie schodzi z czołówek gazet i portali internetowych. Mowa o chatbocie firmy OpenAI, który jest oparty na sztucznej inteligencji. Wielu ekspertów uważa, że zrewolucjonizuje sposób wyszukiwania informacji w sieci i… pozbawi pracy wiele osób. Najczęściej wskazuje się programistów (chatbot potrafi pisać kod), copywriterów (program jest w stanie pisać proste, krótkie notki lub bardziej rozbudowane choć słabsze jakościowo dłuższe treści) czy nawet radców prawnych.
Od razu dodajmy, że entuzjazm do programu spada, gdy zaczyna się z niego korzystać i poznawać jego liczne ułomności. Wątpliwe, by szybko pozbawił pracy miliony ludzi, jak sugerują niektórzy. Teraz jednak poznajemy kolejne ograniczenia ChatGPT. Chodzi o kwestie prawne — ochronę danych osobowych.
Włochy uderzają w ChatGPT
Włoski urząd zajmujący się danymi osobowymi nakazał zablokowanie we Włoszech ChataGPT, dopóki firma, która za nim stoi, nie będzie przestrzegać regulacji dotyczących kwestii prywatności. Jakby tego było mało, regulator rozpoczął dochodzenie w tej sprawie.
O co dokładnie chodzi? Przede wszystkim urzędnicy wskazali na brak informacji dla użytkowników, których dane gromadzi OpenAI. Do tego dochodzi brak podstawy prawnej, która uzasadniałaby gromadzenie i przechowywanie danych osobowych.
Warto też zauważyć, że z warunków, które zostały opublikowane przez OpenAI, wynika, że z ChatGPT mogą korzystać osoby powyżej 13. roku życia. Włoscy urzędnicy wskazują jednak na to, że w systemie brakuje jednak filtrów do weryfikacji wieku użytkowników. W efekcie z programu mogą korzystać osoby, które mają mniej niż 13 lat, mogące być zarazem narażone na treści dla nich nieodpowiednie.
Europol ostrzega przed AI
To jednak nie wszystko. Szerzej ChatGPT przyjrzał się Europol. W swoim komunikacie zauważył, że AI może być pomocne dla przestępców w zakresie socjotechniki (np. phishingu), siania dezinformacji i różnych działań z zakresu cyberprzestępczości.
Źródło: Business Insider, Europol
Więcej newsów na dailychain.io