Przy obecnym tempie oczekuje się, że liczba użytkowników korzystających z aplikacji sztucznej inteligencji (AI) podwoi się w ciągu 7 miesięcy. W ostatnich dwóch miesiącach najszybciej rozwijającą się aplikacją AI był Google Bard. Przy obecnym tempie Google Bard nie jest jednak w stanie dogonić ChatGPT w ciągu najbliższego roku.
Tygodniowo liczba użytkowników korzystających z Google Bard rośnie o ponad 7 proc., w porównaniu do 1,6 proc. w przypadku ChatGPT.
Korzystanie z ChatGPT niesie zagrożenia
Analitycy Netskope odkryli, że kod źródłowy jest publikowany w ChatGPT częściej niż jakikolwiek inny rodzaj wrażliwych danych, w tempie 158 incydentów miesięcznie na 10 tys. użytkowników. Inne wrażliwe dane udostępniane w ChatGPT obejmują także dane:
- poufne – w tym dane finansowe i dotyczące opieki zdrowotnej,
- osobowe – wraz z własnością intelektualną
- hasła i klucze, zwykle osadzone w kodzie źródłowym.
Nieuniknione jest, że niektórzy użytkownicy będą przesyłać zastrzeżony kod źródłowy lub tekst zawierający poufne dane do narzędzi AI, które obiecują pomóc w programowaniu lub redakcji tekstu. Dlatego konieczne jest, aby firmy i przedsiębiorstwa kontrolowały sztuczną inteligencję, aby zapobiec wyciekom wrażliwych danych.
Ray Canzanese, dyrektor ds. badań nad zagrożeniami w Netskope Threat Labs.
Zakaz wykorzystania sztucznej inteligencji?
Netskope Threat Labs śledzi serwery proxy ChatGPT i ponad tysiąc złośliwych adresów URL oraz domen stworzonych przez cyberprzestępców, którzy chcą wykorzystać popularność sztucznej inteligencji do kradzieży danych.
Zdaniem ekspertów, blokowanie dostępu do treści związanych ze sztuczną inteligencją i aplikacji AI tylko częściowo ogranicza ryzyko wypływu wrażliwych danych. Odbywa się to jednak kosztem potencjalnych korzyści, jakie aplikacje AI oferują.
Dane Netskope pokazują, że w usługach finansowych i opiece zdrowotnej prawie 1 na 5 organizacji wdrożyła całkowity zakaz korzystania z ChatGPT przez pracowników. W sektorze technologicznym tylko 1 na 20 organizacji postąpiła podobnie.
Czytaj także: Sztuczna inteligencja zrewolucjonizuje rolnictwo
Zamiast całkowitych zakazów, eksperci Netskope radzą wprowadzić filtrowanie domen, adresów URL i kontrolę treści w celu ochrony przed atakami. Ponadto zalecają blokowanie dostępu do aplikacji, które nie służą żadnemu uzasadnionemu celowi biznesowemu lub stanowią nieproporcjonalne ryzyko dla organizacji. Należy także wdrożyć programy edukacyjne pracowników.
Wyniki są częścią raportu Cloud & Threat Report: AI Apps in the Enterprise. Opierając się na danych pochodzących od milionów użytkowników korporacyjnych na całym świecie, Netskope stwierdził, że wykorzystanie generatywnych aplikacji AI szybko rośnie, o 22,5% w ciągu ostatnich dwóch miesięcy, zwiększając ryzyko na ujawnienie wrażliwych danych.