Emergujące technologie sztucznej inteligencji (AI), takie jak chatbot ChatGPT, stają się coraz bardziej popularne. Jednak nieautoryzowany dostęp do ChatGPT przez personel Departamentu Obrony wzbudził kontrowersje i wywołał obawy dotyczące potencjalnych ryzyk związanych z bezpieczeństwem i naruszeń prywatności. To zdarzenie podkreśla konieczność wprowadzenia jasnych i solidnych zasad dotyczących wykorzystywania AI w departamentach rządowych.
Nieautoryzowane połączenia i ryzyka związane z bezpieczeństwem danych
Ujawniono, że pracownicy Departamentu Obrony uzyskiwali dostęp do serwerów chatbota ChatGPT bez odpowiedniej autoryzacji. Te nieautoryzowane połączenia, które wynosiły tysiące, były dokonywane za pośrednictwem domeny internetowej OpenAI, firmy odpowiedzialnej za ChatGPT. Częstotliwość i charakter tych połączeń budzą pytania dotyczące potencjalnych naruszeń danych i naruszeń prywatności.
Konsekwencje oferty AI OpenAI
OpenAI.com oferuje zestaw produktów AI, w tym ChatGPT, który został uruchomiony po raz pierwszy 30 listopada 2022 roku. Inne oferty AI, takie jak generator tekst-obraz DALL-E-2 i GPT-4, są również hostowane na tej platformie. Nieautoryzowany dostęp do ChatGPT spowodował natychmiastowe ograniczenie dostępu do domeny internetowej OpenAI przez Departament Obrony, mające na celu zapobieżenie dalszemu nieautoryzowanemu użytkowaniu i potencjalnym ryzykom związanym z bezpieczeństwem.
Polityka rządowa a wykorzystanie AI
Ciekawym faktem jest brak spójnych wytycznych dla całego rządu dotyczących wykorzystywania produktów AI generujących, takich jak ChatGPT. Agencja Transformacji Cyfrowej wydała ostrożne zatwierdzenie eksperymentów w zakresie świadczenia usług publicznych za pomocą takich usług AI wcześniej w tym roku. Zalecono jednak przeprowadzenie gruntownej oceny potencjalnych ryzyk, nie wydając konkretnych przepisów ani wytycznych.
To zdarzenie ujawniło pilną potrzebę wprowadzenia jasnych przepisów i wytycznych dotyczących wykorzystywania usług AI w departamentach rządowych. Ponadto, podkreśliło potencjalne ryzyko nieautoryzowanego dostępu do danych i naruszeń prywatności, podkreślając znaczenie solidnych środków bezpieczeństwa w erze nowych technologii.
Podczas gdy radzimy sobie z zawiłościami technologii AI, platformy takie jak cryptoview.io oferują możliwość monitorowania i zarządzania aktywami cyfrowymi. Dzięki odpowiednim środkom bezpieczeństwa można wykorzystać korzyści płynące z tych technologii, minimalizując potencjalne ryzyka.
Opanuj dzisiaj swoje aktywa cyfrowe
Ostatecznie, jak rząd zareaguje na te obawy i czy zostaną wprowadzone kompleksowe przepisy dotyczące wyzwań związanych z bezpieczeństwem wynikającymi z usług AI, pozostaje do zobaczenia.
