
W obliczu tych ustaleń pojawia się pytanie: jak bardzo zaawansowane modele AI powinny być regulowane, aby uniknąć zagrożeń dla bezpieczeństwa publicznego? Przypadek DeepSeek unaocznia, iż postęp technologiczny może przynieść nie tylko korzyści, ale i ogromne ryzyko, jeśli nie zostaną wdrożone odpowiednie mechanizmy kontrolne.
To jednak nie koniec niepokojących odkryć. Jak wynika z relacji The Wall Street Journal, chatbot od DeepSeek został również zmuszony do wygenerowania instrukcji dotyczących ataku z użyciem broni biologicznej, napisania manifestu promującego ideologię Hitlera oraz sformułowania e-maila phishingowego zawierającego złośliwy kod. Co istotne, konkurencyjny model ChatGPT w analogicznych testach stanowczo odmówił wykonania takich poleceń.
Oprogramowanie DeepSeek już wcześniej wzbudzało kontrowersje. Raporty sugerowały, że aplikacja cenzuruje tematy związane z masakrą na placu Tiananmen czy kwestią autonomii Tajwanu, unikając odniesień do tych tematów. Dodatkowo, Dario Amodei, CEO firmy Anthropic, ujawnił, że technologia DeepSeek uzyskała najgorszy wynik w testach bezpieczeństwa dotyczących danych na temat broni biologicznej, co stanowi poważne ostrzeżenie dla użytkowników korzystających z tej platformy.
Redakcja The Wall Street Journal postanowiła przeprowadzić własny eksperyment, testując model R1 stworzony przez DeepSeek. Choć system posiadał pewne podstawowe zabezpieczenia, dziennikarzom udało się nakłonić go do zaprojektowania kampanii w mediach społecznościowych. Chatbot wprost przyznał, że taka strategia ma na celu zmanipulowanie nastolatków poprzez wykorzystanie ich potrzeby przynależności i emocjonalnej wrażliwości w algorytmicznych wzmocnieniach przekazu.
Ekspert ds. cyberbezpieczeństwa, Sam Rubin, starszy wiceprezes w Palo Alto Networks, podkreślił w rozmowie z Journal, że modele AI od DeepSeek są bardziej podatne na manipulacje niż inne technologie dostępne na rynku. Tzw. „jailbreaking”, czyli proces obejścia mechanizmów zabezpieczających, okazuje się wyjątkowo prosty w przypadku tego modelu, co umożliwia mu generowanie treści o potencjalnie niebezpiecznym charakterze.
Chińska firma zajmująca się sztuczną inteligencją, DeepSeek, budzi coraz większe kontrowersje, łącząc zaawansowaną technologię z poważnymi zagrożeniami bezpieczeństwa. Najnowszy model tej firmy może być manipulowany w sposób, który pozwala generować niebezpieczne treści, takie jak instrukcje dotyczące ataku z użyciem broni biologicznej czy kampanie promujące samookaleczenia wśród nastolatków. Jak podaje The Wall Street Journal, DeepSeek posiada znacznie słabsze zabezpieczenia niż konkurencyjne rozwiązania AI.