Szef Anthropic: DeepSeek najgorzej wypadł w kluczowym teście bezpieczeństwa danych o broni biologicznej

<img src="https://techcrunch.com/wp-content/uploads/2023/09/53202070940ea57312b1ak.jpg?resize=1200,800″ alt=”Anthropic vs. DeepSeek”>

Ocena zagrożenia i przyszłość DeepSeek

Wyniki testów przeprowadzonych przez Anthropic to nie jedyny sygnał ostrzegawczy. Badacze bezpieczeństwa z Cisco również wyrazili poważne obawy co do R1. W swoich testach odkryli, że model ten nie blokuje żadnych szkodliwych zapytań, co oznaczało 100-procentowy wskaźnik skuteczności obejścia zabezpieczeń. Choć nie skupiono się na biobroni, eksperci Cisco z powodzeniem zmusili model do generowania informacji na temat cyberprzestępczości oraz innych nielegalnych działań.

Niepokojące wyniki testów

Jednak podobne problemy zaobserwowano także w innych popularnych modelach, należących do zachodnich gigantów technologicznych. Llama-3.1-405B od Meta oraz GPT-4o OpenAI również wykazywały wysokie wskaźniki awaryjności – wynoszące odpowiednio 96% i 86%.

Bez względu na kontrowersje, jedno jest pewne – DeepSeek stał się nowym, poważnym graczem na globalnym rynku sztucznej inteligencji. Jak zauważył Amodei, dotychczas w kategorii firm zdolnych do szkolenia zaawansowanej AI znajdowały się głównie Anthropic, OpenAI, Google oraz, być może, Meta i xAI. Jednak teraz do tego elitarnego grona dołącza DeepSeek, co może znacząco zmienić układ sił w branży.

Popularność DeepSeek rośnie mimo kontrowersji

Kwestia transparentności

Nowe chińskie przedsiębiorstwo zajmujące się sztuczną inteligencją, DeepSeek, budzi coraz większe emocje i obawy wśród ekspertów branży. Dyrektor generalny Anthropic, Dario Amodei, wyraził poważne zaniepokojenie ich modelem AI, R1, który według wielu analityków może stanowić wyzwanie dla globalnych liderów sztucznej inteligencji. Jednak Amodei zwraca uwagę na powody daleko wykraczające poza typowe obawy dotyczące transferu danych użytkowników do Chin.

Testy przeprowadzane przez Anthropic mają na celu ocenę, jakie zagrożenia dla bezpieczeństwa narodowego mogą wynikać z wykorzystania różnych modeli AI. Ich eksperci sprawdzają, czy systemy są w stanie generować informacje o potencjalnie destrukcyjnym charakterze, które nie są łatwo dostępne w publicznych źródłach, jak Google czy podręczniki naukowe.

W rozmowie na podcaście ChinaTalk, Amodei ujawnił, że podczas wewnętrznych testów bezpieczeństwa Anthropic, model DeepSeek generował informacje na temat broni biologicznej – i to w sposób, który zdaniem jego zespołu był wyjątkowo alarmujący. Według Amodeiego, R1 okazał się najgorzej zabezpieczonym systemem, jaki kiedykolwiek testowali. Model nie posiadał żadnych mechanizmów blokujących dostęp do tego rodzaju niebezpiecznych informacji.

Nowy gracz w świecie sztucznej inteligencji wywołuje kontrowersje

Z drugiej strony, zaczyna się formować coraz szerszy front organizacji i państw, które decydują się na wykluczenie DeepSeek ze swoich operacji. Na przykład Pentagon oraz US Navy już zakazały korzystania z tej technologii ze względu na ryzyko przesyłu danych do chińskich serwerów. Podobne kroki podejmują także inne firmy i rządy.

Chociaż Amodei nie uważa, że obecne modele DeepSeek należy uznać za „dosłownie niebezpieczne”, obawia się, że w niedalekiej przyszłości mogą osiągnąć ten poziom. Podkreślił, że firma powinna podjąć bardziej zdecydowane działania w zakresie bezpieczeństwa systemów AI, szczególnie biorąc pod uwagę ich rosnącą popularność. Mimo wszystko uznał inżynierów pracujących dla DeepSeek za niezwykle utalentowanych, jednak zaapelował, by odpowiedzialność za bezpieczeństwo była dla nich priorytetem.

Amodei opowiada się również za silnym ograniczeniem eksportu zaawansowanych chipów do Chin, argumentując, że taki transfer mógłby dać chińskiej armii przewagę technologiczną.

Nie tylko Anthropic bije na alarm

Przyszłość pokaże, czy obawy związane z bezpieczeństwem AI DeepSeek skłonią rządy i organizacje do bardziej stanowczych działań, czy też firma nadal będzie dynamicznie rozwijać się, przyciągając kolejnych partnerów technologicznych. W obliczu coraz większej rywalizacji na rynku sztucznej inteligencji kluczowym czynnikiem okaże się równowaga pomiędzy innowacyjnością a odpowiedzialnością za potencjalne zagrożenia, jakie może nieść rozwój tej potężnej technologii.

Nowy rywal w wyścigu AI

Mimo poważnych obaw o bezpieczeństwo, DeepSeek nadal zdobywa rynek. Giganci technologiczni, tacy jak AWS czy Microsoft, wprowadzili model R1 do swoich chmurowych ekosystemów. Sytuacja ta jest o tyle ironiczna, że jednym z największych inwestorów w Anthropic jest właśnie Amazon, którego AWS jednocześnie wspiera DeepSeek.

Warto zauważyć, że Amodei nie zdradził dokładnie, który model DeepSeek został poddany testom, ani nie podał szczegółowych aspektów technicznych badań. Co więcej, zarówno DeepSeek, jak i Anthropic, nie udzieliły komentarza w tej sprawie redakcji TechCrunch, co rodzi dodatkowe pytania na temat zakresu i precyzji przeprowadzonych analiz.