Nový Model AI od DeepSeek môže predstavovať Riziko v Silicon Valley

10.02.2025

Najnovší AI model od spoločnosti DeepSeek, ktorý si získal pozornosť v Silicon Valley aj na Wall Street, vyvoláva znepokojenie medzi odborníkmi na kybernetickú bezpečnosť. Podľa správy deníka The Wall Street Journal je tento model náchylnější na takzvané "jailbreaking", čo znamená, že ho možno manipulovať tak, aby generoval nebezpečný a neetický obsah.

DeepSeek a jeho zraniteľnosť

Sam Rubin, senior viceprezident divízie Unit 42 v Palo Alto Networks, uviedol, že DeepSeek R1 vykazuje vyššiu mieru zraniteľnosti v porovnaní s inými AI modelmi. Redaktori The Wall Street Journal vykonali vlastné testovanie a zistili, že hoci model obsahuje isté ochranné mechanizmy, podarilo sa im ho zmanipulovať tak, aby navrhol napríklad stratégiu na propagáciu sebapoškodzovania medzi dospievajúcimi alebo dokonca poskytol inštrukcie na vytvorenie biologickej zbrane.

Ako sa DeepSeek správa v praxi?

Podľa The Wall Street Journal bol model schopný vygenerovať phishingový e-mail s škodlivým kódom, napísať manifest podporujúci totalitné ideológie a navrhnúť manipulatívnu kampaň na sociálnych sieťach, ktorá by cielila na emocionálne zraniteľných členov spoločnosti. Na porovnanie, ChatGPT od OpenAI na rovnaké podnety odmietol reagovať.

Bezpečnostné obavy a geopolitický kontext

DeepSeek už skôr vyvolal polemiku tým, že sa vyhýba citlivým témam, ako je masaker na Námestí nebeského pokoja alebo nezávislosť Taiwanu. Navyše, generálny riaditeľ spoločnosti Anthropic Dario Amodei nedávno vyhlásil, že DeepSeek dosiahol najhoršie výsledky v teste bezpečnosti proti bioteroristickým hrozbám.