V rukou kyberzločinců nebo autoritářského státu se umělá inteligence, stejně jako ChatGPT, může stát skutečnou hrozbou pro online anonymitu a naše soukromí.
Mar 10
Tue, 10 Mar 2026 at 06:16 AM 0

V rukou kyberzločinců nebo autoritářského státu se umělá inteligence, stejně jako ChatGPT, může stát skutečnou hrozbou pro online anonymitu a naše soukromí.

Studie dvou výzkumníků specializujících se na umělou inteligenci odhalila, že rozsáhlé jazykové modely dokáží rychle propojit anonymní účet na sociálních sítích se skutečnou osobou.

Je tohle konec online anonymity díky umělé inteligenci, která funguje jako super soukromý detektiv schopný odhalit i ty nejtajnější uživatele internetu? Tato myšlenka se může zdát přitažená za vlasy, ale práce těchto dvou výzkumníků dokazuje, že je to realita, nikoli fantazie. Studie, o které informoval The Guardian, odhaluje, že kyberzločinci stále častěji využívají umělou inteligenci k snadnější identifikaci anonymních účtů na sociálních sítích. Díky rozsáhlým jazykovým modelům (jako jsou ChatGPT, Claude, Gemini atd.) je možné propojit účet se skutečným člověkem, zejména na základě informací, které sdílí. To umožňuje sofistikované a ziskové útoky, vysvětlují Simon Lermen a Daniel Paleka, dva výzkumníci stojící za studií, kteří volají po „zásadním“ přehodnocení toho, co online považujeme za soukromé informace.

Umělá inteligence přizpůsobená k prohledávání webu, navržená pro křížové odkazování na data

Aby k tomuto objevu dospěli, nejprve integrovali dva anonymní účty do umělé inteligence a nechali ji získat co nejvíce informací. Jeden ze dvou účtů (@anon_user42) hovořil o svých problémech ve škole a o své tendenci venčit svého psa Biscuita v parku s názvem „Dolores“. Díky těmto informacím mohla umělá inteligence prohledat web a s vysokou mírou důvěry identifikovat osobu stojící za účtem.

Výzkumníci se domnívají, že tuto metodu mohou snadno zneužít hackeři, ale také vlády, které chtějí umlčet disidenty, kteří nejčastěji anonymně vedou kampaně na sociálních sítích. Velké jazykové modely skutečně disponují rychlou a vysoce efektivní analytickou kapacitou – možná až příliš efektivní – což vede ke křížovému odkazování na informace, které může ohrozit anonymitu a způsobit vážné bezpečnostní problémy. Hacker by se tak mohl snadno vydávat za někoho jiného a nalákat ho k phishingové operaci s využitím údajů shromážděných umělou inteligencí. K dosažení tohoto cíle již nejsou nutné nákladné procesy: stačí umělá inteligence a připojení k internetu. Studie sice ukazuje, že umělá inteligence je efektivní, ale Peter Bentley, profesor informačních věd na UCL, s tím nesouhlasí. V rozhovoru pro britská média odsuzuje trend, který by mohl vést k tomu, že „lidé budou obviňováni z věcí, které neudělali“. Existuje také riziko, že velké jazykové modely by se mohly spoléhat na veřejná data daleko za hranicemi sociálních médií. Mohly by být použity statistické zprávy, nemocniční záznamy a záznamy o přijetí.

Studie primárně ukazuje, že online, a zejména na sociálních sítích, může způsob interakce uživatele snadno dovést pozorovatele k jeho skutečné identitě. Proto je nezbytné být vždy opatrní při tom, co děláte online, a zároveň podniknout několik kroků k zachování úplné anonymity – například používáním e-mailové adresy nebo telefonního čísla odděleného od zbytku vašeho života. Oba výzkumníci vyzývají platformy sociálních médií, aby omezily přístup k datům, ke kterým má umělá inteligence přístup, zejména aby se zabránilo „scrapingu“, což je funkce široce používaná jazykovými modely ke shromažďování co největšího množství informací pro trénink.

Komentáře

Prosím Přihlášení zanechat komentář.

Chcete zveřejnit své téma

Připojte se ke globální komunitě tvůrců a snadno zpeněžujte svůj obsah. Začněte svou cestu pasivního příjmu s Digbly ještě dnes!

Zveřejněte to hned

Navrhováno pro vás