CS EN
Bitter

Velký bratr 2.0: AI sledování a eroze soukromí

Stanfordova zpráva AI Index 2025 zdokumentovala 56,4% nárůst incidentů souvisejících s AI za jediný rok, s 233 hlášenými případy v průběhu roku 2024. Tyto incidenty sahají od porušení soukromí a diskriminačních výsledků po neoprávněné sledování a zneužití dat. Trajektorie je jasná: jak se systémy AI šíří, rostou i jejich rizika (Stanford HAI, 2025).

Rozsah AI sledování se dramaticky rozšířil. Pokročilé rozpoznávání vzorců a analýza obrazu umožňují AI odvodit citlivé osobní údaje ze zdánlivě nesouvisejících datových bodů. Vaše nákupní vzorce mohou předpovědět váš zdravotní stav; váš rytmus psaní vás může identifikovat napříč zařízeními; vaše aktivita na sociálních sítích může odhadnout vaše politické názory, sexuální orientaci a stav duševního zdraví (Stanford HAI, 2025).

Na pracovišti se AI monitorovací nástroje staly všudypřítomnými. Firmy používají AI ke sledování úhozů kláves, monitorování aktivity obrazovky, analýze sentimentu e-mailů a dokonce hodnocení výrazů obličeje během videohovorů. V USA neexistuje prakticky žádná povinnost tyto aktivity zaměstnancům sdělovat (DigitalOcean, 2025).

Vládní sledování se také rozšiřuje. Objevily se zprávy o tom, že americké Ministerstvo vnitřní bezpečnosti používá AI nástroje k monitorování příspěvků na sociálních sítích od osob žádajících o víza nebo zelené karty. Schopnost analyzovat miliony příspěvků v reálném čase identifikuje vzorce, které by žádný lidský analytik nedokázal odhalit (Brookings, 2025).

Důvěra veřejnosti se vytrácí. Důvěra v AI společnosti ohledně ochrany osobních údajů klesla z 50 % v roce 2023 na pouhých 47 % v roce 2024, zatímco 70 % dospělých nevěří firmám s AI ve správě jejich dat. V reakci americké federální agentury vydaly 59 regulací souvisejících s AI v roce 2024 — více než dvojnásobek oproti roku 2023. EU AI Act také zavádí přísné požadavky na AI systémy používané pro sledování (CSA, 2025).

Klíčové zdroje

  • Stanford HAI (2025). AI Index Report 2025.
  • International AI Safety Report (2025). Privacy Risks from General Purpose AI.
  • Brookings Institution (2025). How AI can enable public surveillance.

Mohlo by tě zajímat