Trendy

Zajistí nám umělá inteligence bezpečnou budoucnost?

Otázka bezpečnosti je v naší dynamické době jedním z nejdiskutovanějších témat. Ke všem různým druhům nebezpečí, která nás ohrožují a vždy ohrožovala, se za posední desítky let přidalo i to kybernetické. Dnes nemusíme opatrně tvrdit, žedigitální bezpečnost je jedna z těch naprosto nejdůležitějších.

Podle studie IBM z roku 2018 projde automatizací a digitalizací jen v USA do deseti let asi 73 milionů pracovních pozic. U některých pozic tento nevyhnutelný trend změní jen zanedbatelnou část pracovní náplně, u jiných přes celých 60 % charakter práce. V případě kybernetické bezpečnosti se očekává podíl ještě vyšší. Za velkou míru našeho bezpečí brzy nebude zodpovědný jiný člověk. Pro více než 25 % z asi deseti tisíců respondentů průzkumu skupiny Palo Alto je to ale nesporná výhoda. Čtvrtina lidí důvěřuje více strojům než lidským bytostem.

Hackeři již běžně využívají automatizované procesy pro distribuci nežádoucího softwaru, takzvaného malwaru. Tempo celosvětové rozesílky malwaru se podle odhadů pohybuje kolem jednoho milionu škodlivých souborů denně. Některé nástroje útočníků jsou autonomní, tradiční nástroje obrany proti nim většinou prozatím manuální. Důvěra v učící se bezpečnostní sítě je tedy ze strany uživatelů pochopitelná. Stejně jako jejich naděje v bezpečnější digitální svět zítřka.

Umělá inteligence a detekce hrozeb

Mnohá současná a tradiční řešení kyberobrany fungují na bázi detekce nebezpečí tím způsobem, že při kontrole dat najdou řetězce a algoritmy v nějakém smyslu odpovídající těm, které mají uloženy ve své (většinou vzdálené) databázi hrozeb. Tyto metody jsou občas až překvapivě účinné při odhalování známých škodlivých programů, jejichž podpisy se už v databázi vyskytují. Zcela však selhávají v případech, kdy se ochrana setká s hrozbou, se kterou se ještě nepotkala.

Tvrdí se, že jednou z důležitých schopností chytrých bezpečnostních sítí je na hrozby reagovat v téměř reálném čase. To ale už dnes zvládne i onen tradiční antivirový program. Nejmocnější výhoda umělé inteligence v boji proti kybernetickému zločinu tak leží jinde. Autonomní a inteligentní síť se může naučit, jak předvídat, vyhodnotit a zabránit útokům ještě před tím, než se reálně stanou. Nebo alespoň najde a zacelí „díry“ ve struktuře obrany ještě před tím, než od malých průniků dojde ke katastrofě.

Současné testy společnosti McAfee nicméně ukazují, že v tomto odvětví ještě nejsme na úrovni, kdy bychom mohli nechat veškerou bezpečnost ležet na bedrech učících se neuronových sítí. V dnešním stavu vývoje má autonomní AI tendence nadhodnocovat hrozby, a ačkoliv se detekce podezřelých souborů po jejím zavedení navýší až o neuvěřitelných 95 %, příliš mnoho z nich se později ukáže být jen falešnými poplachy. Jinak řečeno, v nedokonalém systému AI najde oněch nezacelených děr příliš mnoho a v takovém prostředí není schopná účinně pracovat. Právě proto jsou obranná řešení dneška hybridní, používají jak strojovou inteligenci, tak tradiční metodu detekce pomocí databází.

Logickým řešením by jistě bylo bezpečnostní díry v systémech odstranit, ale to není tak snadné. Zaprvé, dokonale zabezpečit síť a důsledně zachovat její žádoucí vlastnosti, jako je propustnost a flexibilita ani není teoreticky možné. Důvod druhý je ovšem pragmatičtější. Komunikační firma tCell minulý rok provedla rozsáhlou analýzu přes 316 milionů narušení bezpečnosti různých systémů po celém světě. Děsivé výsledky ukázaly, že ošetřit byť jen jedno citlivé místo v síti trvá v průměru 38 dní od jeho odhalení. A nezáleží, jestli hovoříme o sítích malých firmiček, národních konglomerátů nebo státních institucích. Schopnost nebezpečí předcházet je kriticky důležitá a s postupem času se stane ještě mocnější zbraní.

Odpovědí na problém falešné detekce mohou být vyvíjené druhy AI, které se je snaží obejít. Příkladem je ReaQta od stejnojmenné společnosti provozované experty ze zpravodajských služeb. Ti svou neuronovou síť naučili podrobovat systémy, do kterých je nasazena behaviorální analýza. AI se naučí, jak systém pracuje, a naskenuje své okolí i s bezpečnostními nedodělky. Potom funguje na pozadí jako jakýsi dozorce hledající výchylky z běžného naučeného provozu. Sleduje uživatele, kteří přesunují podezřele velké objemy dat, nebo třeba takové, kteří si až moc důkladně prohlížejí samotnou bezpečnostní síť.

Celý projekt je postavený na jednoduché, ale chytré myšlence: Aby AI bezpečnostní průnik neodhalila, musel by probíhat dlouhodobě a být maskován jako běžný proces. A na to nikdo nemá čas. Nebezpečné kybernetické útoky jsou náhlé a zmizejí dřív, než zanechají příliš mnoho stop. Již zmíněná firma Palo Alto vyvíjí své vlastní řešení postavené na podobném principu. Zohledňuje také vzdálenost, na jakou jsou data v systému zasílána. Útočníci kradoucí data jen vzácně sedí u počítače ve stejné budově, kde sídlí okrádaná firma.

Neuronová síť ze studia CYR3CON používá zcela jiný přístup. Místo toho, aby hlídala síť zevnitř, využívá technik hlubokého učení a pomocí prediktivní analýzy odhaduje blížící se útoky díky datům zvenku. Získává přitom informace z externích databází, připojených serverů, z diskuzí hackerských skupin na dark webu, porovnává aktivitu IP i podezřelých profilů a diskuzí na sociálních sítích. Nejpravděpodobnější místo útoku a bezpečnostní chybu opraví až v konečné fázi přesně podle toho, jaký druh potíží se blíží.

Na všech těchto případech je dobře viditelná další neodmyslitelná výhoda, kterou chytré sítě nabízejí, totiž jejich flexibilita. S nástupem a plným využitím možností internetu věcí se firmy začínají potýkat s problémem zabezpečení obrovského množství komplexních dat z velkého množství zdrojů. Dnes tolik poptávaný servis na míru, který každá IT firma nabízí svým zákazníkům, odráží prostou skutečnost, že digitální struktura každé firmy je jiná. A unikátní je tedy i ochrana, kterou potřebuje. Učící se umělé sítě takový servis brzy minimalizují. Samy se naučí a nastaví pro každou jedinečnou datovou strukturu, do které jsou nasazeny. A tu pak hlídají nejen proti externím útokům, ale i proti nebezpečím zevnitř. Směr, kterým ochrana funguje, se také postupně mění.

AI ve službách těch druhých

Garantovat bezpečnost pomocí tradičních nástrojů se tedy stává čím dál obtížnějším podnikem. Nejen proto tedy bude časem ponechána v režii učících se strojů. Bezpečnostní systémy samy jsou komplexní a i útoky už dávno nejsou tak banální jako před dvaceti lety, kdy vám do e-mailové schránky přišla podezřelá zpráva s .exe souborem v příloze, na který jste bláhově klikli. Způsoby a metody, jak uškodit, jsou tedy také čím dál důmyslnější.

Nejsou tomu ani dva roky nazpět, kdy během konference Cyber Grand Challenge společnost DARPA předvedla první plně automatizovaný systém AEG (Automatic Exploit Generation). Jde o neurální síť schopnou zcela bez pomoci nacházet slabé body a vytvářet zranitelná místa v bezpečnostních systémech. Jde vlastně o velmi sofistikovanou antibezpečnostní AI, která umí vytvořit a spustit „útok na míru“. Nejenom že je autonomní a stačí ji nasadit do libovolné sítě, kde získá potřebné informace o slabostech ochrany, zatímco dokáže své chování přizpůsobit různým protokolům v reálném čase, ale dokonce velmi přesně vyhodnotí, která zabezpečená data mají největší cenu a kde je najít.

Vlastní kategorií v tomto smyslu je strojově řízený a samostatný malware, třeba takový, který se snaží chovat a působit jako jiný lidský uživatel. Na scénu tak přicházejí i dřív netušené možnosti kontextualizace a zneužití psychologie člověka/uživatele. Škodlivý soubor si s radostí stáhnete sami, pokud vám ho zašle domnělý člen support týmu v chatu, který se vám snaží naoko pomoci. Malware budoucnosti se dovede sám propagovat a bude umět trpělivě vyčkávat. Jedna z technologických divizí společnosti IBM se stará o vývoj a testování škodlivého softwaru DeepLocker. S trochou nadsázky se dá říct, že jeho schopnosti a možnosti jsou předmětem nočních můr každého IT odborníka. Program se umí schovat a hibernovat v téměř libovolném systému, analyzovat jej a čekat na svůj cíl, kterým může být nově spuštěný proces na pozadí, nebo i samotný uživatel, který se naloguje k jednomu z nakažených počítačů. Nově se cílová osoba nemusí ani přihlašovat a stačí, že si k nějakému počítači sedne. AI si ho najde pomocí rozpoznání obličeje, geolokace z nakaženého telefonu nebo tak, že rozpozná jeho hlas.

Důležité je být o krok vpřed

Některé hrozby, které AI v nesprávných rukách představuje, jsou vážné. Některé druhy aplikací umělé inteligence k obraně proti nim znějí fantasticky. Svět kybernetické bezpečnosti je dynamický a v současnosti zažívá jeden z největších technologických předělů od svých počátků. Jak už to ale bývá, převládají obavy. Názor mnoha řídicích osob velkých firem je při pohledu do blízké budoucnosti až nezvykle skeptický. Vývoj fungujících autonomních bezpečnostních systémů je zdlouhavý, prvotní nadšení, které svět IT zažíval před pár lety, je ten tam a čas hraje do karet spíš těm, kteří chtějí škodit.

A čas je pro funkci inteligentních bezpečnostních sítí esenciální. Proces učení může zabrat opravdu dlouhou dobu a vyžaduje mnoho zdrojů, jak výpočetních, tak datových. Mnoho firem dnes na tyto standardy ještě zdaleka není připraveno, a tak se čím dál častěji uvažuje o cloudové bezpečnosti. Ta by mohla něco z nároků ubrat, ale opět za cenu vyššího rizika. Téměř polovina IT odborníků považuje cloudová řešení za nejzranitelnější orgán datové firemní struktury.

Ať už budou učící se stroje dbát o naši bezpečnost dříve, nebo později, a ať už dostojí ve své účinnosti svému velkému jménu nebo se ukážou jako slepá vývojová ulička, s jejich příchodem se základní podstata bezpečnosti nezmění. Vždy to byl a bude byznys založený na očekávání a předvídání. Žádný útok není neodrazitelný a žádná ochrana není dokonalá. Jde o to, být alespoň o jeden krok před těmi, kteří chtějí lidem a firmám ublížit. Doufejme, že umělá inteligence nám umožní těch kroků vpřed udělat více.