CLOUDY podcast | #29 Jak EU krotí umělou inteligenci
- News
Proč se téma regulace umělé inteligence stalo tak důležitým?
Umělá inteligence je v podstatě taková černá skříňka – nevidíme do ní a nevíme, jak funguje. Víme, že když do ní dáme nějaký vstup, dostaneme nějaký výstup. Nevíme však, co je mezi tím, a to v některých lidech či organizacích vyvolává nedůvěru a strach z toho, kam půjdou moje data a co se s nimi stane.
Proto EU připravuje návrh zákona, tzv. AI Act.
Hrozí nám ztráta kritického myšlení a schopnosti rozlišovat realitu?
Ano, a právě proto připravovaná regulace klade důraz na transparentnost a ověřitelnost. Aby systémy uměly uvádět zdroje, případně upozorňovaly na to, že informace nemusí být zcela pravdivé – AI může „halucinovat“, tj. vymýšlet si.
AI je dnes pro mnoho lidí první volbou při hledání informací. Musíme si zvyknout informace ověřovat. Někdy stačí „jedno rychlé googlení“ a ušetří nás to problémů. Pokud si totiž uživatel přestane informace ověřovat, ztrácí ostražitost i kritické myšlení.
Co je hlavním cílem zákona EU, tzv. AI Act?
Základním cílem AI Actu je ochrana soukromí jednotlivce v rámci EU. AI Act má bránit zneužívání AI – například proti manipulaci, systematickému ovlivňování názorů, sledování či sociálnímu „skórování“ lidí. Každá technologie má dvě strany a jde o minimalizaci rizik.
Běžný uživatel může být ohrožen, zejména pokud do AI nástrojů vkládá citlivá nebo soukromá data. Data jsou cenné zboží. Jejich kombinováním si o nás třetí strany skládají profil a dokážou nás cíleně ovlivňovat.
Např. přesnější cílení reklamy, vyšší riziko podvodů, sofistikovanější phishingové techniky.
AI Act rozděluje systémy umělé inteligence podle rizika. Jaká to jsou?
Neakceptovatelné riziko: např. sociální skórování obyvatel, masové biometrické monitorování.
Vysoké riziko: rozhodování v bankách (úvěry, scoring), použití v kritické infrastruktuře, policejní a obranné nasazení – všude tam, kde je velký dopad na člověka a ten je mimo „rozhodovací smyčku“.
Nízké riziko: např. chatboty – pokud uživatel uplatňuje kritické myšlení a je zachována transparentnost, riziko je nižší.
Minimální riziko: vysvětlitelné modely, u nichž lze chování zdokumentovat a testovat (např. pomocí metod jako LIME).
Příkladem regulace, která chrání občana, je např. systém propojených městských kamer, které by nejen udělovaly pokuty, ale také snižovaly „sociální skóre“ – právě to AI Act zakazuje.
Dopravní AI radary spadají mezi vysoce rizikové a musí mít přísné záruky, aby nedošlo k jejich zneužití.
Při používání umělé inteligence platí pravidlo „human in the loop“ – tj. možnost interagovat s AI a možnost ji vypnout, tedy že člověk má mít kontrolu. Příkladem je autonomní vozidlo – máme možnost vypnout autopilota a jet sami.
Tedy já se rozhodnu, zda chci řídit sám, nebo to nechám na AI.
Jaké odlišnosti můžeme ve světě najít v rámci regulace AI?
Klíčové regiony i v této oblasti jsou Čína, Evropa a Amerika.
V Číně je umělá inteligence regulována státem – tj. co komise uzná za vhodné, to se používá, „v zájmu státu“.
V USA se AI ve větší míře používá k podpoře inovací – je tedy více obchodně zaměřená. Regulace a etické rámce existují, ale jsou méně důsledně vymáhány.
V Evropě se soustředíme především na ochranu soukromí jednotlivce, aby nebylo porušováno. Nejde jen o pokuty, ale o to, abychom nebyli redukováni na záznam v databázi, na jehož základě systém vyhodnotí, že je někdo náchylnější ke spáchání trestného činu, a začne ho automaticky monitorovat. Pokud se na to podíváme zcela laicky, nejvolnější (nejbenevolentnější) přístup v této oblasti mají pravděpodobně USA.
Celý podcast si můžete poslechnout na Spotify , Apple podcastoch nebo podívat na YouTube