Umělá inteligence a její rizika – co nám hrozí a jak se bránit

  • Press
Když se mluví o umělé inteligenci (AI), často máme na mysli „černou skříňku“ – systém, který dostane vstup (například text, obrázek nebo jiné údaje) a „vyprodukuje“ z nich nějaký výstup. Proces mezi vstupem a výstupem se přitom někdy jeví jako magie: přesně nevíme, co se tam děje, ale výsledek často vypadá důvěryhodně.
AT_Pravda_P.Bakonyi_3.clanok_web_cover

Tyto systémy jsou však nebezpečné zejména tehdy, když se generovaný obsah (text, obrázky, videa) šíří bez upozornění, že jde o výtvor umělé inteligence. Takový obsah může být zneužit k ohrožení jednotlivců i široké veřejnosti.

Nejrozšířenější rizika

Jedním z nejběžnějších příkladů je generování textu. Pokud jste někdy zkoušeli AI nástroje pro tvorbu textu, možná jste si všimli, že když model nezná správnou odpověď, často si ji „vymyslí“ (tzv. halucinace). Model to dokáže podat tak přesvědčivě, že můžete snadno uvěřit, že se jedná o pravdivé informace. Takové situace lze odhalit manuálním ověřováním informací.

Generovaný obsah a jeho hrozby

Sociální sítě jsou již dlouho plné upravených příspěvků a fotografií. Dnes už málokterá fotka není alespoň trochu upravena, ať už filtrem nebo úpravami pro vylepšení vzhledu. Umělá inteligence toto posouvá ještě dále – stačí pár kliknutí v aplikacích v chytrém telefonu a dokážete jednoduché i složité úpravy fotek či videí.

Služby jako DALL·E nebo Leonardo.AI umožňují vytvářet zcela nové obrázky pouze na základě popisu toho, co chcete vidět. Po praxi lze vygenerovat obrázky nebo videa, která jsou na první pohled k nerozeznání od reality – včetně falešných videí se zvukem (deepfake).

artificial-intelligence-ai-machine-learning-ml-2025-04-29-00-07-50-utc

S trochou zkušeností dokážete vytvořit obsah, kterým můžete (nebo může někdo jiný) šířit nepravdivé informace, paniku nebo tvz. fake news. Obrázky mohou být upraveny tak, že znázorňují někoho v situaci, ve které ve skutečnosti nebyl – což může člověka zkompromitovat.

Ještě závažnější je zneužití AI k sociálnímu inženýrství a získávání důvěry obětí. Například při generování falešných emailů či SMS zpráv o nedoplatcích, které od vás žádají zaplatit nebo vyzradit osobní informace.

Doporučení – na co si dát pozor

  • Při podezřelých zprávách vždy pečlivě kontrolujte několik věcí.

  • Zkontrolujte gramatiku a pravopis – často jsou tam výrazné chyby.

  • Pokud zprávu považujete za podezřelou, ohlaste ji jako phishing.

  • Kontrolujte, kdo je odesílatel – telefonní čísla a emailové adresy si můžete ověřit na internetu. Zprávy ze zahraničních čísel jsou často varovný signál.

  • Ověřujte si fakta – nevěřte hned všemu, hlavně pokud vás zpráva vyzývá k rychlé reakci nebo platbě.

Umělá inteligence je skvělý pomocník, ale musíme být opatrní a kritičtí, abychom se nestali obětí podvodů.

ZDROJ: Pravda

decor

Novinky a články