Proč se lidé bojí umělé inteligence?

Média často zvýrazňují potenciální rizika a nebezpečí AI, někdy na úkor diskuse o jejích přínosech. Zprávy o AI mohou být zaujaté nebo senzacionalistické, což může vést k strachu a nedorozuměním. Kupříkladu filmy a televizní seriály často zobrazují AI jako hrozbu pro lidstvo, což může ovlivnit vnímání lidí o reálných AI technologiích.

Důvody, proč se lidi bojí Umělé Inteligence

# Ztráta kontroly nad AI

AI může být nebezpečná, pokud se stane autonomní a nekontrolovatelná. Existuje obava, že AI by mohla překonat lidské schopnosti a rozhodování, což by mohlo vést k nekontrolovatelným situacím. Existuje strach, že pokud nebude AI pečlivě kontrolována, může se stát příliš silnou a potenciálně převzít kontrolu, což je téma mnoha sci-fi filmů a konspiračních teorií. Tyto obavy jsou často zvýrazněny v populární kultuře a sci-fi filmech.

# Umělá inteligence nahradí lidskou práci.

Mnoho lidí se obává, že AI a automatizace nahradí lidskou práci a způsobí masovou nezaměstnanost. Zatímco AI může vytvořit nové pracovní příležitosti, existuje obava, že tyto nové role budou vyžadovat vyšší úroveň dovedností a vzdělání, což by mohlo znevýhodnit určité skupiny lidí. Umělá inteligence a automatizace práce s AI již prokázaly svou schopnost zvládat řadu úloh, které byly dříve vykonávány lidmi. Zatímco to přináší značné výhody v oblasti efektivity a produktivity, také to zvyšuje obavy o budoucnost lidské práce. Více o využití umělé inteligence v praxi najdete v našem podrobném přehledu.

# Strach z neznámého

Jedním z hlavních důvodů, proč se lidé obávají umělé inteligence, je její inherentní složitost a obtížnost porozumění. Technologie AI se rychle vyvíjí a stává se stále komplexnější, což může být pro mnoho lidí obtížné sledovat a porozumět. Umělá inteligence, ačkoliv je často prezentována jako nástroj s obrovským potenciálem, může být zároveň vnímána jako něco neznámého a tajemného. Tento nedostatek porozumění může vést k nejistotě, strachu nebo dokonce nedůvěře vůči této technologii. Lidé mohou mít obavy z toho, jak AI funguje, jaké jsou její možnosti a jak může ovlivnit jejich životy. Proto je důležité začít od základů – například si přečíst definici umělé inteligence nebo prozkoumat různé oblasti umělé inteligence.

# Nejistota z budoucnosti

Nejistota a obavy o budoucnost jsou dalšími důvody, proč se lidé obávají umělé inteligence. Tempo, jakým se technologie AI vyvíjí, je rapidní a někdy až závratné. Mnoho lidí má obavy o to, jak daleko tento vývoj půjde a jaké budou jeho důsledky pro společnost, ekonomiku a každodenní život. Nejistota o budoucnosti s AI může být vyvolána řadou otázek: Jaké role bude AI hrát v našich životech? Jak bude ovlivněna práce, zábava, zdravotnictví, vzdělání a další oblasti naší společnosti? Budeme schopni kontrolovat a řídit vývoj AI? Jaké budou etické důsledky rozšířeného nasazení AI? Více informací o směřování AI naleznete v článku o technologiích budoucnosti. Tato nejistota může být zvlášť silná, pokud lidé nemají jasnou představu o tom, co mají očekávat, a pokud si nejsou jisti, jaký dopad bude mít AI na svět kolem nich. To může vést k obavám a strachu, které mohou být zesíleny mediálními zprávami a populárními zobrazeními AI.

# Skepticismus ohledně autenticity a spolehlivosti

V některých kruzích existuje skepticismus ohledně pravé podstaty a spolehlivosti umělé inteligence. Mnozí lidé tvrdí, že aktuální AI, ačkoli je velmi pokročilá, je ve skutečnosti spíše „simulátorem inteligence“ než skutečnou umělou inteligencí. Tento skepticizmus je částečně založen na faktu, že AI je omezená na to, co byla naučena, a nemůže překročit rámec svých algoritmů a trénovacích dat. To znamená, že je náchylná k chybám a může reprodukovat negativní vzorce nebo stereotypy, které jsou přítomny v datech, na kterých byla trénována. Například, pokud jsou trénovací data plná genderových stereotypů, AI může tyto stereotypy naučit a aplikovat je ve svých rozhodnutích a doporučeních. Konkrétní příklady použití generativní AI však ukazují, co současné systémy skutečně dokážou. Toto zpochybňování schopností AI ukazuje, že je důležité mít realistická očekávání ohledně toho, co AI může a nemůže udělat, a rozumět jejím omezením. Také to zdůrazňuje význam etických přístupů při vývoji AI a potřebu pečlivého sledování a kontroly procesu trénování AI, aby se minimalizovaly negativní výsledky.

# Ztráta soukromí a bezpečí

AI systémy, jako je ChatGPT, jsou schopné zpracovávat obrovské množství dat a učit se z nich. To může vést k obavám o soukromí, pokud jsou tyto systémy používány k monitorování nebo shromažďování osobních údajů bez souhlasu uživatelů. Proto je klíčové dodržovat bezpečnostní principy AI a šifrování dat.

# Etika a morální důsledky

AI systémy, jako je ChatGPT, nejsou v současnosti schopny chápat morální a etické důsledky svých akcí stejně jako lidé. To může vést k problematickým situacím, pokud AI provede akci, která by byla považována za neetickou nebo nemorální, pokud by ji provedl člověk. Mnoho lidí má obavy z toho, jak AI zachází s jejich osobními daty, zejména pokud je tato AI využívána velkými technologickými společnostmi.

# Sociální a ekonomická nerovnost

Existuje riziko tzv. „digitální propasti“, kdy mají někteří lidé a organizace lepší přístup k pokročilým technologiím, jako je AI, než ostatní. Toto může vést k situaci, kdy ti, kteří mají přístup k AI technologiím, získají výhody v podobě zvýšené produktivity, efektivity a možná i finančního zisku. Na druhé straně, ti, kteří nemají přístup k těmto technologiím, mohou být znevýhodněni a zaostávat. Zodpovědná implementace AI do firem může pomoci tento problém řešit. S rostoucí automatizací a využitím AI v různých odvětvích může dojít k polarizaci pracovního trhu. Vysoce kvalifikované a specializované role, které vyžadují pokročilé dovednosti a vzdělání, mohou profitovat, zatímco nízko kvalifikované role, zejména ty s rutinními úkoly, mohou být zranitelné vůči nahrazení AI. Proto je důležité naučit se práci s umělou inteligencí a aktivně se připravovat na změny na trhu práce.

Časté otázky o rizicích umělé inteligence

Odpovědi na nejčastější obavy týkající se AI a jejího dopadu na společnost

Podle studie Boston Consulting Group by měla umělá inteligence do roku 2035 ovlivnit více než 40 % pracovních míst v České republice, což se týká přibližně 2 milionů lidí.

Česká národní banka uvádí, že zatím existuje jen málo důkazů o snížené poptávce po pracovní síle v důsledku aplikace umělé inteligence. Spíše jde o realokaci – vznik nových pracovních míst souvisejících s AI a zánik jiných pozic, obvykle s nižší kvalifikací. Klíčem k adaptaci bude rekvalifikace a celoživotní vzdělávání.

Národní strategie umělé inteligence ČR 2030 zdůrazňuje potřebu zaměřit se na etické, právní a bezpečnostní aspekty AI. Ačkoliv obavy z nekontrolovatelné AI existují, současná AI je stále omezená na své algoritmy a trénovací data.

Klíčové je zajistit transparentnost vývoje, kontrolu nasazování a etické používání AI. Strategický dokument MPO přispívá k rozvoji českého ekosystému umělé inteligence s důrazem na bezpečnost a ochranu hodnot společnosti.

AI systémy nejsou v současnosti schopny chápat morální a etické důsledky svých akcí stejně jako lidé. Mohou reprodukovat negativní vzorce nebo stereotypy přítomné v trénovacích datech – například pokud jsou data plná genderových stereotypů, AI může tyto stereotypy naučit a aplikovat je ve svých rozhodnutích.

Hlavní etické výzvy

  • Transparentnost algoritmů - Nutnost vysvětlitelnosti rozhodovacích procesů AI
  • Ochrana osobních údajů - Respektování soukromí při zpracování dat
  • Odpovědnost za rozhodnutí - Nejasné hranice odpovědnosti za chyby AI
  • Předsudky v datech - Riziko diskriminace kvůli zkreslení trénovacích dat

Podle České asociace umělé inteligence vzrostl počet kybernetických útoků prostřednictvím deepfakes v roce 2023 desetinásobně. V Evropě zaznamenal počet těchto útoků nárůst o 780 procent.

Deepfake technologie umožňuje vytváření realistických videí a audio nahrávek, které jsou prakticky nerozeznatelné od reality. Podle advokátní kanceláře ARROWS díky schopnosti generovat přesvědčivé deep fake videa mohou dezinformační kampaně získat na uvěřitelnosti a dosáhnout většího dosahu než kdy jindy.

Nadměrná závislost na AI nástrojích může vést k oslabení schopnosti kritického myšlení a samostatného uvažování. Když lidé rutinně spoléhají na AI odpovědi bez ověřování, může to postupně oslabit jejich analytické schopnosti.

Vzdělávací instituce a mediální organizace by měly hrát klíčovou roli při zvyšování povědomí a informovanosti o AI. Informovaní uživatelé jsou méně náchylní k šíření dezinformací a lépe rozpoznají falešné zprávy či manipulativní obsah.

AI systémy jsou schopné zpracovávat obrovské množství dat a učit se z nich. To může vést k vážným obavám o soukromí, pokud jsou tyto systémy používány k monitorování nebo shromažďování osobních údajů bez souhlasu uživatelů.

V českém právním systému se při ochraně osobních údajů vychází z GDPR, které stanoví pravidla pro zpracování osobních dat získaných i prostřednictvím umělé inteligence. Dalším důležitým předpisem je zákon o kybernetické bezpečnosti, který stanovuje ochranné prostředky pro informační systémy.

Otázka odpovědnosti za újmu způsobenou AI je v současnosti v České republice i v EU nejasná. Podle studie Aspen Institute je stávající právní úprava v oblasti odpovědnosti za újmu s ohledem na rostoucí provázanost systémů a jejich komplexitu neudržitelná.

V současnosti panuje nejistota z důvodu nepředvídatelných výsledků při aplikaci stávajícího práva na nové problémy spojené s AI. Bude nutné najít nové řešení, které však bude závislé na celoevropském přístupu.

Existuje riziko tzv. "digitální propasti", kdy někteří lidé a organizace mají lepší přístup k pokročilým technologiím než ostatní. Ti s přístupem k AI získají výhody v produktivitě a efektivitě, zatímco ostatní mohou zaostávat.

Česká republika patří k zemím s největším očekávaným dopadem automatizace a technologie využívající AI, zejména v oblastech jako výroba, maloobchod, velkoobchod, zdravotnictví a sociální služby. S rostoucí automatizací může dojít k polarizaci pracovního trhu – vysoce kvalifikované role budou profitovat, zatímco nízko kvalifikované pozice mohou být zranitelné.

Podle České asociace umělé inteligence se spotřeba energie odvětví AI může pohybovat mezi 85 a 134 terawatthodinami elektřiny ročně, což odpovídá přibližně dvojnásobku roční spotřeby ČR (v roce 2022 činila spotřeba elektřiny v Česku 60,4 TWh).

Mezinárodní energetická agentura odhaduje, že roční spotřeba elektřiny na provoz AI dosáhla v roce 2023 460 TWh – to je osmkrát více, než spotřebuje celá Česká republika. Do roku 2030 by AI mohla spotřebovávat 10 % celkové světové produkce energie.

AI může reprodukovat negativní vzorce nebo stereotypy přítomné v trénovacích datech. Pro eliminaci předsudků je důležité:

  • Zajistit rozmanitost trénovacích dat – Data musí reprezentovat různé skupiny populace
  • Transparentnost algoritmů – Možnost kontroly a auditu rozhodovacích procesů
  • Pravidelné testování – Systematické ověřování modelů na přítomnost předsudků
  • Diverzita vývojových týmů – Zapojení lidí z různých prostředí a perspektiv
  • Etické dohledové mechanismy – Nezávislé kontrolní orgány pro hodnocení AI systémů

V českém právním systému se umělá inteligence upravuje v obecných právních předpisech jako je občanský, trestní a autorský zákoník. Tyto předpisy mohou obsahovat ustanovení, která se vztahují na aspekty AI, například práva duševního vlastnictví nebo odpovědnost za škodu.

Otázky autorských práv k AI generovanému obsahu zůstávají částečně nevyřešené. Není například jasné, kdo je autorem díla vytvořeného umělou inteligencí – uživatel, vývojář AI, nebo nikdo. Legislativa EU včetně Aktu o umělé inteligenci postupně řeší tyto otázky.

Nadměrné spoléhání na AI asistenty a chatboty může vést ke snížení mezilidských interakcí a sociální izolaci. Když lidé nahrazují skutečné vztahy interakcemi s AI, může to negativně ovlivnit jejich emocionální inteligenci a sociální dovednosti.

Je důležité, aby AI byla využívána jako nástroj pro zlepšení lidské komunikace, nikoliv jako její náhrada. AI by měla podporovat, nikoliv nahrazovat lidské vztahy. Například AI může pomoci překonat jazykové bariéry nebo usnadnit komunikaci lidem s hendikepem, ale neměla by se stát primárním zdrojem společenského kontaktu.

Podle expertů z Masarykovy univerzity mohou deepfakes a AI generované dezinformace způsobit politické krize, ovlivnit volby a šířit nenávist. Technologie deepfake dokáže vytvářet falešná prohlášení politiků tak věrohodně, že nejsou rozeznatelná od reality.

S pomocí sofistikovaných algoritmů mohou být falešné zprávy, dezinformace a konspirační teorie šířeny na sociálních sítích téměř okamžitě. To představuje vážnou hrozbu pro demokratické procesy a stabilitu společnosti.

AI umožňuje sofistikované phishingové útoky s využitím deepfake videí a audio nahrávek. Útočníci mohou vytvářet falešná videa nebo nahrávky, kde se představí jako vedoucí pracovníci, přátelé či příbuzní oběti.

Podle manuálu České asociace umělé inteligence se jedná o rostoucí hrozbu – počet incidentů s deepfake vzrostl v roce 2023 desetinásobně. Mezi nejčastější útoky patří tzv. CFO fraud, kdy útočníci imitují vedoucí pracovníky a žádají o převod peněz. Obrana proti těmto útokům vyžaduje školení zaměstnanců a implementaci bezpečnostních protokolů.

Nadměrné používání AI nástrojů může ovlivnit vývoj kritického myšlení, kreativity a schopnosti řešit problémy u dětí. Když děti rutinně používají AI k vypracování domácích úkolů nebo řešení problémů, netrénují vlastní myšlenkové procesy.

Doporučení pro zodpovědné používání AI u dětí

  • Naučit děti používat AI jako pomocný nástroj, nikoli jako náhradu vlastního uvažování
  • Rozvíjet schopnost kriticky hodnotit AI výstupy a ověřovat informace
  • Integrovat výuku o AI a digitální gramotnosti do školních osnov
  • Stanovit rozumné časové limity pro práci s AI nástroji
  • Podporovat aktivity rozvíjející kreativitu a samostatné myšlení

Vladimír Matula

Vladimír Matula se v digitálním marketingu pohybuje od roku 2008. Svou expertízu staví na pevných základech z předních českých agentur, kde se specializoval na tvorbu webů, ecommerce, SEO a webovou analytiku. V roce 2012 založil marketingovou agenturu DIVERSITY PROMOTION s.r.o., kde nabízí online marketingové služby, tvorbu webů na WordPress, tvorbu eshopů na platformě Shoptet, Web design a AI marketing. Generativní AI integruje do klíčových procesů – od hloubkové analýzy dat, SEO a konverzního copywritingu podle ověřených vzorců až po automatizaci rutinních úkolů, které přináší úsporu času a vyšší kvalitu výstupů nejen jemu, ale i jeho klientům.