Umelá inteligencia patrí medzi najrýchlejšie sa rozvíjajúce technológie súčasnosti a prináša človeku mimoriadne veľké možnosti. Spolu s nimi však vznikajú aj riziká, ktoré už dnes reálne ovplyvňujú spoločnosť. Nasledujúci prehľad sa sústreďuje výlučne na fakty podložené výskumami, odbornými analýzami a aktuálnym vývojom technológií.
1. Riziko zneužitia technológií na sledovanie a monitorovanie ľudí
AI výrazne zvyšuje schopnosť štátu aj súkromných subjektov pracovať s dátami
Moderné systémy umelej inteligencie umožňujú:
- automatické rozpoznávanie tvárí
- sledovanie pohybu osôb a vozidiel
- analýzu veľkých dátových súborov
- vyhľadávanie vzorov správania
Tieto technológie sa používajú v mnohých krajinách sveta. Niektoré štáty ich nasadzujú na zvyšovanie bezpečnosti, iné ich využívajú aj na rozsiahle monitorovanie obyvateľov.
Niektoré režimy používajú AI na posilňovanie kontroly
Je overené, že krajiny s autoritatívnymi prvkami – napríklad Čína – používajú pokročilé kamerové systémy so softvérom na rozpoznávanie tváre na kontrolu verejných priestorov. Dáta sa následne využívajú v rámci komplexných hodnotiacich systémov občanov.
Toto predstavuje reálne riziko pre:
- súkromie
- slobodu pohybu
- slobodu prejavu
Západné demokracie riešia reguláciu AI ako prevenciu
Európska únia prijala AI Act, prvý komplexný zákon na svete, ktorý sa snaží stanoviť jasné hranice pre používanie umelej inteligencie. Cieľom je zabrániť tomu, aby sa AI využívala spôsobom, ktorý by ohrozoval základné práva obyvateľov.
2. Psychologické riziká a falošný pocit porozumenia
Ľudia majú tendenciu pripisovať AI ľudské vlastnosti
Výskumy v oblasti HCI (human–computer interaction) ukazujú, že:
- chatboty pôsobia empaticky
- odpovedajú plynulo a zdvorilo
- majú schopnosť upravovať tón komunikácie podľa kontextu
To môže v užívateľovi vyvolať ilúziu, že AI „rozumie“ jeho pocitom.
Emocionálne naviazanie na AI je reálny jav
Najmä osamelí ľudia či seniori môžu začať vnímať AI ako spoločníka. Psychológovia upozorňujú, že:
- AI nevníma emócie a nereaguje na ne skutočne, iba simuluje reakcie
- pravidelná komunikácia môže viesť k prehnanému pripútaniu
- u zraniteľných osôb môže posilniť negatívne presvedčenia
AI nie je terapeut a nemá schopnosť rozpoznať psychické ochorenie – dokáže len reagovať podľa vzorcov, na ktorých bola trénovaná.
Informačné „bubliny“ nie sú novinka, AI ich môže prehlbovať
Je vedecky potvrdené, že algoritmy sociálnych sietí vytvárajú informačné bubliny. Pri AI funguje podobný mechanizmus: model sa prispôsobuje spôsobu komunikácie užívateľa.
Ak človek opakovane hovorí o nejakom probléme, AI začne odpovede upravovať do rovnakého tónu. To môže u dlhodobej komunikácie posilniť jednostranný pohľad na svet.
3. Halucinácie umelej inteligencie: presne formulované, no nesprávne odpovede
AI nepracuje s realitou, ale so vzorcami z tréningových dát
Veľké jazykové modely fungujú tak, že predpovedajú najpravdepodobnejší text na základe dát, na ktorých boli natrénované. Neoverujú fakty v reálnom čase.
Preto môže vzniknúť jav nazývaný halucinácia, keď AI:
- odpovedá sebavedomo
- pôsobí odborne
- ale uvádza nepresné alebo nesprávne údaje
Typické situácie, kde sa to stáva:
- otázky o presnej histórii predmetov, fotografiách či artefaktoch
- odborné medicínske alebo právne otázky
- špecifické dátumy, čísla a citácie
- témy, ktoré AI nemá dostatočne pokryté v tréningových dátach
Množstvo ľudí sa nechalo zmiasť presvedčivým tónom odpovede a až neskôr zistilo, že informácie neboli pravdivé.
Ako sa dá riziko minimalizovať
Odborníci odporúčajú:
- overovať dôležité informácie v ďalších zdrojoch
- zadať rovnakú otázku viacerým AI modelom
- pýtať sa AI, aby sama skontrolovala konzistentnosť svojho tvrdenia
Praktické odporúčania pre bezpečné používanie AI
Tu je päť zásad, na ktorých sa zhodujú odborníci v oblasti etiky technológií aj ochrany súkromia:
- AI je nástroj, nie autorita.
Dôležité rozhodnutia si vždy over, najmä ak sa týkajú zdravia, financií alebo práva. - Nedávaj AI informácie, ktoré nechceš zdieľať s cudzími ľuďmi.
Hoci väčšina systémov uvádza, že dáta neuchováva, opatrnosť je vždy namieste. - Zachovaj kritické myslenie.
Aj keď AI odpovedá plynule a odborne, nemusí mať pravdu. - Nepoužívaj AI ako náhradu za ľudský kontakt.
Technológia môže dopĺňať vzťahy, ale nemala by ich nahrádzať. - Buď opatrný pri témach, ktoré v tebe vyvolávajú silné emócie.
AI sa môže prispôsobiť tvojmu tónu a nechtiac ťa utvrdiť v nevhodných záveroch.































