Kategórie
Tlačové správy

EÚ začala regulovať umelú inteligenciu

Minulý týždeň (1. augusta 2024) nadobudlo účinnosť Na­ria­de­nie EÚ o ume­lej in­te­li­gen­cii (tzv. AI Act). Ide o prvý kom­plexný právny rámec na svete, ktorý upravuje vývoj, rozširovanie a po­u­ží­va­nie umelej inteligencie na ko­merčné účely. Advokáti z Taylor Wessing detailne ana­ly­zo­vali práva a po­vin­nosti, ktoré tento predpis prináša pod­ni­ka­te­ľom a spotre­bi­te­ľom.

Umelá inteligencia (artificial intelligence)
Umelá inteligencia (artificial intelligence; AI).
Zdroj: Getty Images.

Čo je umelá inteligencia?

Ide o strojom (počítačom) prevádzkovaný systém, vykazujúci pri prevádzke rôzne stupne „samo­statnosti“ (tzv. black box princíp – ten kto ho na­progra­mo­val, nevie presne, ako sa systém „rozhodne“), majúci schopnosť sa používaním zdo­ko­na­ľo­vať, prispô­so­bo­vať a učiť.

Andrej Leontiev, riadiaci partner Taylor Wessing uvádza: „Systém umelej inteligencie dokáže na základe vstupov alebo pokynov vykonávať požadovanú činnosť alebo vytvárať požadovaný obsah, generovať rozhodnutia alebo odporúčania, pričom proces, ktorý tomu predchádza pripomína ‚rozmýšľanie‘ alebo ‚rozhodovanie sa‘ človeka.“

Aké sú základné princípy tejto regulácie a na koho sa vzťahuje?

Umelá inteligencia používaná v EÚ musí byť podľa Nariadenia EÚ o umelej inteligencii (ďalej len Nariadenie) transparentná, spoľahlivá, bezpečná a musí rešpektovať základné ľudské práva občanov EÚ a ďalšie kľúčové hodnoty EÚ.

V praxi to znamená, že EÚ reguluje umelú inteligenciu využívanú napríklad na tieto účely: bio­metrická iden­ti­fi­ká­cia osôb, systémy kritickej infra­štruk­tú­ry (dopravné systémy, dodávky energií), vzdelávacie systémy, systémy riadenia ľudských zdrojov, vrátane výberových konaní, systémy vymáhania práva, reklamné a mar­ke­tin­gové systémy alebo rôzne systémy tzv. sociálneho alebo eko­no­mického hod­no­te­nia jed­not­liv­cov (tzv. skóring).

Nariadenie sa radí medzi tzv. európske predpisy upravujúce bezpečnosť výrobkov a zodpovednosť za škodu nimi spôsobenú (product safety regulation). Predpis preto primárne ukladá povinnosti „vývojárom“ systémov umelej inteligencie, ktorá sa používa v EÚ (aj keď pôjde o firmy z mimo EÚ).

„Nariadenie rozlišuje systémy umelej inteligencie podľa štyroch stupňov rizika, ktoré predstavujú pre spoločnosť. Podľa stupňa rizika EÚ stanovuje aj podmienky, ktoré musí konkrétny systém umelej inteligencie splniť pred jeho uvedením na trh EÚ. Ďalej definuje základné princípy a pra­vidlá, kedy sa systém umelej inteligencie považuje za transparentný, spoľahlivý, bezpečný a rieši, kto zodpovedá za jeho prípadné zlyhania. Nariadenie tiež upravuje sankcie za porušenie týchto pravidiel a určuje, ktoré orgány vykonávajú dohľad a ukladajú sankcie,“ konštatuje Ján Lazur, partner Taylor Wessing.

Kategorizácia systémov umelej inteligencie podľa rizikovosti

  1. Systémy s neprijateľným rizikom: Ich použitie je Nariadením úplne zakázané, pričom ide napríklad o technológie na rozpoznávanie tváre vo verejných priestoroch v reálnom čase, ktorých nasadenie by mohlo mať za následok neoprávnené narušenie súkromia a osobnej slobody jednotlivcov.
  2. Vysokorizikové systémy: Tieto systémy podliehajú prísnym po­žia­dav­kám na bez­peč­nosť a spo­ľahli­vosť. Vývojári týchto systémov majú okrem iného povinnosti vykonať hodnotenie rizík alebo úradnú certifikáciu pred ich uvedením na trh a zabezpečiť ľudský dohľad nad ich fungovaním. Ako vy­so­ko­ri­zi­ko­vé systémy môžu byť považované napríklad systémy bánk na posudzovanie „spoľahlivosti“ žiadateľa o úver, auto­nómne vozidlá alebo auto­nómne priemyselné roboty, zložité medicínske prístroje, ale aj pro­fe­sio­nál­ne chat­boty typu GPT-4.
  3. Stredne rizikové systémy: Tieto systémy musia spĺňať najmä požiadavky na transparentnosť. To znamená, že napríklad neúspešný uchádzač o prácu musí mať možnosť zistiť, prečo ho „počítač“ neodporučil do ďalšieho kola výberového konania. Medzi takéto systémy patria tiež rôzne jednoduchšie chatboty ako napríklad populárny ChatGPT.
  4. Nízkorizikové systémy: Sú menej regulované, avšak aj tak by mali dodržiavať základné etické normy. Naj­me­nej rizikové systémy predstavujú napríklad systémy používané v rámci videohier.

Čo bude s deepfakes?

Textový, obrazový, zvukový alebo obrazovo-zvu­ko­vý obsah vytvo­re­ný alebo upra­vo­va­ný pomocou umelej inteligencie, kde sa naj­častej­šie virtuálny klon konkrétnej osoby správa spôsobom, ktorým by táto osoba v reálnom živote nesprávala – tzv. deepfakes – nie je zakázaný; musí však byť podľa Nariadenia jasne označený ako vytvorený umelou inteligenciou (napríklad prostred­níc­tvom tzv. vodo­tlače).

Leontiev uvádza: „Cieľom je sťažiť využívanie umelej inteligencie na podvody na podnikateľoch, na vytváranie falošných por­no­gra­fic­kých diel a ovplyv­ňo­va­nie verejnosti v po­li­tic­kom zápase, vrá­ta­ne zefek­tív­ne­nia boja proti dezinfor­má­ciám a hoaxom, ktoré sa často šíria aj týmto spô­so­bom.“

Lazur dodáva: „Netreba taktiež zabúdať, že každá fyzická osoba má nezávisle od tohto nariadenia právo domáhať sa ochrany svojej osobnosti a svojho súkromia a vytváranie virtuálnych klonov môže tieto práva závažne porušiť.“

Odkedy budú pravidlá platiť a aké sú sankcie za ich porušenie?

„Nariadenie bude ako celok platiť – teda tam uvedené povinnosti sa budú orgánmi aj reálne vynucovať – od augusta 2026. Niektoré jeho časti však začnú platiť už skôr. Napríklad zákaz tzv. systémov s ne­pri­ja­teľ­ným rizikom začne platiť už od februára 2025,“ upozorňuje Lazur.

Orgány dohliadajúce nad dodržiavaním pravidiel (vo väčšine prípadov pôjde o vnútro­štátne orgány, ktoré už dnes dohliadajú na tzv. bez­peč­nosť rôznych výrobkov) budú môcť ukladať pokuty vo výške desiatok miliónov € (do 35 miliónov €) alebo nie­koľ­ko percent z ce­lo­sve­to­vé­ho obratu „vývojára“ (až do 7 percent zo svetových tržieb firmy, ktorá porušuje svoje povinnosti podľa Nariadenia).

Čo hovoria kritici Nariadenia?

„Niektorí odborníci varujú, že prísna regulácia môže spomaliť inovačný proces a vývoj umelej inteligencie v EÚ. Existujú obavy, že globálni hráči nebudú svoje najprogresívnejšie systémy umelej inteligencie uvádzať na trh EÚ. Domnievame sa, že opak bude pravdou. Zavedenie presných pravidiel poskytne potrebnú právnu istotu a predvídateľnosť pre vývoj umelej inteligencie. Rovnako sa dá očakávať, že podobne ako pri GDPR, ktorou EÚ stanovila medzi prvými vysoké štandardy ochrany osobných údajov, aj princípy pre umelú inteligenciu obsiahnuté v Nariadení budú inšpiráciou a vzorom pre ostatné krajiny, vrátane USA a Číny,“ uzatvára Leontiev.


Autorka: Mag. Darina Škantárová.

Pridaj komentár

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *