Celkom 118 európskych organizácií chrániacich spotrebiteľov a občianske práva, vrátane dTestu, vydalo spoločné vyhlásenie k navrhovanému zneniu Aktu o umelej inteligencii.
Dôvodom je upravený návrh Aktu o umelej inteligencii, ktorým sa vytvára medzera v pravidlách pre vysoko rizikové systémy umelej inteligencie. Medzera musí byť zacelená a princípy vysokej úrovne ochrany fyzických osôb musia byť zachované.
Európska únia vstupuje do záverečnej fázy rokovaní o Akte o umelej inteligencii. Veľké technologické spoločnosti a ďalšie priemyselné subjekty lobujú za zavedenie významnej medzery do procesu klasifikácie vysoko rizikových systémov umelej inteligencie, ktorá by celý právny predpis spochybnila.
„Akt EÚ o umelej inteligencii vo svojej pôvodnej podobe obsahoval zoznam vysoko rizikových systémov umelej inteligencie, vrátane napríklad systémov používaných k hodnoteniu študentov, k posudzovaniu úveruschopnosti fyzických osôb, k hodnoteniu uchádzačov o zamestnanie a k určovaniu, kto získa prístup k sociálnym dávkam. Navrhnutý právny predpis ďalej vyžadoval, aby vývojári a poskytovatelia týchto vysoko rizikových systémov umelej inteligencie zaistili, že ich systémy sú bezpečné a poskytujú verejne prístupné informácie o tom, ako ich systémy fungujú,“ vysvetľuje Petr Šmelhaus, vedúci právneho oddelenia spotrebiteľskej organizácie dTest.
Tieto podmienky však oslabila nebezpečná medzera zavedená do procesu klasifikácie vysoko rizikových spôsobov použitia umelej inteligencie v článku 6. V pôvodnom návrhu Európskej komisie bol systém umelej inteligencie považovaný za vysoko rizikový, pokiaľ mal byť použitý k jednému z vysoko rizikových účelov uvedených v prílohe III. Aktu. Rada a Európsky parlament však navrhujú, aby vývojári týchto systémov sami rozhodli, či nimi vytváraný systém je vysoko rizikový.
„Pokiaľ by návrh článku 6 ostal v poslednom navrhnutom znení, umožnil by Akt o umelej inteligencii vývojárom umelej inteligencie rozhodnúť o vyňatí vysoko rizikových systémov zo všetkých hmotnoprávnych pravidiel,“ komentuje navrhnutú úpravu Petr Šmelhaus.
Akt o umelej inteligencii by:
- zaviedol vysokú právnu neistotu ohľadne toho, ktoré systémy sú považované za „vysoko rizikové“;
- viedol by k roztrieštenosti jednotného trhu EÚ, nakoľko členské štáty si rôzne vykladajú, čo je „vysoké riziko“;
- v dôsledku toho by orgány členských štátov čelili vážnym problémom pri presadzovaní právnych predpisov, pretože by nemali dostatok prostriedkov na dostatočnú kontrolu sebahodnotenia vývojárov;
- umožnil by bezohľadným vývojárom vyhnúť sa základným požiadavkám Aktu o umelej inteligencii. Naopak, zodpovední vývojári umelej inteligencie by sa tým ocitli v nevýhode.
118 spotrebiteľských a občianskych organizácií naliehavo žiada európskych zákonodarcov, aby tieto návrhy zrušili a vrátili pôvodné znenie článku 6, ktoré predtým Európska komisia navrhla.
„Akt o umelej inteligencii musí uprednostňovať práva fyzických osôb, ktorých sa systémy umelej inteligencie dotýkajú, a zaistiť, aby vývoj a používanie umelej inteligencie boli zodpovedné a transparentné,“ uzatvára Petr Šmelhaus za dTest.
Autorka: Lucie Korbeliusová.