Kategórie
Tlačové správy

Nie deravej regulácii umelej inteligencie

Celkom 118 európskych organizácií chrániacich spotre­bi­teľov a občianske práva, vrá­tane dTestu, vydalo spo­ločné vyhlá­senie k navrho­va­nému zneniu Aktu o umelej inte­li­gencii.

Umelá inteligencia. (Zdroj: Geralt, Pixabay)
Umelá inteligencia. (Zdroj: Geralt, Pixabay.)

Dôvodom je upravený návrh Aktu o umelej inte­li­gen­cii, ktorým sa vytvára medzera v pra­vid­lách pre vy­soko rizikové systémy umelej inte­li­gen­cie. Medzera musí byť zacelená a prin­cípy vysokej úrovne ochrany fyzických osôb musia byť zachované.

Európska únia vstupuje do záverečnej fázy ro­ko­vaní o Akte o umelej inte­li­gen­cii. Veľké tech­no­lo­gické spo­loč­nosti a ďalšie prie­my­selné sub­jekty lobujú za za­ve­denie významnej medzery do pro­cesu kla­si­fi­kácie vysoko rizi­ko­vých systémov umelej inte­li­gen­cie, ktorá by celý právny predpis spo­chyb­nila.

„Akt EÚ o umelej inteligencii vo svojej pô­vod­nej podobe obsa­ho­val zoznam vysoko rizi­ko­vých systémov umelej inte­li­gen­cie, vrátane napríklad systémov pou­ží­va­ných k hod­no­te­niu štu­dentov, k po­su­dzo­vaniu úveru­schop­nosti fyzických osôb, k hod­no­teniu uchá­dzačov o zamestnanie a k určo­vaniu, kto získa prístup k so­ciál­nym dávkam. Navrhnutý právny predpis ďalej vy­ža­do­val, aby vývojári a posky­to­va­telia týchto vysoko rizi­ko­vých systémov umelej inte­li­gen­cie zaistili, že ich systémy sú bez­pečné a posky­tujú verejne prístupné infor­mácie o tom, ako ich systémy fun­gujú,“ vysvet­ľuje Petr Šmelhaus, vedúci právneho odde­lenia spotre­bi­teľ­skej orga­ni­zácie dTest.

Tieto podmienky však oslabila nebezpečná medzera za­ve­dená do pro­cesu kla­si­fi­kácie vysoko rizi­ko­vých spô­so­bov pou­žitia umelej inte­li­gen­cie v článku 6. V pô­vod­nom návrhu Európskej komisie bol systém umelej inte­li­gen­cie po­va­žo­vaný za vy­soko rizi­kový, pokiaľ mal byť použitý k jed­nému z vy­soko rizi­kových účelov uve­de­ných v prí­lohe III. Aktu. Rada a Európsky parla­ment však navrhujú, aby vývojári týchto systémov sami rozhodli, či nimi vytvá­raný systém je vysoko rizikový.

„Pokiaľ by návrh článku 6 ostal v posled­nom navrhnutom znení, umožnil by Akt o umelej inte­li­gen­cii vývojárom umelej inte­li­gen­cie rozhodnúť o vy­ňatí vysoko rizi­ko­vých systémov zo všet­kých hmotno­práv­nych pra­vi­diel,“ komen­tuje navrhnutú úpravu Petr Šmelhaus.

Akt o umelej inteligencii by:

  • zaviedol vysokú právnu neistotu ohľadne toho, ktoré systémy sú po­va­žo­vané za „vy­so­ko rizi­kové“;
  • viedol by k roztrieštenosti jednotného trhu EÚ, na­koľko členské štáty si rôzne vykla­dajú, čo je „vysoké riziko“;
  • v dôsledku toho by orgány členských štátov čelili vážnym problémom pri pre­sa­dzo­vaní právnych pred­pi­sov, pre­tože by nemali dostatok prostriedkov na dosta­točnú kontrolu seba­hod­no­tenia vývo­járov;
  • umožnil by bezohľadným vývojárom vyhnúť sa základným po­žia­dav­kám Aktu o umelej inte­li­gen­cii. Naopak, zod­po­vední vývo­jári umelej inte­li­gen­cie by sa tým ocitli v ne­vý­hode.

118 spotrebiteľských a občianskych organizácií na­lie­havo žiada európskych zá­ko­no­darcov, aby tieto návrhy zrušili a vrá­tili pô­vod­né znenie článku 6, ktoré predtým Európska komisia navrhla.

„Akt o umelej inteligencii musí upred­nos­tňo­vať práva fyzických osôb, ktorých sa systémy umelej inte­li­gen­cie do­tý­kajú, a zaistiť, aby vývoj a po­u­ží­vanie umelej inte­li­gen­cie boli zod­po­vedné a trans­pa­ren­tné,“ uzatvára Petr Šmelhaus za dTest.


Autorka: Lucie Korbeliusová.

Pridaj komentár

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *