EU definira etička načela za umjetnu inteligenciju: kompanije moraju uspostaviti mehanizme odgovornosti kako bi spriječile njezinu zloupotrebu.

Autor:

09.04.2019.

Cyborg at work
Ilya Terentyev / Getty Images

Umjetna inteligencija je ključni izazov ne više budućnosti, već sadašnjosti

Prema novim europskim etičkim načelima za razvoj novih tehnologija, kompanije koje rade s umjetnom inteligencijom moraju uspostaviti mehanizme odgovornosti kako bi spriječile njezinu zloupotrebu.

Projekti umjetne inteligencije trebali bi biti pod nadzorom ljudi, transparentni, imati sigurne i pouzdane algoritme i podijegati pravilima zaštite privatnosti i podataka, navodi EK među ostalim preporukama.

Ta se načela mogu ostvariti na temelju strategije za umjetnu inteligenciju iz travnja 2018. godine, koja između ostalog predviđa povećanje javnih i privatnih ulaganja u tu tehnologiju do najmanje 20 milijardi eura godišnje u sljedećih deset godina.

Europska inicijativa sastavni je dio globalne rasprave o tome trebaju li tvrtke nadrediti etička pitanja poslovnim interesima i kada, te koliko strogi mogu biti regulatori u odnosu prema novim projektima kako ne bi ugrozili inovacije.

"Etička dimenzija umjetne inteligencije nije luksuz niti puki dodatak. Naše društvo može u potpunosti iskoristiti potencijal tehnologije samo ako u nju ima povjerenja", izjavio je u priopćenju potpredsjednik EK za digitalnu ekonomiju i društvo Andrus Ansip.

Sedam osnova za postizanje pouzdane umjetne inteligencije

Pouzdana umjetna inteligencija trebala bi poštivati ​​sve primjenjive zakone i propise, kao i niz zahtjeva; posebni popisi za procjenu imaju za cilj potvrditi primjenu svakog od ključnih zahtjeva:

Ljudsko djelovanje i nadzor: Sustavi umjetne inteligencije trebali bi omogućiti pravedna društva podržavajući ljudsko djelovanje i temeljna prava, a ne smanjivati, ograničavati ili pogrešno upravljati ljudskom autonomijom.

Robusnost i sigurnost: Pouzdana umjetna inteligencija zahtijeva da algoritmi budu sigurni, pouzdani i dovoljno robusni da bi se mogli nositi s pogreškama ili nedosljednostima tijekom svih faza životnog ciklusa sustava umjetne inteligencije.

Upravljanje privatnošću i podacima: Građani bi trebali imati potpunu kontrolu nad vlastitim podacima, dok se podaci koji se odnose na njih neće koristiti za nanošenje štete ili diskriminaciju protiv njih.

Transparentnost: Treba osigurati sljedivost sustava umjetne inteligencije.

Raznolikost, nediskriminacija i pravednost: Sustavi umjetne inteligencije trebaju uzeti u obzir čitav niz ljudskih sposobnosti, vještina i zahtjeva te osigurati pristupačnost.

Dobrobit društva i okoliša: Sustavi umjetne inteligencije trebaju se koristiti za poboljšanje pozitivnih društvenih promjena i povećanje održivosti i ekološke odgovornosti.

Odgovornost: Treba uspostaviti mehanizme za osiguranje odgovornosti i preuzimanja obveze za sustave umjetne inteligencije i njihove ishode.

Umjetna inteligencija može koristiti širokom spektru sektora, kao što su zdravstvo, potrošnja energije, sigurnost automobila, poljoprivreda, klimatske promjene i upravljanje financijskim rizicima.

Također može pomoći u otkrivanju prijevara i prijetnji kibernetičkoj sigurnosti i omogućiti sigurnosnim agencijama učinkovitiju borbu protiv kriminala.

Paralelno umjetna inteligencija donosi nove izazove za budućnost rada i otvara brojna pravna i etička pitanja.

Prošle godine je Europska komisija angažirala 52 stručnjaka iz akademske zajednice, industrijskih udruženja i kompanija, uključujući Google, SAP, Santander i Bayer, kako bi pomogli pri izradi nacrta načela.

Kompanije i organizacije mogu se prijaviti za pilot fazu koja će biti pokrenuta u lipnju kako bi se utvrdila njihova primjenjivost u praksi. Nakon toga će stručnjaci analizirati rezultate a Komisija odlučiti o sljedećim potezima.

Inačica na drugom jeziku / Alternate language version