09.05.2021 Views

Computerworld magazin 2021.05.12.

A Computerworld magazin 2021. május 12-én megjelent száma.

A Computerworld magazin 2021. május 12-én megjelent száma.

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

KIS<br />

ENDRE<br />

INFORMÁCIÓS TÁRSADALOM / AI-SZABÁLYOZÁS<br />

Kód és etika<br />

Adatok és algoritmusok alkotják a mesterséges intelligenciát, amely magától<br />

nem válik sem elfogulttá, sem pártatlanná, minden a létrehozó emberen múlik.<br />

A technológia etikus és transzparens alkalmazásához ezért szabályozásra is<br />

szükség lesz, de a fejlődés korlátozása nélkül. Európa AI-rendelete kockázatalapú<br />

megközelítéssel készül.<br />

Évtizedek óta létezik, a mesterséges<br />

intelligencia képességei mégis mostanában,<br />

a számítási teljesítmény<br />

gyors növekedésével kezdenek igazán<br />

kibontakozni. Ma már látjuk, hogy az AI az<br />

egészségügytől kezdve a közlekedésen és a<br />

logisztikán, a gyártó- és az energiaiparon, a<br />

mezőgazdaságon és a turizmuson, a kereskedelmen<br />

és a médián át a kiberbiztonságig<br />

az élet minden területén új távlatokat nyit.<br />

Egyúttal azt is jobban értjük, hogy a technológia<br />

alkalmazása a hatalmas lehetőségekhez<br />

mérhető kockázatokat is hordoz.<br />

Az Európai Unió a megbízható mesterséges<br />

intelligencia globális központjává<br />

válna, ezért a világon elsőként olyan jogi<br />

keretrendszert és koordinációs tervet készít,<br />

amely a tervek szerint garantálni fogja<br />

az emberek és a szervezetek biztonságát<br />

és alapvető jogait, miközben az AI további<br />

térhódítását, a technológiai beruházásokat<br />

és innovációt is elősegíti a tagállamokban.<br />

Több mint két év előkészítő munka<br />

eredményeként az Európai Bizottság idén<br />

áprilisban tette közzé törvényjavaslatát<br />

(Proposal for a Regulation laying down<br />

harmonised rules on artificial intelligence<br />

– Artificial Intelligence Act), amely<br />

az AI-rendszerekben megjelenő, pontosan<br />

meghatározott kockázatok kezelését<br />

arányosan és rugalmasan szabályozza,<br />

ezáltal világszinten is meghatározó szabvánnyá<br />

válhat. A koordinációs terv (Coordinated<br />

Plan on Artificial Intelligence 2021<br />

Review) pedig a törvénymódosításokat és<br />

beruházásokat körvonalazza tagállamok<br />

szintjén, amelyek szükségesek ahhoz, hogy<br />

Európa vezető helyet foglalhasson el az<br />

emberközpontú, fenntartható, biztonságos,<br />

befogadó és megbízható mesterséges<br />

intelligencia fejlesztésében.<br />

Kockázatok négy szinten<br />

Az uniós AI-törvény tervezete a mesterséges<br />

intelligenciára épülő rendszereket<br />

az elfogadhatatlantól a minimálisig négy<br />

kockázati szintre sorolja, és előírja, hogy<br />

a használatukra kialakított szabályokat<br />

minden tagállam egységesen alkalmazza.<br />

Elfogadhatatlan kockázatokat hordoznak,<br />

ezért tiltottak lesznek azon AI-rendszerek,<br />

amelyek egyértelműen veszélyeztethetik<br />

az emberek biztonságát, megélhetését<br />

és jogait. Ebbe a kategóriába tartoznak az<br />

ember szabad akaratát befolyásoló vagy<br />

megkerülő, manipulatív alkalmazások<br />

(például játékok, amelyek hangalapú<br />

segítségnyújtással veszélyes viselkedésre<br />

bátoríthatnak kiskorúakat), valamint az<br />

olyan rendszerek, amelyeket a kormányok<br />

a polgárok „társadalmi” pontozására<br />

használhatnak.<br />

Magas kockázati besorolást kapna a<br />

tervezet szerint az AI-rendszerek másik<br />

csoportja, amely szintén az emberek<br />

épségét veszélyeztetheti, illetve jogait<br />

csorbíthatja. A javaslat példákon mutatja<br />

be, hogy a törvény pontosan milyen alkalmazásokat<br />

sorolna erre a kockázati szintre.<br />

Ide tartoznának a kritikus infrastruktúrák,<br />

közöttük a közlekedés mesterséges intelligenciára<br />

épülő alkalmazásai és az olyan<br />

termékek biztonsági alkotóelemei, mint<br />

például a sebészeti robotok, amelyek nyilvánvalóan<br />

veszélyeztethetik az emberek<br />

életét vagy egészségét.<br />

Velük egy csoportba kerülnének a különböző<br />

kérelmek – például felvételik, vizsgák,<br />

álláshirdetésekre és más pályázatokra<br />

beadott jelentkezések, hiteligénylések –<br />

elbírálását a köz- és a versenyszférában<br />

részben vagy teljesen automatizáló AI-rendszerek,<br />

mivel pontozásukkal, döntéseikkel<br />

közvetlenül befolyásolhatják az emberek<br />

életét, oktatáshoz, munkához és más<br />

lehetőségekhez, szolgáltatásokhoz való<br />

hozzáférését. Ugyancsak ebbe a kategóriába<br />

tartoznának a határvédelem és az<br />

idegenrendészet AI-alkalmazásai, amelyek<br />

az utazási dokumentumok hitelességét ellenőrzik<br />

és a menedékkérelmek elbírálását<br />

támogatják. Magas kockázati besorolásúak<br />

lennének továbbá az igazságszolgáltatásban<br />

és a demokratikus folyamatokban<br />

alkalmazott AI-rendszerek is.<br />

Forgalmazásuk engedélyezéséhez a<br />

magas kockázati besorolású AI-rendszereknek<br />

szigorú követelményeknek kell<br />

majd eleget tenniük. A kockázatok felmé-<br />

20 | | <strong>2021.05.12.</strong>

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!