Првата легислатива во светот посветена на регулирање на вештачката интелигенција би можела да стане план за другите да го следат. Еве што да очекувате од Законот за вештачка интелигенција на ЕУ
Зборот „ризик“ деновиве често се гледа во истата реченица како „вештачка интелигенција“. Иако е охрабрувачки да се види како светските лидери ги разгледуваат потенцијалните проблеми на вештачката интелигенција, заедно со неговите индустриски и стратешки придобивки, треба да запомниме дека не се сите ризици еднакви.
На 14 јуни, Европскиот парламент гласаше да го одобри сопствениот нацрт-предлог за Законот за вештачка интелигенција , законска регулатива која се подготвува две години, со амбиција да се обликуваат глобалните стандарди во регулацијата на вештачката интелигенција.
По последната фаза од преговорите, за усогласување на различни нацрти произведени од Европскиот парламент, Комисијата и Советот, законот треба да биде одобрен пред крајот на годината. Тоа ќе стане првото законодавство во светот посветено на регулирање на вештачката интелигенција во речиси сите сектори на општеството – иако одбраната ќе биде изземена.
Од сите начини на кои може да се пристапи кон регулација на вештачката интелигенција, вреди да се забележи дека ова законодавство е целосно врамено околу поимот ризик. Не се регулира самата вештачка интелигенција, туку начинот на кој таа се користи во одредени домени на општеството, од кои секоја носи различни потенцијални проблеми. Четирите категории на ризик, кои подлежат на различни законски обврски, се: неприфатлив, висок, ограничен и минимален.
Системите за кои се смета дека претставуваат закана за основните права или вредностите на ЕУ, ќе бидат категоризирани како со „неприфатлив ризик“ и ќе бидат забранети. Пример за таков ризик би биле системите за вештачка интелигенција што се користат за „ предвидливо полициско работење “. Ова е употребата на вештачката интелигенција за да се направи проценка на ризикот на поединци, врз основа на лични информации, за да се предвиди дали тие најверојатно ќе извршат кривични дела.
Поконтроверзен случај е употребата на технологија за препознавање лице на доводи на камери на улица во живо. Ова исто така е додадено на листата на неприфатливи ризици и би било дозволено само по извршување на кривично дело и со судско овластување.
Тие системи класифицирани како „висок ризик“ ќе подлежат на обврски за обелоденување и се очекува да бидат регистрирани во посебна база на податоци. Тие исто така ќе бидат предмет на различни барања за мониторинг или ревизија.

Урсула фон дер Лајен е една од архитектите на Законот за вештачка интелигенција. Слика: Европскиот парламент
Видовите апликации што треба да се класифицираат како високоризични вклучуваат вештачка интелигенција која може да го контролира пристапот до услуги во образованието, вработувањето, финансирањето, здравството и други критични области. Користењето вештачка интелигенција во такви области не се смета за непожелно, но надзорот е од суштинско значење поради неговиот потенцијал негативно да влијае на безбедноста или основните права.
Идејата е дека треба да можеме да веруваме дека секој софтвер што донесува одлуки за нашата хипотека ќе биде внимателно проверен за усогласеност со европските закони за да се осигура дека нема да бидеме дискриминирани врз основа на заштитени карактеристики како полот или етничкото потекло – барем ако живееме во ЕУ.
Системите за вештачка интелигенција со „ограничен ризик“ ќе подлежат на минимални барања за транспарентност. Слично на тоа, операторите на генеративните системи за вештачка интелигенција – на пример, ботови кои произведуваат текст или слики – ќе мора да откријат дека корисниците имаат интеракција со машина.
За време на неговото долго патување низ европските институции, кое започна во 2019 година, законодавството станува сè поконкретно и поексплицитно за потенцијалните ризици од примена на вештачка интелигенција во чувствителни ситуации – заедно со тоа како тие можат да се следат и ублажат. Треба да се направи многу повеќе работа, но идејата е јасна: треба да бидеме конкретни ако сакаме да ги завршиме работите.

Доаѓањето на ChatGPT ја донесе вештачката интелигенција во мејнстримот. Слика: Ролф ван Рут
Спротивно на тоа, неодамна видовме петиции кои повикуваат на ублажување на претпоставениот „ризик од истребување“ поставен од вештачката интелигенција, не давајќи дополнителни детали. Различни политичари ги повторија овие ставови. Овој генерички и многу долгорочен ризик е сосема различен од она што го обликува Законот за вештачка интелигенција, бидејќи не дава никакви детали за тоа што треба да внимаваме, ниту што треба да направиме сега за да се заштитиме од него.
Ако „ризикот“ е „очекуваната штета“ што може да дојде од нешто, тогаш би било добро да се фокусираме на можни сценарија кои се и штетни и веројатни, бидејќи тие носат најголем ризик. Многу неверојатните настани, како што е судирот на астероид, не треба да имаат приоритет пред поверојатните, како што се ефектите од загадувањето.
Во оваа смисла, нацрт-законот кој штотуку беше одобрен од парламентот на ЕУ има помалку блескав, но повеќе суштина од некои од неодамнешните предупредувања за вештачката интелигенција. Тој се обидува да оди на тенката линија помеѓу заштитата на правата и вредностите, без да ги спречува иновациите, и конкретно да се осврне и на опасностите и на правните лекови. Иако е далеку од совршен, тој барем обезбедува конкретни активности.
Следната фаза од патувањето на оваа легислатива ќе бидат трилозите – тринасочни дијалози – каде што посебните нацрти на парламентот, комисијата и советот ќе се спојат во финален текст. Во оваа фаза се очекува да има компромиси. Резултирачкиот закон ќе биде изгласан на сила, веројатно на крајот на 2023 година, пред да започне кампањата за следните европски избори.
Актот се обидува да оди на линијата помеѓу заштитата на правата и вредностите, без да ги спречи иновациите
По две или три години, актот ќе стапи на сила и секој бизнис што работи во ЕУ ќе мора да го почитува. Оваа долга временска линија навистина поставува одредени прашања, бидејќи не знаеме како ќе изгледа вештачката интелигенција или светот во 2027 година.
Да потсетиме, претседателката на Европската комисија, Урсула фон дер Лајен, првпат ја предложи оваа регулатива во летото 2019 година, непосредно пред пандемија, војна и енергетска криза. Ова беше и пред ChatGPT да ги натера политичарите и медиумите редовно да зборуваат за егзистенцијален ризик од вештачката интелигенција. Меѓутоа, актот е напишан на доволно општ начин што може да му помогне да остане релевантен некое време. Тоа веројатно ќе влијае на тоа како истражувачите и бизнисите пристапуваат кон вештачката интелигенција надвор од Европа.
Она што е јасно, сепак, е дека секоја технологија носи ризици и наместо да чекаат нешто негативно да се случи, академските институции и институциите за креирање политики се обидуваат однапред да размислат за последиците од истражувањето. Во споредба со начинот на кој ги усвоивме претходните технологии – како што се фосилните горива – ова претставува одреден степен на напредок.
Извор до вест ТУКА
Превод: Google Translate