Уделот на вештачката интелигенција во одлуките за прашања што се од витално значење за луѓето повеќе не е научна фантастика.                Фото: Ројтерс

Уделот на вештачката интелигенција во одлуките за прашања што се од витално значење за луѓето повеќе не е научна фантастика. Дури и во клучна област како правото почна да се користи во пилот-програми во некои места во светот.

Се разви дебата дали е етички алгоритмите што го имитираат човечкото однесување да имаат удел и при одлуките во судниците.

Во областа на правото, за вештачката интелигенција, за која се смета дека помага во забрзувањето на судските процеси и автоматизирањето на рутинската работа, се поставуваат различни пилот-апликации во различни делови на светот, како Кина, Естонија и Малезија.

Со „судии-роботи“ што судат во мали случаи во Естонија, роботи-посредници во Канада, судии-вештачка интелигенција во Кина и судски систем со вештачка интелигенција во Малезија, сега е можно да се видат алгоритми во правосудниот систем.

Транспарентност

Постојат одредени принципи во врска со моралната контрола на вештачката интелигенција, изјави за Анадолу професорот Ахмет Улви Туркбаг, предавач на Правниот факултет при Универзитетот „Медипол“ во Истанбул.

„Најважен од нив е вештачката интелигенција да биде транспарентна. Тоа мора да биде апсолутно контролирано. Затоа што ако не знаеме зошто е донесена одредена одлука, не можеме да ја оцениме исправноста на таа одлука. Ова може да доведе до многу опасни последици“, рече Туркбаг.

Нагласувајќи дека вештачката интелигенција има моќ да донесува изненадувачки одлуки и дека одлуките донесени од алгоритмите треба да бидат достапни за луѓето, Туркбаг рече дека тоа може да се постигне со мали програми познати како „потпрограми“.

Тој истакна дека важните судски пресуди донесени со алгоритми, исто така, треба да бидат ревидирани од човечката интелигенција.

Манипулации, загриженост за приватноста

Некои експерти се загрижени дека алгоритмите се „илузорни и претставуваат ризик за приватноста и за јавната безбедност“.

Непрофитниот Центар за вештачка интелигенција и дигитална политика (ЦАИДП) во САД поднесе барање до Федералната трговска комисија да го прекине користењето на GPT-4, новата верзија на роботот за вештачка интелигенција ChatGPT на компанијата (ОпенАИ).

Некои експерти од полето на индустријата се загрижени за човечката манипулација на компјутерската технологија.

„Не треба да се манипулира со вештачката интелигенција, ова е многу важно. Ако барате од вештачката интелигенција да спаси човек, а тој има и домашен миленик, вештачката интелигенција не треба да убие животно додека спасува човек“, рече Туркбаг.

Одлуките на вештачката интелигенција се соочуваат со повисоки авторитети

Туркбаг нагласи дека хипотетички, доколку одлуката донесена од вештачката интелигенција биде обжалена и донесена пред повисок суд, случајот треба да го преземе човечката интелигенција.

„Дури и ако ја прифатиме [одлуката на] вештачката интелигенција во првата фаза, тоа дефинитивно треба да оди понатаму кај луѓето ако се соочи со приговори, тоа го бара логиката на правото“, рече Туркбаг и додаде дека вештачката интелигенција треба да спроведе опсежно скенирање на базата на податоци во зависност од важноста на случајот.

TRT Balkan / агенции
Популарни