
Врховни суд Индије. Лиценца CC BY-SA 4.0, преко Wikimedia Commons
Вештачка интелигенција (АИ) се ушуњала у правосудни рад Индије на невиђен начин. АИ може да генерише транскрипте у реалном времену на саслушањима Уставног већа Врховног суда; аутоматизовани софтвер бележи исказе сведока на судовима. Судије чак тестирају АИ алате за правна истраживања и превод како би се кретали кроз предмете који садрже више језика. Међутим, ови тестови се дешавају у напрегнутом правосудном простору, што поставља веома важно питање: могу ли алгоритми убрзати правду, а да ипак очувају правичност, транспарентност и људску дискрецију?
Милиони случајева су на чекању у Индији; у ствари, заостатак достиже неколико десетина милиона. Да би се решило ово питање, влада, под руководством Врховног суда и Министарства правде и права, спроводи Фазу III пројекта е-судова, који има за циљ модернизацију подношења предлога, управљања предметима и процеса рада помоћу технологија машинског учења и језика. Значајан део буџета је намењен будућим технологијама, као што су вештачка интелигенција и блокчејн, што означава политичку опкладу да ће такви дигитални алати ублажити тренутна кашњења, а да ће се и даље придржавати одлуке да само судије одлучују о случајевима. Како судови почињу да усвајају вештачку интелигенцију хаотично, они такође морају да поставе границе за одговорност, приватност и ограничења аутоматизације.
Обећање: Брзина за заостатке
Усвајање вештачке интелигенције надовезује се на ранију дигитализацију. Од увођења е-судова 2007. године, програм је увео електронско подношење предлога, дигиталне листе предмета и онлајн пресуде, са циљем да се омогући подношење онлајн пријава. Фаза III се фокусира на разматрање судских информација које су сада дигитализоване за тумачење уз помоћ обраде природног језика и машинског учења.
Кључна иновација је Портал Врховног суда за помоћ у ефикасности судова (SUPACE), платформа коју покреће вештачка интелигенција која судијама и истраживачком особљу олакшава доношење информисаних радних одлука у вези са руковањем огромним бројем предмета. SUPACE не доноси одлуке; он идентификује чињенице, предлаже преседане и израђује нацрте, смањујући време ручног истраживања и омогућавајући судијама да се концентришу на правно образложење.
Приступ језику је такође од примарне важности. Врховни суд је развио софтвер Vidhik Anuvaad (SUVAS), који преводи пресуде са енглеског на друге индијске језике, док неки виши судови тестирају алате за превођење амортизованих пресуда на локалним језицима на енглески. Транскрипција коју покреће вештачка интелигенција такође мења вођење евиденције. Врховни суд је покренуо аутоматизовану транскрипцију у уставним питањима и производи текст који се може претраживати у скоро реалном времену за записник од 2023. године.
Најважније упутство дао је Високи суд Керале 2025. године, наложивши да сви подређени судови морају да користе алатку за претварање говора у текст, омогућену вештачком интелигенцијом, Adalat.AI, за снимање исказа сведока од 1. новембра 2025. године. Развијен од стране стартап компаније са истраживачким везама са универзитетима попут Харварда и МИТ-а, Adalat.AI замењује споро писане белешке непосредним дигиталним транскриптима снимљеним у систему окружног суда. Наредба дозвољава судијама да користе само алтернативне платформе које је проверио ИТ директорат Високог суда ако систем откаже. На тај начин се осигурава контрола над начином на који се обрађује осетљив звук.
Званичници описују ове реформе као кораке ка ефикаснијем и транспарентнијем правосуђу. Документи политике наглашавају потенцијал вештачке интелигенције да смањи људске грешке у транскрипцији, аутоматски открије основне грешке током процеса електронског подношења докумената и помогне преоптерећеним судијама да дају приоритет хитним случајевима. Коментатори реформе правосуђа тврде да би, ако се пажљиво примене, такви системи могли да скрате рочишта, побољшају тачност транскрипата и превода и да пруже странкама у парницама, посебно онима у удаљеним окрузима са оскудним правним ресурсима, бољи увид у напредак њихових случајева.
Забринутост: Када алгоритми засенче судско размишљање
Упркос оптимизму, судије и научници су изразили забринутост. Значајно упозорење стигло је од Високог суда у Делхију 2023. године, када је одбио да размотри аргументе у случају заштитног знака који се ослањао на ChatGPT. Суд је изјавио да велики језички модели могу да измишљају цитате и чињенице из предмета и да њихов резултат захтева независну верификацију.
У другом случају, исто веће Високог суда у Делхију дозволило је купцима кућа да повуку петицију након што су открили да су неки делови њихових поднесака, укључујући цитате из предмета, генерисани на ChatGPT-у. Притужбе наведене у тако формираном документу укључивале су непостојеће случајеве и погрешно цитиране изјаве. Судија је критиковао употребу непроверене генеративне вештачке интелигенције, рекавши да такве праксе могу да доведу суд у заблуду. Инцидент је одражавао професионалне опасности од трговине брзином и тачношћу коју нуди коришћење вештачке интелигенције у правосуђу.
Проблем црне кутије иде много даље од тога. Алати вештачке интелигенције који се користе за претраживање, сумирање или транскрипцију могу бити изграђени на непрозирним моделима. Када SUPACE скрене пажњу на одређене преседане, судије и странке у поступку не могу знати како су тачно ти случајеви рангирани по приоритету. Научници упозоравају да овај ниво непрозирности отежава откривање грешака и може превише суптилно утицати на судско размишљање ако се алгоритамски предлози на неки начин „сматрају неутралним“.
Још једна опасност је пристрасност. Индијска судска пракса, као и друштво, је неједнака и стога су скупови података за обуку вештачке интелигенције такође могли бити утиснути са дискриминаторним обрасцима заснованим на касти, полу, класи или религији. Аналитичари упозоравају да би вештачка интелигенција појачала такве пристрасности у име боље ефикасности. Виши судије, укључујући и председника Врховног суда Индије, признали су да вештачка интелигенција може да „појача дискриминацију“ у сценаријима где је њена непрозирност и даље на снази или где је обучена на нерепрезентативним подацима.
Забринутост у вези са приватношћу и безбедношћу такође је порасла. Судски досије садржи веома велику количину осетљивих личних података, као што су кривичне пријаве, финансије и медицински детаљи. Све смернице судова попут Високог суда у Керали обесхрабрују отпремање таквих података у јавне алате у облаку. Закон о заштити дигиталних личних података из 2023. године, примењује се на аутоматизовану обраду, што покрива многе алате вештачке интелигенције који се користе у судовима. У одсуству посебног закона о вештачкој интелигенцији, судови и програмери морају да се сналазе у мозаику норми о поверљивости и заштити података.
Још једна забринутост која доводи у питање дугорочно побољшање била би „пристрасност аутоматизације,” где људи несвесно превише верују рачунарским излазима. Научници тврде, на пример, да када вештачка интелигенција судији представи применљиви преседан или приоритет случаја, под притиском обима посла, судија може, често чак и не схватајући, поново размотрити неко питање. Како системи постају све беспрекорнији, једини аспект који ће спречити вештачку интелигенцију као алат да постане ћутљиви аутор у судским одлукама биће строго мешање од стране судске дисциплине.
Проналажење средњег пута
Правосуђе покушава да пронађе равнотежу између захтева броја предмета и етичких заштитних мера у свом функционисању. У том погледу, Керала је преузела вођство не само прописивањем Adalat.AI, већ и издавањем свеобухватне политике о вештачкој интелигенцији за подређене судове. Политика посматра вештачку интелигенцију као административни алат за транскрипцију и превођење, забрањује генеративној вештачкој интелигенцији да саставља пресуде или предвиђа исход, саветује судије да ригорозно процењују резултате вештачке интелигенције и забрањује екстерне платформе које захтевају отпремање поверљивих информација.
На националном нивоу, Врховни суд је основао Комитет за вештачку интелигенцију како би проценио своје алате и интеграцију у све судске ИТ системе, посебно развијајући партнерства са институцијама попут IIT Madras. Владине изјаве сугеришу да је у току јединствена политика за употребу вештачке интелигенције у судовима која ће бити усклађена са етичким и смерницама о приватности. Власти наглашавају да ће вештачка интелигенција бити прихваћена само уз „људски надзор, етички надзор и заштиту приватности“, при чему ће само судије бити овлашћене да потписују налоге.
Ипак, не постоји свеобухватни закон о вештачкој интелигенцији за Индију. Нека правила се данас налазе у судским писмима, законима о заштити података и општим политикама о технологији. Студије о интегритету судства предлажу спровођење периодичних ревизија пристрасности, обавезно откривање информација кад год вештачка интелигенција утиче на поднеске или одлуке и пружање странкама начина да оспоре алате вештачке интелигенције који утичу на њихове случајеве. Стручњаци наглашавају потребу за бољом технолошком инфраструктуром у судовима првог степена, обуком правосуђа за испитивање резултата вештачке интелигенције и едукацијом јавности о томе шта ови алати могу, а шта не могу да ураде.
Данашњи главни изазов више није усвајање вештачке интелигенције, већ способност суживота са њом. Прави проблеми попут заостатака, језичких баријера и неједнакости у приступу правним информацијама могу се ублажити алатима вештачке интелигенције. Међутим, не може се порећи да коришћење непрозирних алгоритама у свакодневним судским процесима може смањити њихову одговорност. За сада, индијске судије изгледају одлучне да држе људе чврсто под контролом, третирајући вештачку интелигенцију као помоћника, а не као пророка. Колико дуго ће ова равнотежа бити добра одредиће не само брзина дељења правде већ и ниво поверења које јавност има у овај процес.







