Горка истина о АИ: и она је пуна предрасуда

Илустрација Тактикал Тех, са визуелним елементима Јоргоса Багакиса и Алесандра Крипсте. Користи се уз дозволу.

Овај чланак је написао Сафа Гнаим и првобитно је објављен на DataDetoxKit.org. Глобални гласови поново објављују уређену верзију, према уговору о подели садржаја. 

Иако може изгледати као „неутрална технологија“, вештачка интелигенција (АИ) такође има предрасуде — она није објективно средство које људи мисле да јесте. АИ су дизајнирали људи и заснива се на скуповима података. Баш као и ви, људи који га граде имају одређена уверења, мишљења и искуства која утичу на њихове изборе, било да то схватају или не. Инжењери и компаније које граде и обучавају АИ можда мисле да су одређене информације или циљеви важнији од других. У зависности од тога које скупове података „хране“ алатима вештачке интелигенције које граде — попут алгоритама или робота за ћаскање — те машине могу да дају пристрасне резултате. Зато вештачка интелигенција може да произведе нетачне податке, генерише лажне претпоставке или доноси исте лоше одлуке као и особа.

АИ није магија: машине које програмирају људи имају своје мане

Неки људи говоре о АИ као да је магија, али „вештачка интелигенција“ је само машина. Једноставно речено, АИ алати су компјутерски програми који су добили много података да би им помогли да направе предвиђања.„АИ“ се односи на низ алата дизајнираних да препознају обрасце, решавају проблеме и доносе одлуке много већом брзином и скалом него што то људи могу.

Али као и сваки алат, АИ су дизајнирали и програмирали људи. Људи који стварају ове машине дају им правила која треба да следе: „Уради ово, али не ради оно“. Знајући да су АИ алати аутоматизовани системи са сопственим ограничењима на која утичу људи, може вам дати више самопоуздања да причате о могућностима и недостацима АИ.

Када људи говоре о вештачкој интелигенцији, могли би да причају о много ствари. Погледајте неке примере АИ алата који су посебно популарни и њихове недостатке:

Алати за генерисање текста креирају садржај на основу одређених кључних речи (или „упутстава“) које дефинишете. Они су обучени за велике количине текста са интернета, различитог степена квалитета. Можда ћете чути да се они називају „модели великих језика“ (ЛЛМ) или специфичним називима производа као што је ChatGPT, или чак лежернијим терминима као што су „четботи“ или „АИ асистенти“. Иако је познато да ови алати постижу подвиге људске интелигенције, попут полагања испита, такође је познато да „халуцинирају” тј. да такође генеришу и текст који је нетачан.

Алати за генерисање слика креирају слике или видео записе на основу одређених кључних речи које дефинишете. Можда ћете чути за њих као модели са слике, или чак под одређеним називима као што су DALL-E или Stable Diffusion. Ови алати могу да произведу невероватно веродостојне слике и видео записе, али је такође познато да своде свет на стереотипе и могу се користити за сексуалну изнуду и узнемиравање.

Системи за препоруке вам показују садржај за који „предвиђају“ да ћете највероватније кликнути или са њим ступити у интеракцију. Ови системи раде у позадини претраживача, фидова друштвених медија и аутоматске репродукције на ЈуТубу. Можда ћете чути и да се они називају алгоритми. Ови алати вам могу дати више од онога што вас занима, а такође вас могу гурнути у одређене опасне рупетине. Системи препорука се користе у важним одлукама као што су запошљавање, упис на факултет, стамбени кредити, и друге области свакодневног живота.

Док неки стручњаци верују да алати за вештачку интелигенцију, као што су четботови, постају „паметнији“ сами по себи, други кажу да су пуни грешака. Ево неколико разлога зашто бисте можда желели да размислите о предрасудама иза АИ:

  • Неки од података на којима су поставњени могу бити лични, заштићени ауторским правима или коришћени без дозволе.
  • У зависности од скупова података, они могу бити пуни говора мржње, теорија завере, или информација које су једноставно погрешне.
  • Подаци могу бити пристрасни према одређеним људима, половима, културама, религијама, пословима или околностима.

Алати за вештачку интелигенцију су такође обучени за податке који ствари у потпуности изостављају. Ако у подацима о обуци има мало или нимало информација о групи људи, језику или култури, неће моћи да генерише одговоре о њима. Кључна студија Џој Буоламвинија из 2018. под називом „Нијансе пола“ (Gender Shades) идентификовала је како се широко распрострањени системи за препознавање лица боре да идентификују лица људи, посебно црнкиња. У време студије, полиција у Сједињеним Државама је већ рутински користила ове погрешне алате.

Усредсредите пажњу на пристрасност да бисте избегли њено репродуковање

Сада када знате за неке од слабости које могу постојати у скуповима података АИ, које праве људи попут нас, хајде да погледамо себе. Како начин на који наш људски мозак функционише може расветлити пристрасности вештачке интелигенције?

Постоје врсте предрасуда које су дубоко укорењене у појединцима, организацијама, културама и друштвима. Осветлите их размишљајући о овим питањима:

  • Како очекујете да се други представе, укључујући како се понашају, облаче и говоре?
  • Да ли постоје групе које се суочавају са већим ризиком, казнама или стигматизацијом због тога како изгледају или како се понашају, облаче или говоре?

Предрасуде о којима сте управо размишљали често се ослањају на претпоставке, ставове и стереотипе који су део култура веома дуго и могу утицати на ваше доношење одлука на несвесне начине. Због тога се називају „имплицитне предрасуде“ – често су уграђене у ваш начин размишљања, тешко их је уочити и непријатно им се суочити.

Уобичајене имплицитне предрасуде укључују:

  • Родна пристрасност: склоност пребрзим закључцима у вези са људима различитих полова на основу предрасуда или стереотипа.
  • Расна и/или етничка пристрасност: склоност пребрзим закључцима у вези са људима на основу боје њихове коже, културног порекла и/или етничке припадности.

Харвард поседује огромну библиотеку имплицитних тестова пристрасности које можете бесплатно испробати на мрежи да бисте видели како функционишите и на којим областима можете да радите. Са пуно имплицитних предрасуда, ово може изгледати као путовање да се та уверења идентификују. Мало је вероватно да ће се то догодити преко ноћи, али зашто не почети сада?

Све је увел(аи)чано

Сада када сте видели уобичајене примере ових мисаоних образаца и имплицитних предрасуда, замислите како би они могли да изгледају у много већој мери. Обрасци размишљања и имплицитне предрасуде попут ових могу утицати не само на појединце, већ и на читаве групе људи, посебно када се „тврдо укодирају“ у компјутерске системе.

Користећи бесплатни софтвер за генерисање текста у слику Perchance.org, налог за „лепа жена“ даје следеће резултате:

АИ слике генерисане на Perchance.org 13. августа 2024. Слике обезбедио Tactical Tech.

Ако је алатка створила шест слика „лепих жена“, зашто све изгледају скоро идентичноl?

Пробајте сами — да ли се ваши резултати разликују?

Спроведене су веће студије на ову тему, са сличним резултатима. Можете прочитати (енгл.) о једној таквој студији и видети инфографику овде: „Људи су пристрасни. Генеративна АИ је још гора.”

АИ алати нису неутрални или непристрасни. Њих поседују и граде људи са сопственим мотивима. Чак и АИ алати који укључују „отворено“ у свом називу можда неће нужно бити транспарентни о томе како раде и можда су програмирани са уграђеним предрасудама.

Можете поставити критична питања о томе како су АИ модели изграђени и обучени да бисте стекли увид у то како је АИ део већег система:

  • Ко је власник компанија које креирају АИ моделе?
  • Како компаније профитирају?
  • Који су системи моћи које компаније стварају или одржавају?
  • Ко има највише користи од АИ алата?
  • Ко је у највећем ризику од штете од ових система вештачке интелигенције?

Одговоре на ова питања може бити тешко или немогуће пронаћи. То само по себи има смисла.

Пошто технологију граде људи и информишу је на основу података (које људи такође прикупљају и означавају), можемо замислити технологију као огледало проблема који већ постоје у друштву. И можемо рачунати на чињеницу да алати са вештачком интелигенцијом јачају неравнотежу моћи и систематизују и одржавају пристрасности, али брже него икада раније.

Као што сте видели, погрешни обрасци размишљања су потпуно нормални и сви их имају на овај или онај начин. Ако почнете да се суочавате са чињеницама данас, то вам може помоћи да избегнете грешке сутра и може вам помоћи да идентификујете недостатке унутар система, попут вештачке интелигенције.

Započnite razgovor

Molimo Vas da se prijavi se »

Pravila korišćenja

  • Svi komentari se pregledaju. Pošaljite komentar samo jednom jer bi u suprotnom mogao biti prepoznat kao spam.
  • Molimo Vas da se prema drugima odnosite sa poštovanjem. Komentari koji sadrže govor mržnje, nepristojne izreke i lične uvrede neće biti objavljeni.