Корисник:GrupaMATF/песак
From Wikipedia, the free encyclopedia
Algoritamska pristrasnost opisuje sistematske i ponavljajuće greške u računarskom sistemu koje stvaraju nepravedne ishode, kao što je privilegovanje jedne kategorije u odnosu na drugu na načine koji se razlikuju od namenjene funkcije algoritma.
Овај чланак је део пројекта семинарских радова на Математичком факултету у Београду. Датум уноса: фебруар—мај 2023. Ова група студената уређиваће у простору чланака. Немојте пребацивати чланак у друге именске просторе. Позивамо вас да допринесете његовом квалитету и помогнете студентима при уређивању. |
Pristrasnost može nastati iz mnogih faktora, uključujući, ali ne ograničavajući se na dizajn algoritma, nenamernu upotrebu, neočekivanu upotrebu ili odluke koje se odnose na način kodiranja, prikupljanja, odabira ili upotrebe podataka za obuku algoritma. Na primer, primećena je algoritamska pristrasnost u rezultatima pretrage na pretraživačima i društvenim mrežama. Ova pristrasnost može imati uticaj koji varira od nenamernog kršenja privatnosti do jačanja društvenih pristrasnosti vezanih za rasu, pol, seksualnu orijentaciju i etničku pripadnost. Proučavanje algoritamske pristrasnosti najviše se bavi algoritmima koji odražavaju sistematsku i nepravednu diskriminaciju. Ova pristrasnost je nedavno počela da se adresira u pravnim okvirima, kao što su Opšta uredba o zaštiti podataka (2018) i predloženi Zakon o veštačkoj inteligenciji (2021), Evropske unije.
Kako algoritmi proširuju svoju sposobnost da organizuju društvo, politiku, institucije i ponašanje, sociolozi su postali zabrinuti zbog načina na koji neočekivani izlaz i manipulacija podacima mogu uticati na fizički svet. Zbog toga što se algoritmi često smatraju neutralnim i bez pristrasnosti, oni mogu pogrešno dati privid većeg autoriteta od ljudskog stručnog znanja (delom zbog psihološkog fenomena pristrasnosti automatizacije), a u nekim slučajevima, oslanjanje na algoritme može zameniti ljudsku odgovornost za njihove ishode. Pristrasnost može ući u algoritamske sisteme kao rezultat postojećih kulturnih, društvenih ili institucionalnih očekivanja; zbog tehničkih ograničenja njihovog dizajna; ili korišćenjem u neočekivanim kontekstima ili od strane publike koja nije uzeta u obzir u početnom dizajnu softvera.
Algoritamska pristrasnost je bila navedena u slučajevima koji se kreću od ishoda izbora do širenja govora mržnje na internetu. Takođe se pojavila u pravosuđu, zdravstvu, zapošljavanju, pogoršavajući postojeće rasne, socijalne i rodne predrasude. Relativna nesposobnost tehnologije prepoznavanja lica da tačno identifikuje tamnopute osobe povezana je sa višestrukim nepravednim hapšenjima crnih muškaraca, a to je pitanje koje proizlazi iz neuravnoteženih skupova podataka. Problemi u razumevanju, istraživanju i otkrivanju algoritamske pristrasnosti i dalje postoje zbog zaštićene prirode algoritama koji se obično tretiraju kao poslovna tajna. Čak i kada se pruži potpuna transparentnost, složenost određenih algoritama predstavlja prepreku u razumevanju njihovog funkcionisanja. Osim toga, algoritmi se mogu menjati ili odgovarati na ulaz ili izlaz na načine koji se ne mogu predvideti ili lako reprodukovati za analizu. U mnogim slučajevima, čak i unutar jedne web stranice ili aplikacije, ne postoji jedan algoritam za ispitivanje, već mreža mnogih povezanih programa i ulaza podataka, čak i između korisnika iste usluge.