Štát testuje AI nástroj na PREDPOVEDANIE VRAŽDY. Dystopický projekt ohrozuje súkromie a spravodlivosť

Vláda Spojeného kráľovstva pracuje na novom nástroji, ktorého cieľom je predpovedať, kto sa s najväčšou pravdepodobnosťou stane vrahom.
Vláda Spojeného kráľovstva pracuje na novom nástroji, ktorého cieľom je predpovedať, kto sa s najväčšou pravdepodobnosťou stane vrahom. Zdroj: Unsplash/1MilliDollars, Sander Sammy
Reklama

Vláda Spojeného kráľovstva momentálne vyvíja nový nástroj, ktorý by mal predpovedať, kto by sa mohol stať vrahom. Tento projekt, známy ako „projekt predpovede vrážd“, je v súčasnosti v rukách ministerstva spravodlivosti, ktoré údajne využíva dáta od stoviek tisíc ľudí, od 100 000 do 500 000. Cieľom tohto projektu je aplikovať moderné metódy dátovej vedy a umelej inteligencie (AI) na efektívnejší boj proti zločinu. Avšak, odborníci varujú, že tento prístup je problematický, označujú ho za desivý, dystopický a nie vedecký, čo vzbudzuje vážne obavy o jeho etické a praktické implikácie.

Tento projekt bol odhalený mimovládnou organizáciou Statewatch, ktorá tvrdí, že v ňom sú zahrnuté aj údaje od jednotlivcov, ktorí žiadne trestné činy nespáchali.

Zdroj: Unsplash/ Sasun Bughdaryan

To znamená, že algoritmus by mohol obsahovať informácie od osôb, ktoré sa obrátili na políciu pre pomoc, ako napríklad obete domáceho násilia. Aj keď úradníci ministerstva spravodlivosti tieto obvinenia popierajú, Statewatch zverejnil časť zmluvy o zdieľaní údajov medzi ministerstvom spravodlivosti a manchesterskou políciou, ktorá naznačuje, že tieto obavy môžu byť opodstatnené. Píše ZME Science.

Projekt obsahuje aj konkrétne údaje, ktoré sa majú zdieľať, ako napríklad zdravotné markery považované za dôležité pre predpovedanie kriminálneho správania. Medzi tieto informácie patrí duševné zdravie, závislosti, sebapoškodzovanie, riziko samovrážd, zraniteľnosť a invalidita. Tento prístup má však viacero vážnych nedostatkov. Prvým problémom je, že podobné algoritmy na predpovedanie zločinu sa už viackrát ukázali ako nepresné a neúčinné. Výskum v tejto oblasti neustále naznačuje, že takéto systémy majú sklon robiť chyby.

Druhým problémom je možnosť zneužitia tohto nástroja na diskrimináciu určitých skupín obyvateľstva. Obavy rastú, že tieto nástroje umelej inteligencie by mohli zvyšovať rasovú zaujatosť, čo by viedlo k neprimeranému dohľadu a negatívnym zásahom proti konkrétnym komunitám.

Zdroj: Unsplash/Sander Sammy

Aj keď je jasné, že umelá inteligencia a algoritmy môžu zohrávať dôležitú úlohu v práci polície, iba ak sú založené na solídnych vedeckých základoch, bez toho by výsledky mohli byť viac škodlivé ako užitočné.

Hovorca ministerstva spravodlivosti ubezpečil verejnosť, že tento projekt je len výskumného charakteru. Avšak vzhľadom na utajenie celého projektu a nedostatok transparentnosti vyvoláva organizácia Statewatch vážne obavy. Kritici upozorňujú, že hranica medzi výskumom a reálnym zavádzaním politík môže byť veľmi tenká, a že aj pilotné testy môžu poslúžiť ako základ pre budúce invazívnejšie a potenciálne nebezpečné stratégie dohľadu.

Reklama
Ďakujeme, že nás čítate.

Ak máte zaujímavé nápady na témy, o ktorých by sme mohli písať alebo ste našli v článku chyby, neváhajte nás kontaktovať na [javascript protected email address]

Ficova IV. vláda

Zobraziť viac

Zo zahraničia

Zobraziť viac

Z domova

Zobraziť viac

Kultúra a showbiznis

Zobraziť viac

Ekonomika a biznis

Zobraziť viac

Šport

Zobraziť viac

TV Spark (VIDEO)

Zobraziť viac
Najčítanejšie v kategórii Zaujímavosti