Povežite se z nami

Računalniška tehnologija

OASI, prvi iskalnik, ki je našel algoritme, ki jih vlade in podjetja uporabljajo za državljane

DELITI:

objavljeno

on

Vašo prijavo uporabljamo za zagotavljanje vsebine na načine, na katere ste privolili, in za boljše razumevanje vas. Odjavite se lahko kadar koli.

  • Observatorij algoritmov s socialnimi vplivi (OASI), ki ga je ustanovila Eticas Foundation, zbira podatke iz več deset algoritmov, ki jih uporabljajo javne uprave in podjetja po vsem svetu, da bi izvedeli več o njihovem družbenem vplivu.
  • Cilj je med drugimi značilnostmi omogočiti javnosti dostop do informacij o vladah in algoritmih podjetij ter vedeti, kdo jih uporablja, kdo jih razvija, katere grožnje predstavljajo in ali so bile revidirane.
  • Pristranskost algoritma in diskriminacija se med drugimi vrednotami običajno pojavita glede na starost, spol, raso ali invalidnost, vendar zaradi splošnega pomanjkanja preglednosti še vedno ni mogoče poznati vseh njenih posledic za prizadete skupine.

Eticas Foundation, neprofitna organizacija, ki spodbuja odgovorno uporabo algoritmov in sistemov umetne inteligence (AI), je ustvarila Observatory of Algorithms with Social Impact (OASI). Ta observatorij uvaja iskalnik za več informacij o orodjih, ki sprejemajo pomembne avtomatizirane odločitve za državljane, potrošnike in uporabnike po vsem svetu.

Trenutno tako podjetja kot javna uprava avtomatizirajo odločitve zahvaljujoč algoritmom. Vendar pa njegov razvoj in zagon ne sledita zunanjim kontrolam kakovosti, niti nista tako pregledna, kot bi morala biti, zaradi česar prebivalstvo ni zaščiteno. S tem iskalnikom lahko vsak izvede več o teh algoritmih: kdo jih je razvil, kdo jih uporablja, njihovo področje uporabe, ali so bili revidirani, njihove cilje ali njihov družbeni vpliv in grožnje, ki jih predstavljajo.

V tem trenutku, OASI zbira 57 algoritmov, vendar pričakuje, da bo v naslednjih mesecih dosegel 100. Med njimi jih vlada in velika tehnološka podjetja v ZDA že uporabljajo 24. Na primer ShotSpotter, algoritemsko orodje, ki ga je policijska uprava Oakland uporabila za boj proti nasilju s pištolami in ga zmanjšalo z mikrofoni za spremljanje zvoka, in algoritem za napovedovanje morebitne zlorabe in zanemarjanja otrok, ki ga uporablja okrožje Allegheny v Pensilvaniji. Drug primer podjetja je Rekognance, Amazonov sistem za prepoznavanje obrazov, ki ga je MIT Media Lab pregledal v začetku leta 2019 in se je pri ugotavljanju spola posameznika, če je bil ženskega ali temnejšega videza, bistveno slabše.

Najpogostejša diskriminacija je na podlagi starosti, spola, rase ali invalidnosti, so jih nenamerno ustvarili razvijalci, ki jim primanjkuje socialno -ekonomskih veščin, da bi razumeli vpliv te tehnologije. V tem smislu ti inženirji oblikujejo algoritme samo na podlagi tehničnih veščin, in ker zunanjih kontrol ni in se zdi, da delujejo po pričakovanjih, se algoritem nenehno uči iz pomanjkljivih podatkov.

Zaradi pomanjkanja preglednosti pri delovanju nekaterih od teh algoritmov Eticas Foundation poleg uvedbe OASI razvija projekt zunanjih revizij. Prvi je VioGén, algoritem, ki ga špansko notranje ministrstvo uporablja za dodelitev tveganja ženskam, ki iščejo zaščito po primerih nasilja v družini. Eticas bo izvedel zunanjo revizijo s povratnimi inženirskimi in administrativnimi podatki, intervjuji, poročili ali načrti za zbiranje obsežnih rezultatov. Vse to z namenom odkrivanja možnosti za izboljšanje zaščite teh žensk.

"Kljub obstoju algoritmičnih kontrolnih in revizijskih metod za zagotovitev, da tehnologija spoštuje veljavne predpise in temeljne pravice, se uprava in številna podjetja še naprej oglušujejo o prošnjah državljanov in institucij za preglednost," je dejala Gemma Galdon, ustanoviteljica Fundacije Eticas . »Poleg OASI smo po več letih, v katerih smo razvili več kot ducat revizij za podjetja, kot so Alpha Telefónica, Združeni narodi, Koa Health ali Medameriška razvojna banka, objavili tudi Vodnik po algoritmični reviziji da jih lahko izvaja vsak. Cilj je vedno ozavestiti, zagotoviti preglednost in obnoviti zaupanje v tehnologijo, kar samo po sebi ni nujno škodljivo. "

V tem smislu algoritmi, ki se usposabljajo s tehnikami strojnega učenja, uporabljajo veliko količino zgodovinskih podatkov, da jih "naučijo" izbirati na podlagi preteklih odločitev. Običajno ti podatki ne predstavljajo družbenoekonomske in kulturne realnosti, v kateri so uporabljeni, vendar večkrat odražajo nepravično stanje, ki se ga ne namerava ohraniti. Na ta način bi algoritem tehnično sprejemal "pravilne" odločitve glede na svoje usposabljanje, čeprav je v resnici njegova priporočila ali napovedi pristranske ali diskriminatorne.

oglas

O Fundaciji Eticas

Fundacija Eticas si prizadeva prevesti v tehnične specifikacije načela, ki vodijo družbo, kot so enake možnosti, preglednost in nediskriminacija v tehnologijah, ki avtomatizirano odločajo o naših življenjih. Išče ravnovesje med spreminjanjem družbenih vrednot, tehničnimi možnostmi najnovejših dosežkov in pravnim okvirom. V ta namen revidira algoritme, preverja, ali se pravna jamstva uporabljajo za digitalni svet, zlasti za umetno inteligenco, in izvaja intenzivno delo za ozaveščanje in razširjanje potrebe po odgovorni, kakovostni tehnologiji.

Delite ta članek:

EU Reporter objavlja članke iz različnih zunanjih virov, ki izražajo širok razpon stališč. Stališča v teh člankih niso nujno stališča EU Reporterja.

Trendi