Spojte sa s nami

výpočtová technika

OASI, prvý vyhľadávací nástroj, ktorý našiel algoritmy, ktoré vlády a spoločnosti používajú voči občanom

ZDIEĽAM:

uverejnené

on

Vaše prihlásenie používame na poskytovanie obsahu spôsobmi, s ktorými ste súhlasili, a na zlepšenie porozumenia vám. Z odberu sa môžete kedykoľvek odhlásiť.

  • OASI, Observatory of Algorithms with Social Impact, vytvorila nadácia Eticas, zbiera informácie z desiatok algoritmov, ktoré používajú verejné správy a spoločnosti na celom svete, aby sa dozvedeli viac o ich sociálnom vplyve.
  • Cieľom je okrem iných charakteristík poskytnúť verejnosti prístup k informáciám o vládnych a firemných algoritmoch a vedieť, kto ich používa, kto ich vyvíja, aké hrozby predstavujú a či boli podrobené auditu.
  • Predpojatosť a diskriminácia algoritmu sa okrem iných hodnôt zvyčajne vyskytuje na základe veku, pohlavia, rasy alebo zdravotného postihnutia, ale vzhľadom na všeobecný nedostatok transparentnosti stále nie je možné poznať všetky jeho dôsledky na postihnuté skupiny.

Nadácia Eticas, nezisková organizácia, ktorá podporuje zodpovedné používanie algoritmov a systémov umelej inteligencie (AI), vytvorila observatórium algoritmov so sociálnym vplyvom (OASI). Toto observatórium predstavuje vyhľadávací nástroj, aby sa dozvedelo viac o nástrojoch, ktoré robia dôležité automatizované rozhodnutia o občanoch, spotrebiteľoch a používateľoch na celom svete.

Spoločnosti aj verejná správa v súčasnosti automatizujú rozhodovanie vďaka algoritmom. Avšak, jeho vývoj a uvádzanie do prevádzky sa neriadi vonkajšími kontrolami kvality, ani nie je také transparentné, ako by malo byť, čo necháva obyvateľstvo nechránené. S týmto vyhľadávacím nástrojom sa môže ktokoľvek dozvedieť viac o týchto algoritmoch: kto ich vyvinul, kto ich používa, rozsah ich použitia, či už boli auditované, o ich cieľoch alebo o ich sociálnom vplyve a hrozbách, ktoré predstavujú.

Momentálne„OASI zhromažďuje 57 algoritmov, ale očakáva, že v nasledujúcich mesiacoch dosiahne 100. Medzi nimi je 24, ktoré už v USA uplatňuje vláda a spoločnosti Big Tech. Napríklad ShotSpotter, nástroj algoritmu, ktorý nasadilo policajné oddelenie v Oaklande na boj proti násiliu a obmedzenie násilia páchaného na zbraniach pomocou mikrofónov na monitorovanie zvuku, a algoritmus na predpovedanie potenciálneho zneužívania a zanedbávania detí, ktorý používa okres Allegheny v Pensylvánii. Ďalším príkladom spoločnosti je Rekognition, systém rozpoznávania tváre spoločnosti Amazon, ktorý bol auditovaný laboratóriom MIT Media Lab na začiatku roku 2019 a pri identifikácii pohlavia jednotlivca sa zistilo, že funguje podstatne horšie, ak ide o ženu alebo tmavšiu pleť.

Najčastejšia diskriminácia je na základe veku, pohlavia, rasy alebo zdravotného postihnutia, vyrobené neúmyselne vývojármi, ktorým chýbajú socioekonomické schopnosti na pochopenie vplyvu tejto technológie. V tomto zmysle títo inžinieri navrhujú algoritmy založené iba na technických schopnostiach a keďže neexistujú žiadne externé ovládače a zdá sa, že fungujú podľa očakávania, algoritmus sa stále učí z nedostatočných údajov.

Vzhľadom na nedostatočnú transparentnosť fungovania niektorých z týchto algoritmov Nadácia Eticas, okrem spustenia OASI, vyvíja projekt externých auditov. Prvým je VioGén, algoritmus, ktorý používa španielske ministerstvo vnútra na priradenie rizika ženám, ktoré hľadajú ochranu potom, čo utrpeli prípady domáceho násilia. Spoločnosť Eticas vykoná externý audit prostredníctvom reverzného inžinierstva a administratívnych údajov, rozhovorov, správ alebo návrhových skriptov, aby zhromaždila výsledky vo veľkom rozsahu. To všetko s cieľom odhaliť príležitosti na zlepšenie v ochrane týchto žien.

"Napriek existencii algoritmických kontrolných a audítorských metód na zaistenie toho, aby technológia rešpektovala súčasné predpisy a základné práva, administratíva a mnohé spoločnosti naďalej ohluchujú žiadosti o transparentnosť od občanov a inštitúcií," vyhlásila Gemma Galdon, zakladateľka nadácie Eticas. . „Okrem OASI sme po niekoľkých rokoch, v ktorých sme vypracovali viac ako tucet auditov pre spoločnosti ako Alpha Telefónica, OSN, Koa Health alebo Inter-American Development Bank, vydali aj Príručku k algoritmickému auditu, že ich môže vykonávať ktokoľvek. Cieľom je vždy zvýšiť informovanosť, poskytnúť transparentnosť a obnoviť dôveru v technológie, ktoré samy osebe nemusia byť škodlivé. “

V tomto zmysle algoritmy, ktoré sú vyškolené v technike strojového učenia, používajú veľké množstvo historických údajov, aby ich „naučili“ vybrať si na základe minulých rozhodnutí. Tieto údaje zvyčajne nie sú reprezentatívne pre sociálno -ekonomickú a kultúrnu realitu, na ktorej sú aplikované, ale pri mnohých príležitostiach odrážajú nespravodlivú situáciu, ktorá nemá byť zachovaná. Algoritmus by týmto spôsobom technicky robil „správne“ rozhodnutia podľa svojho školenia, aj keď realita je taká, že jeho odporúčania alebo predpovede sú skreslené alebo diskriminačné.

Reklama

O nadácii Eticas

Nadácia Eticas sa snaží do technických špecifikácií previesť zásady, ktorými sa spoločnosť riadi, ako sú rovnaké príležitosti, transparentnosť a nediskriminácia a ktoré sú súčasťou technológií, ktoré automaticky rozhodujú o našich životoch. Snaží sa nájsť rovnováhu medzi meniacimi sa sociálnymi hodnotami, technickými možnosťami najnovšieho pokroku a právnym rámcom. Za týmto účelom kontroluje algoritmy, overuje, či sa na digitálny svet, najmä na umelú inteligenciu, uplatňujú zákonné záruky, a intenzívne pracuje na zvyšovaní informovanosti a šírení potreby zodpovednej a kvalitnej technológie.

Zdieľaj tento článok:

EU Reporter publikuje články z rôznych externých zdrojov, ktoré vyjadrujú širokú škálu názorov. Stanoviská zaujaté v týchto článkoch nemusia byť nevyhnutne stanoviská EU Reporter.

Trendy