Algoritmikus torzítás

A számítási módszerrel lehet az, hogy az eredmény az algoritmus nem semleges, igazságos vagy méltányos.

Algoritmikus torzítás akkor fordulhat elő, amikor a gépi tanulási algoritmus kiképzéséhez használt adatok az adatok gyűjtésében, kiválasztásában vagy felhasználásában részt vevő emberek implicit értékeit tükrözik. Az algoritmikus torzításokat azonosították és bírálták a keresőmotorok eredményeire, a közösségi hálózati szolgáltatásokra , a magánéletre és a faji profilalkotásra gyakorolt ​​hatásuk miatt . A kutatási eredmények szerint ez az elfogultság rasszista, szexista, vagy más társadalmi vagy kulturális elfogultságot tükrözhet , az adatok feltételezett semlegessége ellenére. Konkrét példa az online tolmácsok példájára, akik szisztematikusan fordítják az angol „ápoló” (semleges) kifejezést „ápoló” (nő) és az „orvos” (semleges) kifejezést „orvos” (férfi) kifejezésre. Az algoritmikus torzítások tanulmányozását különösen olyan algoritmusok érdeklik, amelyek tükrözik a „szisztematikus és tisztességtelen” diszkriminációt .

Az algoritmikus torzítás nem feltétlenül az algoritmus tervezőinek szándékos szándéka a felhasználók megtévesztésére. Annál is fontosabb számukra, hogy tudatában legyenek ennek, mivel egy objektívnek feltételezett elfogult algoritmus használata erősen befolyásolhatja véleményüket. Ez a probléma felveti azt a kérdést, hogy az algoritmusok tervezői nem kapnak visszajelzést a létrehozásukról, amelyet már a nagy internetes platformok mérnökei is felvetettek.

Definíciók

Egy algoritmus elfogult, ha eredménye nem semleges, tisztességes vagy igazságos. Ez a meghatározás ezért három fogalmon alapszik: semlegesség , hűség és méltányosság . Az algoritmikus torzítások diszkriminációhoz vezethetnek .

Algoritmikus tisztesség

Az algoritmusok elfogultságának megakadályozása érdekében egyes kutatások, például a Pedreshi 2008 célja olyan algoritmusok kifejlesztése, amelyek tiszteletben tartják a méltányosság elveit .

Ez a megközelítés magában foglalja a saját tőke meghatározását. Corbett-Davies és Goel 2018 három meghatározást különböztet meg:

Hamilton (2016) megkülönbözteti az egyéni és a csoporttőkét is. Az egyéni méltányosság biztosítja, hogy a hasonló jellemzőkkel rendelkező személyek azonos bánásmódban részesüljenek, míg a csoporttőke más-más bánásmódban részesíti a különböző csoportok embereit az egyenlő eredmények elérése érdekében .

Eredet

Az algoritmus torzítások származhatnak az algoritmus programozójának kognitív torzításaiból , statisztikai torzításokból, amelyek különösen a képzési adatokhoz kapcsolódnak, vagy akár gazdasági torzításokból.

A programozók elfogultsága

Az algoritmusokat fejlesztő programozók sok kognitív torzításnak lehetnek kitéve . Ezen elfogultságok közül a Panurge juhok elfogultsága abból áll, hogy népszerű modellezést alkalmaznak anélkül, hogy az adott kontextusban relevanciát biztosítanának. A megerősítés elfogultsága az, hogy népszerűsítse világlátását anélkül, hogy figyelembe venné azokat az adatokat, amelyek nem az ő irányába mennek.

Az adatok a tudósok , akik programozni az algoritmusok nem reprezentatív a lakosság körében. Az Institute AI Now  (in) 2018 tanulmánya rávilágít arra, hogy a kutatószemélyzet mesterséges intelligenciájának a Facebookban csak 15% -a, a Google esetében pedig 10% -a nő.

A fehér férfiak túlreprezentációja az tudósok körében és a kisebbségek alulreprezentáltsága oda vezethet, hogy az adatkutatók nem veszik kellőképpen figyelembe a lehetséges elfogultságokat és diszkriminációt. Ezt hívja D'Ignazio és Klein 2020 " privilégiumveszélynek" .

Statisztikai torzítás

A statisztikai torzítások származhatnak az algoritmus vagy maga az algoritmus bemeneténél található adatokból.

2015-ben abbahagyták az Amazon által kifejlesztett önéletrajz-algoritmust, amikor kiderült, hogy erősen diszkriminálja a női önéletrajzokat.

Az elfogultság származhat olyan statisztikai módszerből is , mint például a kihagyott változó torzítás , a szelekciós torzítás vagy az endogenitás torzítás .

Gazdasági torzítások

A gazdasági torzítások a szereplők gazdasági ösztönzőihez kapcsolódnak.

Például a Lambrecht és a Tucker 2017 kimutatta, hogy jövedelmezőbb a technikai munkahelyek hirdetéseit a férfiakra, mint a nőkre irányítani.

Algoritmikus torzítások alkalmazási tartományonként

Lexikai beágyazások

A szóbeágyazási modellek képesek reprodukálni az emberi pszichológiai torzításokat.

Caliskan, Bryson és Narayanan 2017 a Glove  (en) vektor beágyazódásának modelljét tanulmányozza, és megmutatja, hogy implicit összefüggéseket találunk a hordozó szavak előítéletei között. Javasolják az implicit asszociációs teszt által inspirált előítéletek mérési módszerét .

Arcfelismerő

Szerint Buolamwini és Gebru 2018 , a nők kevésbé könnyen felismerhető arcfelismerő szoftver IBM , Microsoft és Face ++ . A számukra benyújtott 127 figura hivatalos személyiségéből a Face ++ a férfiak 99,3% -ának, de a nőknek csak 78,7% -ának tette megfelelővé. Így a vállalat hibáinak 95,9% -a nőket érintett.

Ajánlási algoritmusok

Az ajánlási algoritmusok elfogult eredményekhez vezethetnek bizonyos tartalmakhoz.

Például Guillaume Chaslot és az Algotransparency egyesület által végzett YouTube- ajánlási algoritmus fordított mérnöki munkája azt mutatja, hogy az algoritmus inkább az összeesküvéses tartalomnak kedvez.

Beszélgető ügynökök

2016-ban a Microsoft által kifejlesztett és a Twitteren telepített Tay beszélgető ügynököt 24 óra elteltével el kellett távolítani a rasszista megjegyzéseket követően.

Megjósló igazságosság

Egyes amerikai államokban a szabadságjogok és a fogva tartás igazságszolgáltatása a fogvatartottak korai szabadon bocsátására vonatkozó döntéseit kockázatértékelési algoritmusokra alapozza; ezt prediktív igazságosságnak nevezzük . 2016-ban a ProPublica civil szervezetek felméréséből kiderült, hogy a Northpointe (in) vállalat algoritmusa , bár alkotói állítása szerint nem veszi közvetlenül figyelembe a fajt, rasszista elfogultság volt.  

Harc az algoritmikus torzítás ellen

Az algoritmikus torzítás elleni küzdelemnek számos lehetősége van. A TechCrunch szerint megosztott és szabályozott adatbázisokat kell létrehozni, amelyek megakadályozzák az egyéneket az adatok manipulálásában. Valójában annak elismerése, hogy az intelligencia egybeesik az előítéletek hiányával, az algoritmusok még nem elég intelligensek, ezért előítéletektől mentesek ahhoz, hogy kijavítsák magukat; Amíg arra várnak, hogy képesek legyenek rá, az embereknek, tudatában annak, hogy mi az előítélet, ezért ellenőrizniük kell őket, hogy megakadályozzák őket abban, hogy növeljék a torzított orientációkat, amelyek a torzított adatokból származnak, amelyeken keresztül tanulnak.

Az algoritmikus torzítás elleni küzdelem egyik fő nehézsége az algoritmusok működésének átláthatatlansága. Ennek az átlátszatlanságnak négy eredete lehet; a szellemi tulajdonukat védeni akaró vállalatok által szándékosan létrehozott titoktartás, a felhasználók és kutatók írástudatlansága, de az is, hogy az idő előrehaladtával egyes algoritmusok bonyolultságuk miatt olvashatatlanná válhatnak, és végül néhány algoritmus, különösen a nagy online szolgáltatások, túl nagyok ahhoz, hogy tanulmányozzák őket. Míg egyes kutatók megpróbáltak módszereket kidolgozni az átláthatóság javítására, mások, például Shoshana Zuboff és Ruha Benjamin azt állítják, hogy az algoritmusokat nem lehet elszigetelt objektumokként megközelíteni, hanem egy nagy kulturális és társadalmi-technikai gyűlés részeként.

Algoritmusok és fordított tervezés auditja

Az algoritmikus torzítások dokumentálásához szükség van azok auditálására . Ehhez Angwin et al. 2016 összegyűjtötte az adatokat és kidolgozta saját modelljét, hogy kiemelhesse a recidivizmus kockázatértékelési algoritmusának elfogultságát.

Kritikai elmélet és néprajzi megközelítések

Angèle Christin szociológus szerint az auditokkal két másik módja van az algoritmus-elfogultság problémájának megközelítésére. Az első a történelmi és kulturális megközelítés. Ez a kritikus szociológia alapján hosszabb szekvenciákban az algoritmikus torzítási események felülvizsgálatából áll . Az algoritmusok reprodukálnák a diszkrimináció , a felügyelet és az árucikkek már meglévő struktúráit . A második a néprajzi megközelítés. Lehetővé teszi egyrészt annak meghatározását, hogy mely strukturális erők teszik lehetővé az elfogultság megjelenését, másrészt annak megfontolását, hogy az algoritmusokat hogyan befolyásolják mindennapi használatuk. Angèle Christin e megközelítés keretében három módszert kínál az algoritmusok tanulmányozására. Az „algoritmikus törés” az algoritmusok használata során végbemenő újrakonfigurációk, valamint a nyilvánossággal és az intézményekkel való interakciójuk vizsgálatából áll. Az „algoritmikus összehasonlítás” ugyanazon algoritmus különböző területeken történő alkalmazásának elemzésére utal, hogy megértsük az alkalmazások és a működési különbségek torzításának megjelenését. Végül az „algoritmikus háromszögelés” másodlagos algoritmusok használatán alapul, hogy adatokat gyűjtsön a vizsgált algoritmusról.

Előírások

Egyesült Államok

Az Egyesült Államokban nincs átfogó jogszabály, amely az algoritmikus torzítást szabályozza. Ez a kérdés szövetségi vagy állami szinten megoldható, és ágazatonként, felhasználásonként, valamint az érintett iparágon vagy kormányonként eltérő lehet. 2017-ben New York City elfogadott egy törvényt, amely bizottságot hozott létre az algoritmusok városban történő használatának figyelemmel kísérésére.

Vélemények

Kinjal Dave kutató a Data & Society folyóirat honlapján megjelent oszlopban bírálja az elfogultság kifejezés használatát az algoritmusok előítéleteinek kijelölésére. Szerinte a szociálpszichológiából eredő elfogultság kifejezés az egyén tökéletlenségére utal, míg az algoritmusok intézményi erőket alkotnak.

A D'Ignazio és a Klein 2020 is átveszi ezt az áttekintést. Számukra az eltérés az algoritmikus torzításról beszélni és azt sugallni, hogy ezeket az torzításokat kijavíthatnánk. Ahelyett, hogy elfogultságról beszélnének, inkább az elnyomásról beszélnek.

Bibliográfia

Filmográfia

Megjegyzések és hivatkozások

  1. (in) Helen Nissenbaum , "  Hogy a számítógépes rendszerek megtestesítik értékek  " , Számítógép , vol.  34, n o  3,2001. március, P.  120–119 ( DOI  10.1109 / 2.910905 , online olvasás , hozzáférés : 2017. november 17. )
  2. (in) Lucas Introna és Helen Nissenbaum , "  A web meghatározása: a keresőmotorok politikája  " , Computer , vol.  33, n o  1,2000, P.  54–62 ( DOI  10.1109 / 2.816269 , online olvasás , hozzáférés : 2017. november 17 )
  3. (in) Kate Crawford , "  Lehet egy algoritmus agonista lenni? Tíz jelenet az élettől a számított kiadványokban  ” , Science, Technology, & Human Values , vol.  41, n o  1,2015. június 24, P.  77–92 ( DOI  10.1177 / 0162243915589635 )
  4. (in) Zeynep Tüfekçi , "  Algoritmikus ártalmak a Facebookon és a Google-n túl: A számítástechnikai ügynökség új kihívásai  " , Colorado Technology Law Journal Symposium Essays , vol.  13,2015, P.  203–216 ( online olvasás , hozzáférés: 2017. november 17. )
  5. (in) Lisa Nakamura , az új média monitoring , London, Routledge,2009, 149–162  . ( ISBN  978-0-415-56812-8 )
  6. (in) Laura Sydell , "  Can Számítógépek rasszistának? Az algoritmusok emberszerű elfogultsága  ” , az NPR.org oldalán , a National Public Radio / All Things megfizetve (megtekintés : 2017. november 17. )
  7. (in) Batya Friedman és Helen Nissenbaum , "A  számítógépes rendszerek elfogultsága  " , ACM tranzakciók az információs rendszereken , 1. évf.  14, n o  3,1996. július, P.  330–347 ( online olvasás , hozzáférés : 2017. november 18 )
  8. (in) Paul Lewis, „  ” Elménk eltérített „: Ki a tech bennfentesek félelem egy okostelefon-utópia  " , Napi ,2017
  9. Patrice Bertail, David Bounie, Stephan Clémençon és Patrick Waelbroeck, „  Algoritmusok: elfogultság, megkülönböztetés és méltányosság  ” , https://www.telecom-paris.fr (hozzáférés: 2020. július 14.) ) .
  10. (in) Pedreshi , "  Diszkrimináció-aware adatbányászat  " , Proceedings of the ACM 14. International Conference on Knowledge Discovery és SIGKDD Data Mining ,2008( DOI  10.1145 / 1401890.1401959 , online olvasás , hozzáférés : 2020. július 14. )
  11. (in) Sam Corbett-Davies és Sharad Goel , "  az intézkedés Méltányosság és Mismeasure: kritikai áttekintése Fair Machine Learning  " , Arxiv.org ,2018( online olvasás ).
  12. Evan Hamilton, A méltányosság-tudatos gépi tanulás négy megközelítésének összehasonlítása , Haverford College Computer Science , 2016
  13. Sarah West Myers, Meredith Whittaker és Kate Crawford. „Diszkrimináló rendszerek: nem, faj és erő az AI-ben”, AI Now Institute, 2019, https://ainowinstitute.org/discriminatingsystems.pdf .
  14. (en) Catherine D'Ignazio és Lauren F. Klein , „1. A hatalom fejezete” , az adatfeminizmusban , az MIT Press,2020( online olvasás ).
  15. (in) Jeffrey Dastin, "  Amazon maradékot titkos AI toborzó eszköz, hogy megmutatta Elfogultság nők contre  " a Reuters.com ,2018. október 10(megtekintés : 2020. július 14. ) .
  16. (in) Anja Lambrecht és Catherine Tucker , "  Algoritmikus diszkrimináció? : látszólagos algoritmikus torzítás az őshirdetések kiszolgálásában  ” , Publikálatlan kézirat, Massachusetts Institute of Technology ,2017
  17. (a) Aylin Caliskan , Joanna J. Bryson és Arvind Narayanan , "  Szemantika származó automatikusan nyelvi korpuszok Tartalmaz torzításokat humán-szerű  " , Science ,2017. május 14( DOI  10.1126 / science.aal4230 , online olvasás ).
  18. (in) Joy Buolamwini és Timnit Gebru , "  Nemek Shades: Pontosság interszekcionális nemek közötti egyenlőtlenségek inCommercial Classification - MIT Media Lab  " , Proceedings of Machine Learning Research ,2018( online olvasás )
  19. http://gendershades.org/
  20. (in) Paul Lewis és Erin McCormick, "  Hogy az ex-bennfentes YouTube Vizsgált IKT titkos algoritmus  " , The Guardian ,2018. február 2( online olvasás ).
  21. (in) James Vincent, "  Twitter tanított Microsoft Friendly AI chatbot hogy rasszista seggfej kevesebb, mint egy nap  " , The Verge ,2016. március 24( online olvasás ).
  22. (in) Julia Angwin , Jeff Larson , Surya Mattu és Lauren Kirchner , "  Machine Bias  " , ProPublica ,2016. május 23( online olvasás )
  23. (en) Catherine D'Ignazio és Lauren F. Klein , „2. Gyűjtsd össze, elemezd, képzeld el, tanítsd” , az adatfeminizmusban , az MIT Press,2020( online olvasás )
  24. "  Hogyan lehet harcolni az algoritmikus torzítások ellen?  » , A Microsoft RSLN-en ,2016. november 18(megtekintve : 2018. február 16. )
  25. Frank Pasquale , a Black Box Society , Harvard University Press,2015. január 5( ISBN  978-0-674-73606-1 , online olvasás )
  26. Jenna Burrell , „  Hogyan gondolkodik a gép: Az opacitás megértése a gépi tanulási algoritmusokban  ”, Big Data & Society , vol.  3, n o  1,2016. január 6, P.  205395171562251 ( ISSN  2053-9517 és 2053-9517 , DOI  10.1177 / 2053951715622512 , online olvasás , hozzáférés 2021. június 23. )
  27. (hu-USA) "A  Google 2 milliárd kódsor - és minden egy helyen van  " , vezetékes ,2015( ISSN  1059-1028 , online olvasás , hozzáférés 2021. június 23. )
  28. Diakopoulos, N és Friedler, S, „  Hogyan lehet elszámoltatható algoritmusokat tartani  ”, MIT Technology Review ,2016. november 17
  29. Nick Seaver , „  Algoritmusok mint kultúra: Néhány taktika az algoritmikus rendszerek etnográfiájához  ”, Big Data & Society , vol.  4, n o  22017. november 9, P.  205395171773810 ( ISSN  2053-9517 és 2053-9517 , DOI  10.1177 / 2053951717738104 , online olvasás , hozzáférés 2021. június 23. )
  30. (in) Angèle Christin , "  Az etnográfus és az algoritmus: túl a fekete dobozon  " , Theory and Society , vol.  49. Nem csontokat  5-6,2020 október, P.  897–918 ( ISSN  0304-2421 és 1573-7853 , DOI  10.1007 / s11186-020-09411-3 , online olvasás , hozzáférés 2021. június 23. )
  31. Ruha Benjamin , verseny után technológia: eltörléspárti eszközök az új Jim kód ,2019( ISBN  978-1-5095-2640-6 , 1-5095-2640-4 és 978-1-5095-2639-0 , OCLC  1078415817 , online olvasható )
  32. 祖博夫 (Zuboff, Shoshana), 1951-文字作者 ,監控 資本主義 時代 = A felügyeleti kapitalizmus kora: harc az emberi jövőért a hatalom új határán ( ISBN  978-957-13-8116-9 , 957 -13-8116-0 és 978-957-13-8117-6 , OCLC  1199122574 , online olvasás )
  33. David Beer , The Data Gaze: Kapitalizmus, hatalom és észlelés , SAGE Publications Ltd,2019( ISBN  978-1-5264-3692-4 és 978-1-5264-8534-2 , online olvasás )
  34. (in) Julia Powles , "  New York Bold, hibás kísérlet, hogy algoritmusok Felelős  " , The New Yorker ,2017. december 21( ISSN  0028-792X , online olvasás , hozzáférés : 2018. február 16. )
  35. (in) kinjal Dave, "  szisztémás algoritmikus Harms  " , adatok és társadalom ,2019. május 31( online olvasás ).
  36. (in) "  Filmrendező - KÓDOLT BIAS  " a KÓDOLT BIAS (megajándékozzuk 1 -jén november 2020 ) .

Lásd is

Kapcsolódó cikkek