Eeldusega AI muudab Ameerika elu. Mida me selle vastu saaksime teha?

Eeldusega AI muudab Ameerika elu. Mida me selle vastu saaksime teha?
Eeldusega AI muudab Ameerika elu. Mida me selle vastu saaksime teha?

Video: Natural Law Theory: Crash Course Philosophy #34 2024, Juuli

Video: Natural Law Theory: Crash Course Philosophy #34 2024, Juuli
Anonim

Kujutage ette maailma, kus kunstlikult intelligentsed algoritmid teevad otsuseid, mis mõjutavad teie igapäevast elu. Kujutage nüüd ette, et nad on eelarvamustega.

See on maailm, milles me juba elame, väidab andmeteadlane, Harvardi PhD ja autor Cathy O'Neil. (Loe meie dr. O'Neiliga peetud vestluse esimest osa siit). Istusime riikliku raamatuauhinna nominendiga, et teada saada, mida saaksime suurandmete ajastul eelarvamustega ära teha. CT: Kas AI on eelarvamuslik?

CO: Kõiki algoritme, mida pole selgesõnaliselt õiglaseks muudetud, tuleks eeldada, et neid kahjustatakse. Sest inimestena oleme eelarvamustega. Kui me seda tunnistame ja loome need algoritmid koos oma väärtuste ja andmetega, siis ei tohiks me eeldada, et midagi on maagiliselt juhtunud, et asi õiglaseks muuta. Seal pole maagiat.

CT: Kust saavad algoritmid andmeid?

CO: See sõltub algoritmist. Mõnikord on sotsiaalmeedia, näiteks poliitilisele turule suunamine või reklaamimine või kasumitaotluseta kolledžid ja röövellikud laenutused -, aga palju andmeid ei koguta sotsiaalmeedias ega isegi veebis.

Andmete kogumine on üha enam seotud reaalse eluga, näiteks töö saamine, töötamine, kolledžisse minek või vanglasse minek. Need asjad ei ole asjad, millest võime privaatsusseadustega mööda hiilida. Need on võimuküsimused, kus inimestel, kellele algoritmid on suunatud, pole võimu ja inimestel, kes koguvad teavet ning algoritme ehitavad ja juurutavad, on kogu võim. Kui olete kriminaalvastutav kostja, pole teil mingeid privaatsusõigusi, teil pole tööl mingeid privaatsusõigusi ja töökoha taotlemisel pole teil privaatsusõigusi palju, kuna Kui te ei vasta küsimustele, mida teie tulevane tööandja on teile esitanud, siis te tõenäoliselt ei saa seda tööd.

Algoritmide ja nende põhjustatud kahju osas peaksime vähem mõtlema privaatsusele ja rohkem võimule.

CT: Mida saaksime selle paremaks muutmiseks teha?

CO: võime tunnistada, et need algoritmid pole olemuselt täiuslikud, ja testida nende puudusi. Meil peaksid olema pidevad auditid ja jälgijad - eriti selliste oluliste otsuste jaoks nagu inimeste töölevõtmine, kriminaalkaristuste määramine või inimeste tööl hindamine -, et veenduda, et algoritmid toimivad nii, nagu me soovime, mitte mingil diskrimineerival või ebaõiglasel viisil.

Image

Ailsa Johnson / © kultuurireis

CT: Millised on andmepõhise tuleviku parimad ja halvimad stsenaariumid?

CO: Halvim stsenaarium on see, mis meil praegu on - et me kõik ootame pimesi, et algoritmid oleksid täiuslikud, ehkki nüüd peaksime juba paremini teadma. Ja me levitame mineviku ebaõiglust ja ebaõiglust. Ja jätkame nende algoritmide puuduste ignoreerimist.

Parim stsenaarium on see, kui me tunnistame, et need algoritmid pole oma olemuselt paremad kui inimesed. Me otsustame, mida me inimesena tahame, mille poole me püüdleme. Mida me tahame, et ühiskond välja näeks, ja me õpetame neid väärtusi. Kui teeme seda edukalt, võivad need algoritmid olla paremad kui inimesed.

CT: Millist rolli saavad mängida igapäevased inimesed?

CO: Kõige olulisem roll, mida üksikisik etendada saab, on mitte usaldada ühtegi algoritmi. Tohutult palju skepsist. Kui teid hinnatakse algoritmi alusel, küsige „Kuidas ma tean, et see on õiglane, kuidas ma tean, et sellest on abi, kuidas ma tean, et see on täpne? Milline on veamäär? Kelle jaoks see algoritm ebaõnnestub? Kas see nurjub naisi või vähemusi? ” Esitage selline küsimus.

Teine asi, peale skeptitsismi, on see, et kui arvate, et algoritm on teie või teiste inimeste suhtes ebaõiglane, on korraldada koos teiste inimestega. Viimane näide on õpetajad. Statistilised mudelid lisandväärtusega õpetajate kohta on kohutavad, peaaegu juhuslike arvude generaatorid. Kuid neid kasutati kogu USA-s otsustamaks, millised õpetajad peaksid ametiaega saama ja millised õpetajad vallandama.

Minu ettepanek on neil saada oma liit tagasi lükata. Ja see juhtus mõnes kohas. Kuid on üllatav, kui vähene vastupanu oli punktisüsteemi matemaatilise olemuse tõttu.

CT: Kuidas sattusite suurandmetesse?

CO: Töötasin Wall Streetil ja olin seestpoolt tunnistajaks finantskriisile. Mulle tegi pahaks see, kuidas matemaatikat kasutati inimeste ärakasutamiseks või inimeste lollitamiseks. Ma nägin, millist kahju võivad tekitada matemaatilised valed, mida ma nimetan “matemaatika relvastamiseks”.

Otsustasin sellest eemale pääseda, nii et liitusin Occupy Wall Streetiga ja asusin tööle andmeteadlasena. Mõistsin aeglaselt, et ka väljaspool Wall Streeti toimuvate eksitavate andmealgoritmide ümber nähti vigaseid ja eksitavaid hüpeid ning see võib põhjustada palju kahju. Erinevus oli see, et kuigi inimesed kogu maailmas märkasid finantskriisi, ei uskunud ma, et inimesed märkavad nende suurandmete algoritmide tõrkeid, kuna need juhtuvad tavaliselt üksikisiku tasandil.

Tutvuge dr O'Neiliga peetud arutelu esimest osa siin. Dr Cathy O'Neili raamat "Matemaatika hävitamise relvad: kuidas suured andmed suurendab ebavõrdsust ja ähvardab demokraatiat" on nüüd saadaval.