Po metų technikos skandalų, mūsų 10 rekomendacijų AI

Pradėkime nuo geresnio reglamentavimo, darbuotojų apsaugos ir „tiesos reklamoje“ taisyklių taikymo AI

Šiandien „AI Now“ institutas paskelbia trečiąją metinę AI būklės 2018 m. Ataskaitą, įskaitant 10 rekomendacijų vyriausybėms, tyrėjams ir pramonės specialistams.

Tai buvo dramatiški metai AI. Nuo „Facebook“ potencialaus etninių valymų kurstymo Mianmare iki „Cambridge Analytica“ siekiant manipuliuoti rinkimais, „Google“ kuriant slaptą cenzūruojamą paieškos variklį kinams, pyktį dėl „Microsoft“ sutarčių su ICE, iki daugybės darbuotojų sukilimų dėl sąlygų „Amazon“ algoritmiškai valdomuose sandėliuose - antraštės nesustojo. Ir tai tik keli pavyzdžiai iš šimtų.

Šių kaskadinių AI skandalų esmė yra atskaitomybės klausimai: kas atsakingas, kai AI sistemos mums kenkia? Kaip mes suprantame šią žalą ir kaip ją ištaisyti? Kur yra intervencijos taškai ir kokių papildomų tyrimų ir reguliavimo reikia, kad šios intervencijos būtų veiksmingos? Šiuo metu atsakymų į šiuos klausimus yra nedaug, o galiojančios norminės bazės visiškai neatitinka to, ko reikia. Didėjant šių sistemų paplitimui, sudėtingumui ir mastui, vis reikšmingiausias atskaitomybės ir priežiūros, įskaitant pagrindines atsakomybės, atsakomybės ir tinkamo proceso apsaugos priemones, trūkumas yra vis skubesnis susirūpinimas.

Remiantis mūsų 2016 ir 2017 m. Ataskaitomis, „AI dabar 2018“ ataskaita nagrinėja šią pagrindinę problemą ir pateikia 10 praktinių rekomendacijų, kurios gali padėti sukurti atskaitomybės sistemas, galinčias valdyti šias galingas technologijas.

Rekomendacijos

1. Vyriausybės turi reglamentuoti PG, išplėsdamos konkrečių sektorių agentūrų įgaliojimus prižiūrėti, audituoti ir prižiūrėti šias technologijas pagal sritis.

PG sistemų diegimas sparčiai plečiasi be tinkamo valdymo, priežiūros ir atskaitomybės režimų. Domenai, tokie kaip sveikata, švietimas, baudžiamasis teisingumas ir gerovė, turi savo istoriją, teisinę bazę ir kelia pavojų. Tačiau nacionalinė AI saugos įstaiga arba bendrieji AI standartai ir sertifikavimo modelis stengsis patenkinti sektorių kompetencijos reikalavimus, reikalingus niuansiniam reglamentavimui. Mums reikalingas konkretiems sektoriams pritaikytas požiūris, kuriame technologijai neteikiamas prioritetas, o pagrindinis dėmesys skiriamas jos taikymui tam tikroje srityje. Naudingi konkretiems sektoriams būdingi pavyzdžiai yra JAV federalinė aviacijos administracija ir Nacionalinė greitkelių eismo saugumo administracija.

2. Veido pripažinimui ir įtakos pripažinimui reikalingas griežtas reguliavimas siekiant apsaugoti viešąjį interesą.

Tokį reguliavimą turėtų sudaryti nacionaliniai įstatymai, reikalaujantys griežtos priežiūros, aiškūs apribojimai ir viešas skaidrumas. Bendruomenės turėtų turėti teisę atmesti šių technologijų taikymą tiek viešajame, tiek privačiame kontekste. Vien tik viešas pranešimas apie jų naudojimą nėra pakankamas, todėl bet kokiam sutikimui turėtų būti taikoma aukšta riba, atsižvelgiant į slegiamo ir nuolatinio masinio stebėjimo pavojus. Poveikio pripažinimas nusipelno ypatingo dėmesio. Poveikio atpažinimas yra veido atpažinimo poklasis, teigiantis, kad jis nustato tokius dalykus kaip asmenybė, vidiniai jausmai, psichinė sveikata ir „darbuotojo įsitraukimas“, paremtas veido atvaizdais ar vaizdo įrašais. Šie teiginiai nėra pagrįsti patikimais moksliniais įrodymais ir yra taikomi neetiškai ir neatsakingai, dažnai prisimenant frenologijos ir fiziognomijos pseudomokslus. Susiejimas daro įtaką pripažinimui įdarbinimu, galimybe gauti draudimą, švietimą ir viešosios tvarkos palaikymą sukuria didelę riziką tiek asmens, tiek visuomenės lygmeniu.

3. PG pramonei skubiai reikia naujų požiūrių į valdymą.

Kaip rodo ši ataskaita, daugumos technologijų įmonių vidaus valdymo struktūros nesugeba užtikrinti AI sistemų atskaitomybės. Vyriausybės reguliavimas yra svarbus komponentas, tačiau vadovaujančioms AI pramonės įmonėms taip pat reikia vidinės atskaitomybės struktūrų, kurios peržengia etikos gaires. Tai turėtų apimti darbuotojų atstovavimą rango ir rinkmenų rinkinyje, išorės patarėjų etikos klausimais tarybose ir nepriklausomų stebėjimo ir skaidrumo pastangų įgyvendinimą. Trečiųjų šalių ekspertai turėtų turėti galimybę tikrinti ir skelbti svarbiausias sistemas, o įmonės turi užtikrinti, kad jų AI infrastruktūros būtų suprantamos „nuo nosies iki uodegos“, įskaitant jų galutinį pritaikymą ir naudojimą.

4. PG įmonės turėtų atsisakyti prekybos paslapčių ir kitų teisinių pretenzijų, kurios trukdo atskaitingumui viešajame sektoriuje.

Pardavėjai ir kūrėjai, sukuriantys PG ir automatizuotas sprendimų sistemas, skirtas naudoti vyriausybėje, turėtų sutikti atsisakyti bet kokių prekybos paslapčių ar kitų teisinių teiginių, kurie trukdo visapusiškam jų programinės įrangos auditui ir supratimui. Bendrovių slaptumo įstatymai yra kliūtis tinkamam procesui: jie prisideda prie „juodosios dėžės efekto“, todėl sistemos tampa nepermatomos ir neatsakomos, todėl sunku įvertinti šališkumą, ginčyti sprendimus ar ištaisyti klaidas. Kiekvienas, įsigyjantis šias technologijas viešajam sektoriui, turėtų reikalauti, kad pardavėjai prieš sudarydami bet kokius susitarimus atsisakytų šių pretenzijų.

5. Technologijų kompanijos turėtų užtikrinti sąžinės gynėjų, darbuotojų organizavimo ir etinių pranešėjų apsaugą.

Technologijų darbuotojų organizuotumas ir pasipriešinimas pasirodė kaip atskaitomybės ir etiškų sprendimų priėmimo jėga. Technologijų kompanijos turi saugoti darbuotojų galimybes organizuoti, pranešti ir etiškai pasirinkti, kokius projektus įgyvendinti. Tai turėtų apimti aiškią politiką, kuria siekiama patenkinti ir apsaugoti sąžinę prieštaraujančius asmenis, užtikrinant darbuotojams teisę žinoti, ką jie dirba, ir galimybę susilaikyti nuo tokio darbo neatgailaujant ar neatgailaujant. Taip pat turi būti apsaugoti darbuotojai, keliantys etinius susirūpinimą, kaip ir informavimas apie visuomenės interesus.

6. Vartotojų apsaugos agentūros turėtų taikyti „reklamos tiesoje“ įstatymus PG gaminiams ir paslaugoms.

Aplinka AI tik didėja, todėl didėja atotrūkis tarp pažadų dėl rinkodaros ir faktinio produkto efektyvumo. Dėl šių spragų didėja rizika tiek fiziniams, tiek komerciniams klientams, dažnai sukelianti rimtų padarinių. Panašiai kaip ir kitus produktus bei paslaugas, kurie gali rimtai paveikti arba išnaudoti populiacijas, AI pardavėjams turėtų būti keliami aukšti standartai to, ką jie gali pažadėti, ypač kai moksliniai įrodymai, patvirtinantys šiuos pažadus, yra nepakankami, o ilgalaikės pasekmės nežinomos. .

7. Technologijų įmonės turi peržengti „dujotiekio modelį“ ir įsipareigoti kovoti su atskirties ir diskriminacijos praktika savo darbo vietose.

Technologijų kompanijos ir visa AI sritis sutelkė dėmesį į „dujotiekio modelį“, siekdami mokyti ir įdarbinti įvairesnius darbuotojus. Nors tai yra svarbu, jame neatsižvelgiama į tai, kas nutinka, kai žmonės yra įdarbinami darbo vietose, kurios atstumia, priekabiauja ar sistemiškai nuvertina žmones dėl lyties, rasės, lytiškumo ar negalios. Įmonės turi išnagrinėti gilesnes savo darbo vietų problemas ir sąsajas tarp atskirties kultūros ir jų gaminamų produktų, kurie gali sukurti įrankius, kurie išsaugo šališkumą ir diskriminaciją. Šis dėmesys turi būti pakeistas kartu su praktiniais veiksmais, įskaitant įsipareigojimą panaikinti darbo užmokestį ir galimybių nelygybę, taip pat įdarbinimo ir išlaikymo skaidrumo priemonėmis.

8. AI sąžiningumui, atskaitomybei ir skaidrumui reikalinga išsami „visos kamino tiekimo grandinės“ ataskaita.

Siekdami prasmingos atskaitomybės, turime geriau suprasti ir sekti komponentus, susijusius su PG sistema, ir visą tiekimo grandinę, kuria ji remiasi: tai reiškia mokymo duomenų, bandymų duomenų, modelių, programų programų sąsajų (API) kilmės ir naudojimo apskaitą. ) ir kitus infrastruktūros komponentus per produkto gyvavimo ciklą. Mes tai vadiname AI sistemų „visa kamino tiekimo grandine“ ir tai yra būtina sąlyga, kad auditas būtų atsakingesnis. Į visą krūvos tiekimo grandinę taip pat įeina supratimas apie tikrąsias PG sistemų aplinkos ir darbo sąnaudas. Tai apima energijos vartojimą, darbo jėgos naudojimą besivystančiame pasaulyje turiniui moderuoti ir mokymo duomenims kurti bei pasitikėjimą spustelėjusiais darbuotojais kuriant ir prižiūrint AI sistemas.

9. Reikia daugiau lėšų ir paramos bylinėjimuisi, darbo organizavimui ir bendruomenės dalyvavimui PG atskaitomybės klausimais.

Žmonės, kuriems kyla didžiausia grėsmė pakenkti AI sistemoms, dažniausiai yra tie, kurie mažiausiai sugeba užginčyti rezultatus. Mums reikia didesnės paramos tvirtiems teisinės žalos atlyginimo ir pilietinio dalyvavimo mechanizmams. Tai apima paramą visuomenės gynėjams, atstovaujantiems tiems, kurie dėl algoritminių sprendimų priėmimo atsiriboja nuo socialinių paslaugų, pilietinės visuomenės organizacijoms ir darbo organizatoriams, kurie palaiko grupes, kurioms gresia praradimas ir išnaudojimas, ir bendruomenei skirtą infrastruktūrą, leidžiančią dalyvauti visuomenės gyvenime.

10. Universiteto AI programos turėtų būti išplėstos ne tik informatikos ir inžinerijos disciplinose.

AI prasidėjo kaip tarpdisciplininė sritis, tačiau per kelis dešimtmečius susiaurėjo ir tapo technine disciplina. AI sistemos vis labiau pritaikomos socialinėse srityse ir todėl turi išplėsti savo disciplininę orientaciją. Tai reiškia, kad reikia sutelkti socialinių ir humanistinių disciplinų kompetencijos formas. AI pastangos, kurios iš tikrųjų nori atkreipti dėmesį į socialinius padarinius, negali likti tik informatikos ir inžinerijos katedrose, kur dėstytojai ir studentai nėra mokomi tyrinėti socialinio pasaulio. Išplečiant PG tyrimų disciplininę orientaciją, bus užtikrintas didesnis dėmesys socialiniams kontekstams ir didesnis dėmesys galimiems pavojams, kai šios sistemos bus pritaikytos žmonių populiacijoms.

Visą pranešimą galite perskaityti čia.