Kodėl paprašius AI pasiaiškinti, viskas gali pablogėti

Frogeris ruošiasi kalbėti

Frogeris ruošiasi kalbėtiMS Tech / Getty

„Upol Ehsan“ kartą išbandė „Uber“ savarankiškai vairuojantį automobilį. Užuot nerimaujantys dėl tuščios vairuotojo sėdynės, nerimaujantys keleiviai buvo raginami žiūrėti į čiulptuko ekraną, kuriame buvo matomas kelio vaizdas iš automobilio: pavojai pažymėti oranžine ir raudona spalva, saugios zonos – šaltai mėlyna spalva.

Dėl Ehsanas , kuris tyrinėja, kaip žmonės sąveikauja su dirbtiniu intelektu Džordžijos technologijos institute Atlantoje, numatytas pranešimas buvo aiškus: Neišsigąskite – štai kodėl automobilis daro tai, ką daro. Tačiau kažkas iš svetimos išvaizdos gatvės scenos išryškino patirties keistumą, o ne nuramino. Tai privertė Ehsaną pagalvoti: o kas, jei savarankiškai važiuojantis automobilis tikrai galėtų paaiškinti save?



Gilaus mokymosi sėkmę lėmė gudravimas: geriausi neuroniniai tinklai yra koreguojami ir pritaikomi, kad būtų geresni, o praktiniai rezultatai pranoko teorinį supratimą. Todėl paprastai nežinoma, kaip veikia apmokytas modelis. Mes pradėjome galvoti apie juos kaip apie juodąsias dėžes.

kokia yra artimiausia žemei panaši planeta

Daugeliu atvejų mums tai patinka, kai kalbame apie tokius dalykus kaip „Go“ paleidimas, teksto vertimas ar kitos „Netflix“ laidos pasirinkimas. Tačiau jei dirbtinis intelektas bus naudojamas priimant sprendimus teisėsaugos, medicininės diagnostikos ir be vairuotojų automobilių srityse, turime suprasti, kaip jis priima tuos sprendimus ir žinoti, kada jie klysta.

Žmonėms reikia galios nesutikti su automatizuotu sprendimu arba jį atmesti, sako Iris Howley , kompiuterių mokslininkas Williams College Williamstown mieste, Masačusetso valstijoje. Be to žmonės atsispirs technologijoms. Ji sako, kad tai vyksta dabar, kai visuomenė reaguoja į veido atpažinimo sistemas.

Ehsanas priklauso nedidelei, bet augančiai tyrėjų grupei, kuri stengiasi, kad dirbtinis intelektas geriau paaiškintų save, kad padėtų mums pažvelgti į juodąją dėžę. Vadinamojo interpretuojamojo arba paaiškinamo AI (XAI) tikslas yra padėti žmonėms suprasti, kokių duomenų ypatybių neuroninis tinklas iš tikrųjų mokosi, taigi, ar gautas modelis yra tikslus ir nešališkas.

Vienas iš sprendimų yra sukurti mašininio mokymosi sistemas, kurios parodytų jų veikimą: vadinamąją stiklinę dėžę, o ne juodąją dėžę (AI). „Glassbox“ modeliai paprastai yra labai supaprastintos neuroninio tinklo versijos, kuriose lengviau sekti, kaip skirtingi duomenys veikia modelį.

Bendruomenėje yra žmonių, kurie pasisako už stiklo dėžės modelių naudojimą bet kokioje aukšto lygio aplinkoje, sako Jennifer Wortman Vaughan , „Microsoft Research“ kompiuterių mokslininkas. Iš esmės sutinku. Paprasti stiklo dėžės modeliai gali veikti taip pat, kaip sudėtingesni neuroniniai tinklai tam tikro tipo struktūriniuose duomenims, pavyzdžiui, statistikos lentelėms. Kai kurioms programoms tai viskas, ko jums reikia.

Bet tai priklauso nuo domeno. Jei norime mokytis iš netvarkingų duomenų, pvz., vaizdų ar teksto, įstrigome giliuose, taigi ir neskaidriuose, neuroniniuose tinkluose. Šių tinklų galimybė užmegzti prasmingus ryšius tarp labai daug skirtingų savybių yra susijusi su jų sudėtingumu.

Net ir čia galėtų padėti „glasbox“ mašininis mokymasis. Vienas iš sprendimų – du kartus peržiūrėti duomenis, mokant netobulą stiklo dėžės modelį kaip derinimo veiksmą, siekiant atskleisti galimas klaidas, kurias galbūt norėsite ištaisyti. Išvalius duomenis, galima parengti tikslesnį juodosios dėžės modelį.

Tačiau tai sudėtinga pusiausvyra. Per didelis skaidrumas gali sukelti informacijos perteklių. A 2018 metų žirgynas Y pažvelgęs į tai, kaip nepatyrę vartotojai sąveikauja su mašininio mokymosi įrankiais, Vaughanas nustatė, kad skaidrūs modeliai iš tikrųjų gali apsunkinti modelio klaidų aptikimą ir ištaisymą.

Kitas būdas yra įtraukti vizualizacijas, kuriose būtų parodytos kelios pagrindinės modelio savybės ir pagrindiniai jo duomenys. Idėja ta, kad iš pirmo žvilgsnio galite pamatyti rimtas problemas. Pavyzdžiui, modelis gali per daug pasikliauti tam tikromis funkcijomis, kurios gali signalizuoti apie šališkumą.

Šie vizualizavimo įrankiai pasirodė neįtikėtinai populiarūs per trumpą laiką, kai buvo naudojami. Bet ar jie tikrai padeda? Viduje konors pirmasis tokio pobūdžio tyrimas , Vaughan ir jos komanda bandė tai išsiaiškinti ir atskleidė keletą rimtų problemų.

Komanda naudojo du populiarius aiškinimo įrankius, kurie pateikia modelio apžvalgą diagramomis ir duomenų diagramomis, pabrėždami dalykus, kuriuos mašininio mokymosi modelis labiausiai atsižvelgė per mokymus. Vienuolika dirbtinio intelekto specialistų buvo įdarbinta iš „Microsoft“ – visi skirtingi savo išsilavinimu, pareigomis ir patirtimi. Jie dalyvavo netikroje sąveikoje su mašininio mokymosi modeliu, parengtu remiantis nacionalinių pajamų duomenų rinkiniu, paimtu iš 1994 m. JAV surašymo. Eksperimentas buvo sukurtas specialiai tam, kad imituotų tai, kaip duomenų mokslininkai naudoja interpretavimo įrankius atliekant įprastas užduotis.

Tai, ką komanda rado, buvo įspūdinga. Žinoma, įrankiai kartais padėdavo žmonėms pastebėti trūkstamas duomenų vertes. Tačiau šį naudingumą nustelbė polinkis per daug pasitikėti ir klaidingai suprasti vizualizacijas. Kai kuriais atvejais vartotojai net negalėjo apibūdinti, ką rodo vizualizacijos. Tai lėmė neteisingas prielaidas apie duomenų rinkinį, modelius ir pačius interpretavimo įrankius. Ir tai sukėlė klaidingą pasitikėjimą priemonėmis, kurios privertė dalyvius labiau nerimauti dėl modelių diegimo, net jei jie jautė, kad kažkas ne taip. Nerimą kelia tai, kad tai buvo tiesa net tada, kai išvestis buvo manipuliuojama siekiant parodyti paaiškinimus, kurie neturėjo prasmės.

Siekdami patvirtinti savo nedidelio naudotojo tyrimo išvadas, mokslininkai atliko internetinę apklausą, kurioje dalyvavo maždaug 200 mašininio mokymosi specialistų, įdarbintų per adresų sąrašus ir socialinę žiniasklaidą. Jie rado panašią painiavą ir netinkamą pasitikėjimą.

Dar blogiau, daugelis dalyvių mielai naudojosi vizualizacijomis priimdami sprendimus dėl modelio diegimo, nors pripažino, kad nesuprato už juos slypinčios matematikos. Ypač nustebino žmonės, pateisinantys duomenų keistenybes kurdami juos paaiškinančius pasakojimus Harmanpreetas Kauras Mičigano universitete, tyrimo bendraautoris. Automatizavimo šališkumas buvo labai svarbus veiksnys, į kurį neatsižvelgėme.

Ak, automatizavimo šališkumas. Kitaip tariant, žmonės yra pasirengę pasitikėti kompiuteriais. Tai ne naujiena reiškinys . Kalbant apie automatizuotas sistemas nuo orlaivių autopilotų iki rašybos tikrintojų, tyrimai parodė, kad žmonės dažnai sutinka su savo pasirinkimais net tada, kai jie akivaizdžiai klysta. Tačiau kai tai nutinka naudojant priemones, skirtas padėti išvengti šio reiškinio, turime dar didesnę problemą.

Ką galime dėl to padaryti? Kai kuriems pirmosios XAI bangos bėdų dalis yra ta, kad joje dominuoja mašininio mokymosi tyrinėtojai, kurių dauguma yra patyrę AI sistemų naudotojai. Timas Milleris iš Melburno universiteto, tyrinėjantis, kaip žmonės naudoja dirbtinio intelekto sistemas: kaliniai valdo prieglobstį.

Tai Ehsanas suprato sėdėdamas be vairuotojo Uberio gale. Lengviau suprasti, ką daro automatizuota sistema, ir pamatyti, kada ji daro klaidą, jei ji pateikia savo veiksmų priežastis taip, kaip tai padarytų žmogus. Ehsanas ir jo kolega Markas Riedlis kuria mašininio mokymosi sistemą, kuri automatiškai generuoja tokius pagrindimus natūralia kalba . Ankstyvajame prototipe pora paėmė neuroninį tinklą, kuris išmoko žaisti klasikinį 1980-ųjų vaizdo žaidimą „Frogger“, ir išmokė jį pateikti priežastį kiekvieną kartą, kai žengia žingsnį.

„Live vs oculus“ pardavimas
Frogerio paaiškinimas

Ehsan ir Riedl's Frogger Explanation programinės įrangos Upol Ehsan ekrano kopija

Norėdami tai padaryti, jie sistemai parodė daugybę žmonių, žaidžiančių žaidimą, garsiai kalbėdami apie tai, ką daro, pavyzdžių. Tada jie panaudojo neuroninį tinklą, skirtą versti tarp dviejų natūralių kalbų, ir pritaikė jį taip, kad būtų išverstas tarp žaidimo veiksmų ir tų veiksmų pagrindimo natūralia kalba. Dabar, kai neuroninis tinklas mato veiksmą žaidime, jis paverčia jį paaiškinimu. Rezultatas yra Frogger žaidžiantis AI, kuris sako tokius dalykus kaip aš judu į kairę, kad likčiau už mėlyno sunkvežimio kiekvieną kartą, kai jis juda.

Ehsano ir Riedlo darbas yra tik pradžia. Viena vertus, neaišku, ar mašininio mokymosi sistema visada sugebės pagrįsti savo veiksmus natūralia kalba. Paimkite DeepMind stalo žaidimus žaidžiantį AI AlphaZero. Viena ryškiausių programinės įrangos ypatybių yra jos gebėjimas atlikti pergalingus judesius, kurių dauguma žaidėjų tuo žaidimo metu nė nepagalvotų. Jei AlphaZero galėtų paaiškinti savo veiksmus, ar jie visada būtų prasmingi?

Priežastys padeda, nesvarbu, ar mes jas suprantame, ar ne, sako Ehsanas: į žmogų orientuoto XAI tikslas yra ne tik priversti vartotoją sutikti su tuo, ką sako AI, bet ir paskatinti apmąstymus. Riedlas prisimena tiesioginę „DeepMind's AI“ ir „Korean Go“ čempiono Lee Sedol turnyro rungtynių transliaciją. Komentatoriai kalbėjo apie tai, ką AlphaGo matė ir galvoja. „Taip AlphaGo veikė“, - sako Riedlas. „Tačiau aš jaučiau, kad komentaras buvo būtinas norint suprasti, kas vyksta“.

Ši nauja XAI tyrėjų banga sutaria, kad jei dirbtinio intelekto sistemas naudos daugiau žmonių, tie žmonės turi būti projektavimo dalimi nuo pat pradžių, o skirtingiems žmonėms reikia skirtingų paaiškinimų. (Tai patvirtina naujas Howley ir jos kolegų tyrimas, kuriame jie rodo, kad žmonių gebėjimas suprasti interaktyvią ar statinę vizualizaciją priklauso nuo jų išsilavinimo lygio.) Pagalvokite apie vėžį diagnozuojančią AI, sako Ehsanas. Norite, kad paaiškinimas, kurį jis pateikia onkologui, labai skirtųsi nuo paaiškinimo, kurį jis pateikia pacientui.

Galiausiai norime, kad dirbtinis intelektas paaiškintų save ne tik duomenų mokslininkams ir gydytojams, bet ir policijos pareigūnams, naudojantiems veido atpažinimo technologiją, mokytojams, naudojantiems analizės programinę įrangą savo klasėse, studentams, bandantiems suprasti savo socialinės žiniasklaidos kanalus, ir visiems, sėdintiems ant galinės sėdynės. savarankiškai važiuojančio automobilio. Mes visada žinojome, kad žmonės per daug pasitiki technologijomis, o tai ypač pasakytina apie AI sistemas, sako Riedlas. Kuo daugiau sakysite, kad tai protinga, tuo labiau žmonės įsitikins, kad tai protingesni už juos.

Visiems suprantami paaiškinimai turėtų padėti išpūsti šį burbulą.

paslėpti

Faktinės Technologijos

Kategorija

Neįtraukta Į Kategorijas

Technologijos

Biotechnologija

Technikos Politika

Klimato Kaita

Žmonės Ir Technologijos

Silicio Slėnis

Kompiuterija

Mit Naujienų Žurnalas

Dirbtinis Intelektas

Erdvė

Išmanieji Miestai

Blockchain

Funkcijų Istorija

Alumni Profilis

Alumnų Ryšys

Mit Naujienų Funkcija

1865 M

Mano Vaizdas

77 Mass Ave

Susipažink Su Autoriumi

Dosnumo Profiliai

Matytas Miestelyje

Alumnų Laiškai

Pamatyta Miestelyje

Žinios

2020 M. Rinkimai

Su Indeksu

Po Kupolu

Priešgaisrinės Žarnos

Begalinės Istorijos

Pandemijos Technologijų Projektas

Iš Prezidento

Viršelio Istorija

Nuotraukų Galerija

Rekomenduojama