AI Weekly: TillstÄndet för AI-ansvar


NĂ€r AI-anpassningen fortsĂ€tter att öka exponentiellt, sĂ„ ökar diskussionen kring – och oro för – ansvarig AI.

Även om tekniska ledare och fĂ€ltforskare förstĂ„r vikten av att utveckla AI som Ă€r etisk, sĂ€ker och inkluderande, brottas de fortfarande med frĂ„gor kring regelverk och begrepp om “etiktvĂ€ttning” eller “etikflykt” som minskar ansvarsskyldigheten.

Det kanske viktigaste Ă€r att begreppet Ă€nnu inte Ă€r klart definierat. Även om det finns mĂ„nga uppsĂ€ttningar av föreslagna riktlinjer och verktyg – frĂ„n US National Institute of Standards and Technologys ramverk för artificiell intelligens för riskhantering till Europeiska kommissionens expertgrupp för AI, till exempel – Ă€r de inte sammanhĂ€ngande och Ă€r ofta vaga och alltför komplexa.

Som noterat av Liz O’Sullivan, VD för blockchain-teknologiprogramvaruföretaget Parity, “Vi kommer att vara de som lĂ€r ut vĂ„ra begrepp om moral. Vi kan inte bara lita pĂ„ att det hĂ€r dyker upp frĂ„n ingenstans för det kommer det helt enkelt inte.”

O’Sullivan var en av flera paneldeltagare som talade om Ă€mnet ansvarig AI vid Stanford University Human-Centered Artificial Intelligence (HAI) 2022 vĂ„rkonferens denna vecka. HAI grundades 2019 för att frĂ€mja AI-forskning, utbildning, policy och praktik för att “förbĂ€ttra det mĂ€nskliga tillstĂ„ndet”, och Ă„rets konferens fokuserade pĂ„ viktiga framsteg inom AI.

Ämnen inkluderade ansvarig AI, grundmodeller och den fysiska/simulerade vĂ€rlden, med paneler modererade av Fei-Fei Li och Christopher Manning. Li Ă€r tilltrĂ€dande Sequoia-professor vid Stanfords datavetenskapsavdelning och meddirektör för HAI. Manning Ă€r den tilltrĂ€dande Thomas M. Siebel-professorn i maskininlĂ€rning och Ă€r ocksĂ„ professor i lingvistik och datavetenskap vid Stanford, samt bitrĂ€dande direktör för HAI.

Specifikt nÀr det gÀller ansvarig AI diskuterade paneldeltagarna framsteg och utmaningar relaterade till algoritmisk anvÀndning, att bygga en ansvarsfull dataekonomi, berÀkna ordalydelsen och uppfattningen om integritets- och regelverk, samt ta itu med övergripande frÄgor om partiskhet.

AI-ansvarsbehov prediktiv modellering och korrigerande tillvÀgagÄngssÀtt

Prediktiva modeller anvĂ€nds i allt högre grad i beslutsfattande med hög insats – till exempel vid godkĂ€nnande av lĂ„n.

Men precis som mÀnniskor kan modeller vara partiska, sa Himabindu Lakkaraju, bitrÀdande professor vid Harvards handelsskola och institution för datavetenskap (affiliate) och Harvard University.

Som ett sĂ€tt att avskaffa modellering har det funnits ett vĂ€xande intresse för post hoc-tekniker som ger personer som har nekats lĂ„n. Dessa tekniker genererar emellertid regresser under antagandet att den underliggande prediktiva modellen inte förĂ€ndras. I praktiken uppdateras modeller ofta regelbundet av en mĂ€ngd olika anledningar – sĂ„som dataförskjutningar – vilket gör tidigare föreskrivna resurser ineffektiva, sa hon.

För att ta itu med detta har hon och andra forskare tittat pĂ„ tillfĂ€llen dĂ€r regress inte Ă€r giltigt, anvĂ€ndbart eller inte resulterar i ett positivt resultat för den drabbade parten – till exempel generella algoritmiska frĂ„gor.

De föreslog ett ramverk, Robust Algorithmic Recourse (ROAR), som anvÀnder motstridig maskininlÀrning (ML) för dataökning för att generera mer robusta modeller. De beskriver det som den första kÀnda lösningen pÄ problemet. Deras detaljerade teoretiska analys underströk ocksÄ vikten av att konstruera resurser som Àr robusta för modellskiften; annars kan ytterligare kostnader uppstÄ, förklarade hon.

Som en del av sin process genomförde forskarna en undersökning med kunder som ansökt om banklÄn under föregÄende Är. Den övervÀldigande majoriteten av deltagarna sa att algoritmisk anvÀndning skulle vara extremt anvÀndbar för dem. Men 83 % av de tillfrÄgade sa att de aldrig skulle göra affÀrer med en bank igen om banken vÀnder sig till dem och det var inte korrekt.

DĂ€rför sa Lakkaraju, “Om vi ​​tillhandahĂ„ller en regress till nĂ„gon, bör vi se till att det verkligen Ă€r korrekt och vi kommer att hĂ„lla pĂ„ det löftet.”

Bygga en ansvarsfull dataekonomi

En annan paneldeltagare, Dawn Song, tog upp övergripande problem kring dataekonomin och etablerade ansvarsfull AI och maskininlÀrning (ML).

AI djupinlĂ€rning har gjort enorma framsteg, sa professorn vid avdelningen för elektroteknik och datavetenskap vid University of California i Berkeley – men tillsammans med det, betonade hon, Ă€r det viktigt att sĂ€kerstĂ€lla utvecklingen av konceptet för ansvarsfull AI.

Data Àr den viktigaste drivkraften för AI och ML, men mycket av denna exponentiellt vÀxande data Àr kÀnslig och hanteringen av kÀnslig data har inneburit mÄnga utmaningar.

“Enskilda personer har tappat kontrollen över hur deras data anvĂ€nds,” sa Song. AnvĂ€ndardata sĂ€ljs utan deras medvetenhet eller samtycke, eller sĂ„ förvĂ€rvas den under storskaliga dataintrĂ„ng. Som ett resultat lĂ€mnar företag vĂ€rdefull data i datasilos och anvĂ€nder den inte pĂ„ grund av integritetsproblem.

“Det finns mĂ„nga utmaningar i att utveckla en ansvarsfull dataekonomi,” tillade hon. “Det finns en naturlig spĂ€nning mellan nytta och integritet.”

För att etablera och upprÀtthÄlla datarÀttigheter och utveckla ett ramverk för en ansvarsfull dataekonomi kan vi inte kopiera koncept och ramverk som anvÀnds i den analoga vÀrlden, sa Song. Traditionella metoder bygger pÄ randomisering och anonymisering av data, vilket Àr otillrÀckligt för att skydda dataintegriteten.

Nya tekniska lösningar kan ge dataskydd vid anvÀndning, förklarade hon. NÄgra exempel inkluderar sÀker datorteknik och kryptografi, samt utbildning av differentiella sprÄkmodeller.

Songs arbete inom detta omrÄde har involverat utveckling av omskrivningstekniker för programmering och utveckling av beslutsposter som sÀkerstÀller efterlevnad av integritetsbestÀmmelser sÄsom General Data Protection Regulation (GDPR) och California Consumer Privacy Act (CCPA).

“NĂ€r vi gĂ„r framĂ„t i den digitala tidsĂ„ldern kommer dessa frĂ„gor bara att bli mer och mer allvarliga,” sa Song, i den mĂ„n de kommer att hindra samhĂ€lleliga framsteg och undergrĂ€va mĂ€nskligt vĂ€rde och grundlĂ€ggande rĂ€ttigheter. “DĂ€rför finns det ett akut behov av att utveckla ett ramverk för en ansvarsfull dataekonomi.”

De-biasing: Ett koncept som fortfarande pÄgÄr

Det Ă€r sant att stora företag och företag tar steg i den riktningen, betonade O’Sullivan. Som helhet Ă€r de proaktiva nĂ€r det gĂ€ller att ta itu med etiska problem och dilemman och ta itu med frĂ„gor om att göra AI ansvarsfullt och rĂ€ttvist.

Den vanligaste missuppfattningen frĂ„n stora företag Ă€r dock att de har utvecklat procedurer för hur man kan göra fördomar, enligt O’Sullivan, den sjĂ€lvbeskrivna serieentreprenören och experten pĂ„ rĂ€ttvisa algoritmer, övervakning och AI.

I verkligheten Ă€r det mĂ„nga företag som “försöker att etik tvĂ€tta sig med [a] enkel lösning som kanske inte gĂ„r sĂ„ lĂ„ngt, sĂ€ger O’Sullivan. Ofta hĂ€nvisas till att redigera trĂ€ningsdata för toxicitet som en negativ inverkan pĂ„ yttrandefriheten.

Hon stÀllde ocksÄ frÄgan: Hur kan vi tillrÀckligt hantera risker pÄ modeller som har en omöjlig stor komplexitet?

Med datorseendemodeller och stora sprĂ„kmodeller Ă€r “förestĂ€llningen om att de-biasing nĂ„got verkligen Ă€r en oĂ€ndlig uppgift”, sa hon, och noterade ocksĂ„ svĂ„righeterna med att definiera partiskhet i sprĂ„ket, som i sig Ă€r partiskt.

“Jag tror inte att vi har enighet om detta alls,” sa hon.

ÄndĂ„ slutade hon positivt och noterade att omrĂ„det för ansvarsfull AI Ă€r populĂ€rt och vĂ€xer varje dag och att organisationer och forskare gör framsteg nĂ€r det kommer till definitioner, verktyg och ramverk.

“I mĂ„nga fall Ă€r det rĂ€tt personer som stĂ„r vid rodret,” sa O’Sullivan. “Det ska bli vĂ€ldigt spĂ€nnande att se hur saker utvecklas under de kommande Ă„ren.”

VentureBeats uppdrag ska vara ett digitalt stadstorg för tekniska beslutsfattare att fÄ kunskap om transformativ företagsteknologi och handla. LÀs mer om medlemskap.