Storbritanniens nya AI-transparensstandard Àr ett steg nÀrmare ansvarig AI

Ansvarsfull AI ger dig en konkurrensfördel


Den brittiska regeringen tillkĂ€nnagav förra veckan en ny algoritmisk transparensstandard. Flytten följer ett Ă„r dĂ„ Storbritanniens Test and Trace-program kunde pinga din telefon nĂ€r som helst och avbryta dina helgplaner – och nĂ€r eleverna gick ut pĂ„ gatorna och skanderade “F侀 algoritmen!” efter att tentor hade stĂ€llts in och deras universitetsantagning i stĂ€llet avgjordes av en algoritm.

Den nya standarden Àr tÀnkt att driva offentliga myndigheter att skapa transparens om hur, nÀr och var algoritmiskt beslutsfattande sker.

AnvÀndningen av algoritmer för att fatta beslut inom offentliga tjÀnster kommer under allt större granskning runt om i vÀrlden. Senast i Storbritannien har vi sett en rÀttslig utmaning mot Department for Work and Pensions efter att det avslöjades att funktionshindrade personer blev oproportionerligt riktade av en algoritm för en granskning av förmÄnsbedrÀgeri. I USA, efter Är av forskare som har slagit varningsklockor, har journalister samlat den största samlingen av bevis för att programvara för att förutsÀga brott som lovade att vara fri frÄn rasfördomar faktiskt har förevigt dem.

Dessa fall kommer ofta som en chock för allmĂ€nheten 侀 och en överraskning för de samhĂ€llen de pĂ„verkar. EnkĂ€tundersökning frĂ„n Center for Data Ethics and Innovation fann att 38 % av den brittiska allmĂ€nheten inte var medveten om att algoritmiska system anvĂ€ndes för att stödja beslut som anvĂ€nder personuppgifter för att till exempel bedöma risken för att nĂ„gon kan behöva socialvĂ„rdsstöd. För nĂ€rvarande, nĂ€r ett beslut fattas om dig, Ă€r det vĂ€ldigt svĂ„rt att veta om det fattas av en mĂ€nniska eller en algoritm.

Just nu Ă€r det enda sĂ€ttet som det ofta Ă€r möjligt att ta reda pĂ„ vilka system som anvĂ€nds och var genom undersökningar av journalister, organisationer i det civila samhĂ€llet, aktivister eller akademiska forskare. Och Ă€ven dĂ„ fĂ„r dessa utredare vanligtvis svar först efter mĂ„nga begĂ€randen om informationsfrihet (FOI). Det Ă€r en lĂ„ngsam, besvĂ€rlig metod för att samla bevis – med stor potential för förvirring och förvirring. Forskare rapporterar att de fĂ„r tillbaka omfattande dokumentation av en lokal myndighets anvĂ€ndning av Microsoft Word – inte riktigt den högriskteknologi de letade efter.

Även bland statliga myndigheter, offentliga organ och lokala myndigheter finns det en kunskapslucka; de vet ofta inte vilka system som anvĂ€nds och varför, och detta förhindrar delning av information, fördelar och skador som skulle stödja ett hĂ€lsosamt ekosystem av riskmedvetna framsteg.

Denna grundlĂ€ggande lucka i information och kunskap Ă€r det som fick Ada Lovelace Institute och andra att föreslĂ„ transparensregister för offentliga sektorns algoritmiska beslutssystem – system som anvĂ€nder automation för att fatta, eller avsevĂ€rt stödja mĂ€nniskor i att fatta, beslut. Ett transparensregister skulle samla information om statliga system pĂ„ en enda plats och pĂ„ ett tydligt och lĂ€ttillgĂ€ngligt sĂ€tt, vilket möjliggör granskning av allmĂ€nheten, sĂ„vĂ€l som journalister, aktivister och akademiker som agerar pĂ„ deras vĂ€gnar.

Transparensregister testas i stÀder som Amsterdam, Helsingfors, Nantes och New York, och de tillhandahÄller detaljer om system som strÀcker sig frÄn chatbotar för mödravÄrd till algoritmer för att identifiera potentiellt olagligt boende. Dessa register Àr ett av en rad olika tillvÀgagÄngssÀtt och policyer som utformats för att skapa större ansvarsskyldighet för anvÀndningen av algoritmer i offentliga tjÀnster som undersöks av regeringar runt om i vÀrlden, sÄsom Kanada, som nyligen införde en algoritmisk konsekvensanalys för offentliga organ.

Den brittiska regeringens nya algoritmiska transparensstandard Ă€r det första steget mot ett transparensregister i Storbritannien. Det ger ett strukturerat sĂ€tt att beskriva ett system, och att strukturerad information skulle kunna lĂ€mnas som regelbunden rapportering till ett register. Regeringskansliet beskrev standarden som “… organiserad i tvĂ„ nivĂ„er. Den första innehĂ„ller en kort beskrivning av det algoritmiska verktyget, inklusive hur och varför det anvĂ€nds, medan det andra innehĂ„ller mer detaljerad information om hur verktyget fungerar, den/de datamĂ€ngder som har anvĂ€nts för att trĂ€na modellen och nivĂ„n pĂ„ mĂ€nsklig tillsyn.”

TillkÀnnagivandet följer pÄ regeringens senaste datasamrÄd om framtiden för Storbritanniens dataskyddssystem, som inkluderade ett förslag om att införa transparensrapportering om offentlig sektors anvÀndning av algoritmer i beslutsfattande. Detta tyder pÄ uppkomsten av en tydlig fÀrdriktning mot större transparens i anvÀndningen av offentliga algoritmer.

En del kanske frÄgar sig vad detta betyder för företagen som utvecklar mjukvaran som anvÀnds i den offentliga sektorn. I en tid dÄ den tekniska sektorn Àr full av prat om pÄlitlig teknik och förklarlig AI, erbjuder en öppenhetsstandard en möjlighet för dem som utvecklar statlig teknik att förklara vad de gör, varför och hur, pÄ ett sÀtt som Àr tillgÀngligt för allmÀnheten och visar ansvar.

För att den algoritmiska transparensstandarden ska uppfylla sina mÄl mÄste den testas med statliga myndigheter och offentliga organ och genomgÄ anvÀndartestning med medlemmar av allmÀnheten, samhÀllsgrupper, journalister och akademiker. Det kommer att vara vÀsentligt att statliga myndigheter och offentliga organ publicerar fÀrdiga standarder för att stödja modellering och utveckling av god praxis och lÄta andra lÀra av dem.

Algoritmiska transparensstandarder för den offentliga sektorn kan ocksÄ ses som en del av ett bredare steg mot transparensstandarder inom teknikreglering. Europeiska unionens utkast till Digital Services Act, Storbritanniens utkast till Online Safety Bill, samt liknande föreslagna lagstiftning i Kanada och pÄ andra hÄll, krÀver standardiserad transparensrapportering frÄn tekniska onlineplattformar. I USA diskuterar kongressen en uppdaterad version av Algorithmic Accountability Act som först introducerades 2019, som skulle stÀlla regelbundna rapporteringskrav pÄ företag som anvÀnder automatiserade beslutssystem inom sektorer som sjukvÄrd, utbildning, bostÀder och rekrytering. Det kan visa sig klokt för teknikföretag att börja titta pÄ hur de ska beskriva sina systems syften, funktioner, data och metoder förr snarare Àn senare.

AllmÀnheten vill ha större transparens; de vill veta att det finns information tillgÀnglig om systemen som avgör om de fÄr förmÄner, vem som prioriteras för uppmÀrksamhet av barns sociala omsorger etc. Storbritanniens nya standard för algoritmtransparens Àr ett viktigt steg mot att Ätervinna allmÀnhetens förtroende, och potentiellt fÄnga nÀsta skandal innan det hÀnder.

Ada Lovelace Institute

VentureBeats uppdrag ska vara ett digitalt stadstorg för tekniska beslutsfattare att fÄ kunskap om transformativ företagsteknik och handla. LÀs mer om medlemskap.