Sköldpaddor hela vÀgen ner: Varför AI:s kult av objektivitet Àr farlig och hur vi kan bli bÀttre

Sköldpaddor hela vÀgen ner: Varför AI:s kult av objektivitet Àr farlig och hur vi kan bli bÀttre


Det finns en tro, byggd av science fiction och en sund rÀdsla för matematik, att AI Àr en ofelbar domare av objektiv sanning. Vi sÀger till oss sjÀlva att AI-algoritmer visar gudomlig sanning frÄn data, och att det inte finns nÄgon sanning som Àr högre Àn den rÀttfÀrdiga Äterstoden av ett regressionstest. För andra Àr bilden enkel: logik Àr objektiv, matematik Àr logik, AI Àr matematik; sÄ AI Àr objektiv.

Detta Àr inte en godartad tro.

Och i sjÀlva verket kan ingenting vara lÀngre frÄn sanningen. Mer Àn nÄgot annat Àr AI en spegel: nÄgot byggt i bilden av mÀnniskor, byggt för att efterlikna mÀnniskor och dÀrmed Àrva vÄra brister. AI-modeller Àr datorprogram skrivna i data. De Äterspeglar all fulhet i den datan, och genom de hundratals slumpmÀssiga bristerna över spegelns yta lÀgger de till lite egen dold fulhet.

Joy Buolamwini visade oss att, trots det öppna medgivandet av dessa utmaningar i den akademiska vÀrlden, antas dessa tekniker aktivt och distribueras under en fiktiv förestÀllning om vad dagens AI representerar. MÀnniskors liv har redan förÀndrats, och det Àr viktigt för oss att kÀnna igen och anta en mer realistisk syn pÄ denna vÀrldsförÀnderliga teknologi.

VarifrÄn kommer denna tro pÄ objektivitet och varför den fortplantar sig

Varför tror sÄ mÄnga experter att AI Àr objektivt i sig?

Det finns en klassisk lögn inom AI: “det finns tvĂ„ typer av maskininlĂ€rning – övervakad och oövervakad.” Övervakade metoder krĂ€ver att mĂ€nniskor berĂ€ttar för maskinen vad det “rĂ€tta” svaret Ă€r: om tweeten Ă€r positiv eller negativ. Oövervakade metoder krĂ€ver detta. Man presenterar bara den oövervakade metoden med en stor mĂ€ngd tweets och sĂ€tter igĂ„ng den.

MĂ„nga nybörjare tror att – eftersom den mĂ€nskliga subjektiviteten “riktighet” inte har korrumperat den oövervakade modellen – det Ă€r en maskin byggd av kall, objektiv logik. NĂ€r denna kalla, objektiva logik inte stĂ€mmer överens med verkligheten Ă€r det en eftertanke. Alltid ytterligare ett regleringssteg, ytterligare en momentumperiod, ytterligare en arkitekturjustering bort. Det Ă€r bara en frĂ„ga om att hitta matematiken, och mĂ€nsklig subjektivitet kommer att reduceras till ingenting, som nĂ„gon dimensionslös konstant.

LÄt mig vara tydlig: detta Àr inte bara fel, utan farligt fel. Varför har dÄ denna farliga förestÀllning spridits sÄ brett?

Forskare Àr, enligt deras uppskattning, först och frÀmst algoritmbyggare. De Àr musiker som plockar pÄ Guds ackorderade ekvationer. Samtidigt Àr problem med modellbias och objektivitet dataproblem. Ingen forskare med sjÀlvrespekt skulle lera hÀnderna genom att röra vid en vidrig databas. Det Àr för . De bygger modeller, inte för den verkliga vÀrlden, utan för den dÀr messianska datamÀngden som en dag kommer för att rÀdda oss alla frÄn fördomar.

Det Ă€r ytterst begripligt. Precis som alla andra som Ă€r involverade i utvecklingen av AI, vill forskare frĂ„nsĂ€ga sig ansvaret för det ofta fruktansvĂ€rda beteendet hos deras skapelser. Vi ser detta i akademiska termer som “sjĂ€lvövervakat” lĂ€rande, vilket förstĂ€rker uppfattningen att forskare inte spelar nĂ„gon roll i dessa resultat.

AI lĂ€rde ut detta beteende. Jag svĂ€r! Var inte uppmĂ€rksam pĂ„ mannen bakom tangentbordet…

Objektivitetsmyten Àr farlig

“Oövervakad” inlĂ€rning, eller “sjĂ€lvövervakad” inlĂ€rning som beskrivs i avsnittet ovan, och som förstĂ„s av stora delar av vĂ€rlden, existerar inte. I praktiken, nĂ€r vi kallar en teknik “oövervakad”, kan det paradoxalt nog innebĂ€ra övervakning av flera storleksordningar Ă€n en traditionell övervakad metod.

En “oövervakad” teknik för Twitter-sentimentanalys kan till exempel trĂ€nas pĂ„ en miljard tweets, tiotusen noggrant analyserade meningar, ett halvdussin sentimentanalysdatauppsĂ€ttningar och en uttömmande ordbok som taggar ett mĂ€nskligt uppskattat sentiment för varje ord pĂ„ engelska. sprĂ„k som tog över ett Ă„rhundrade av anstrĂ€ngningar att bygga. Dessutom kommer en Twitter-sentimentanalysdatauppsĂ€ttning fortfarande att behövas för utvĂ€rdering. SĂ„ lĂ€nge den inte Ă€r specifikt trĂ€nad pĂ„ en Twitter-sentimentanalysdatauppsĂ€ttning kan den fortfarande betraktas som “oövervakad” och dĂ€rmed “objektiv”.

I praktiken kan det vara mer korrekt att kalla sjĂ€lvövervakning “ogenomskinlig övervakning”. MĂ„let Ă€r att effektivt skikta in flera lager av inriktning sĂ„ att instruktionerna som ges till maskinen inte lĂ€ngre Ă€r transparenta. NĂ€r dĂ„ligt beteende lĂ€rs av dĂ„lig data kan data korrigeras. NĂ€r det dĂ„liga beteendet kommer frĂ„n att person A, till exempel, tror att tre Ă€r ett bĂ€ttre vĂ€rde för k Ă€n fyra, kommer ingen nĂ„gonsin att veta, och inga korrigerande Ă„tgĂ€rder kommer att vidtas.

Problemet Àr att nÀr forskare frÄnsÀger sig ansvaret finns ingen dÀr för att ta upp det.

I de flesta av dessa fall har vi helt enkelt inte den data som behövs för att ens kunna utvÀrdera vÄra modellers fördomar. En anledning till att jag tror att Joy Buolamwini har fokuserat pÄ ansiktsigenkÀnning hittills Àr att det lÀmpar sig mer rent för förestÀllningar om rÀttvisa som skulle vara svÄra att etablera för andra uppgifter. Vi kan variera hudtonen i ett ansikte och sÀga att ansiktsigenkÀnning borde fungera pÄ samma sÀtt över dessa hudtoner. För nÄgot som en modern frÄga-svar-modell Àr det mycket svÄrare att förstÄ vad ett svar pÄ en kontroversiell frÄga kan vara.

Det finns ingen ersÀttning för tillsyn. Det finns ingen vÀg dÀr mÀnniskor inte tvingas fatta beslut om vad som Àr korrekt och vad som Àr felaktigt. Varje tro pÄ att rigorösa tester och problemdefinitioner kan undvikas Àr farlig. Dessa tillvÀgagÄngssÀtt undviker eller mildrar inte partiskhet. De Àr inte mer objektiva Àn Redditors de efterliknar. De tillÄter oss helt enkelt att driva in den fördomen i subtila, dÄligt förstÄdda sprickor i systemet.

Hur ser vi pÄ AI och modellbias?

AI Àr teknik. Precis som datorer och stÄl- och Ängmaskiner kan det vara ett verktyg för bemyndigande, eller det kan binda oss i digitala bojor. Modern AI kan efterlikna mÀnskligt sprÄk, syn och kognition i en aldrig tidigare skÄdad grad. Genom att göra det presenterar det en unik förmÄga att förstÄ vÄra egna svagheter. Vi kan ta vÄr partiskhet och koka ner den till bitar och bytes. Vi kan ge namn och nummer till miljarder mÀnskliga erfarenheter.

Denna generation av AI har upprepade gÄnger, och pinsamt, belyst vÄr felbarhet. Vi presenteras nu för tvÄ alternativ: vi kan mÀta och testa och trycka och kÀmpa tills vi blir bÀttre. Eller sÄ kan vi föreviga vÄr okunnighet och fördomar i modellvikter, gömma oss under en falsk mantel av objektivitet.

NÀr jag startade Indico Data med Diana och Madison satte vi transparens och ansvar i kÀrnan i vÄra företagsvÀrderingar. Vi pressar ocksÄ vÄra kunder att göra detsamma. Att ha de dÀr svÄra samtalen, att definiera en konsekvent sanning i vÀrlden som de kan vara stolta över. DÀrifrÄn ligger nyckeln till att eliminera fördomen i testningen. Testa dina resultat för eventuella brister i objektivitet, före produktion, testa sedan igen sÄ att du Àr sÀker pÄ att inte misslyckas nÀr du redan Àr i produktion.

VÀgen framÄt

Det Àr viktigt att notera att dunkel inte Àr en ersÀttning för ansvar. Dessutom eliminerar det inte att dölja mÀnskliga fördomar i modellfördomar, och det gör inte heller pÄ magiskt sÀtt dessa fördomar objektiva.

AI-forskare har gjort hĂ€pnadsvĂ€ckande framsteg. Problem som anses olösliga för bara nĂ„gra Ă„r sedan har förvandlats till “Hello World”-tutorials.

Dagens AI Àr en otrolig, aldrig tidigare skÄdad hÀrma av mÀnskligt beteende. FrÄgan Àr nu om mÀnniskor kan vara ett exempel som Àr vÀrt att följa.

Kan du?

DataDecisionMakers

VĂ€lkommen till VentureBeat-communityt!

DataDecisionMakers Àr dÀr experter, inklusive tekniska personer som arbetar med data, kan dela datarelaterade insikter och innovation.

Om du vill lĂ€sa om banbrytande idĂ©er och aktuell information, bĂ€sta praxis och framtiden för data- och datateknik, gĂ„ med oss ​​pĂ„ DataDecisionMakers.

Du kan till och med övervÀga att bidra med en egen artikel!

LÀs mer frÄn DataDecisionMakers