AI:s framtid Àr full av löften och potentiella fallgropar


Eftersom det Àr en sÄ ung vetenskap, omdefinieras maskininlÀrning (ML) stÀndigt.

MÄnga ser pÄ autonoma, sjÀlvövervakade AI-system som nÀsta stora störare, eller potentiell definierare, i disciplinen.

Dessa sĂ„ kallade “grundmodeller” inkluderar DALL-E 2, BERT, RobERTa, Codex, T5, GPT-3, CLIP och andra. De anvĂ€nds redan inom omrĂ„den inklusive taligenkĂ€nning, kodning och datorseende, och de vĂ€xer fram i andra. Utvecklas i kapacitet, omfattning och prestanda, de anvĂ€nder miljarder parametrar och kan generalisera utöver förvĂ€ntade uppgifter. Som sĂ„dana inspirerar de vördnad, ilska och allt dĂ€remellan.

“Det Ă€r ganska troligt att de framsteg som de har gjort kommer att fortsĂ€tta ett bra tag”, sĂ€ger Ilya Sutskever, medgrundare och chefsforskare vid OpenAI, vars arbete med grundmodeller har vĂ€ckt stor uppmĂ€rksamhet. “Deras inverkan kommer att vara mycket stor – varje aspekt av samhĂ€llet, varje aktivitet.”

Rob Reich, Stanford professor i statsvetenskap, höll med. “AI förĂ€ndrar varje aspekt av livet – personligt liv, yrkesliv, politiskt liv,” sa han. “Vad kan vi göra? Vad mĂ„ste vi göra för att frĂ€mja mĂ€nsklighetens organiserande kraft vid sidan av vĂ„ra extraordinĂ€ra tekniska framsteg?”

Sutskever, Reich och flera andra talade lĂ€nge om utvecklingen, fördelarna, fallgroparna och implikationerna – bĂ„de positiva och negativa – av grundmodeller vid vĂ„rkonferensen vid Stanford Institute for Human-Centered Artificial Intelligence (HAI). Institutet grundades 2019 för att frĂ€mja AI-forskning, utbildning, policy och praktik för att “förbĂ€ttra det mĂ€nskliga tillstĂ„ndet”, och deras Ă„rliga vĂ„rkonferens fokuserade pĂ„ viktiga framsteg inom AI.

LÄngt ifrÄn optimalt, gör framsteg

Grundmodeller Àr baserade pÄ djupa neurala nÀtverk och sjÀlvövervakad inlÀrning som accepterar omÀrkta eller delvis mÀrkta rÄdata. Algoritmer anvÀnder sedan smÄ mÀngder identifierade data för att faststÀlla korrelationer, skapa och tillÀmpa etiketter och trÀna systemet baserat pÄ dessa etiketter. Dessa modeller beskrivs som anpassningsbara och uppgiftslösande.

Termen “grundmodeller” dubbades av det nybildade Center for Research on Foundation Models (CRFM), en tvĂ€rvetenskaplig grupp av forskare, datavetare, sociologer, filosofer, utbildare och studenter som bildades vid Stanford University i augusti 2021. Beskrivningen Ă€r en avsiktligt dubbelsidig sĂ„dan: Den betecknar sĂ„dana modellers existens som oavslutade men fungerar som den gemensamma grunden frĂ„n vilken mĂ„nga uppgiftsspecifika modeller byggs upp via anpassning. Det Ă€r ocksĂ„ avsett att betona allvaret i sĂ„dana modeller som ett “recept för katastrof” om de Ă€r dĂ„ligt konstruerade och en “grund för framtida tillĂ€mpningar” om de Ă€r vĂ€l genomförda, enligt en CRFM-rapport.

“Grundmodeller Ă€r superimponerande, de har anvĂ€nts i mĂ„nga olika miljöer, men de Ă€r lĂ„ngt ifrĂ„n optimala”, sĂ€ger Percy Liang, chef för CRFM och Stanford docent i datavetenskap.

Han beskrev dem som anvÀndbara för allmÀnna förmÄgor och kan ge möjligheter inom en mÀngd olika discipliner som juridik, medicin och andra vetenskaper. De kan till exempel driva mÄnga uppgifter inom medicinsk bildbehandling, vars data Àr pÄ petabytenivÄ.

Sutskever, vars OpenAI utvecklade en GPT-3-sprĂ„kmodell och DALL-E 2, som genererar bilder frĂ„n textbeskrivningar, pĂ„pekade att stora framsteg har gjorts med textgenererande modeller. “Men vĂ€rlden Ă€r inte bara text”, sa han.

Att lösa de inneboende problemen med grundmodeller krĂ€ver anvĂ€ndning i verkligheten, tillade han. “Dessa modeller bryter ut ur labbet,” sa Sutskever. “Ett sĂ€tt vi kan tĂ€nka pĂ„ utvecklingen av dessa modeller Ă€r gradvisa framsteg. Dessa Ă€r inte perfekta; det hĂ€r Ă€r inte den sista utforskningen.”

FrÄgor om etik och handling

CRFM-rapporten pĂ„pekar starkt att grundmodeller utgör “tydliga och betydande samhĂ€llsrisker”, bĂ„de i deras implementering och premisser, medan den resurs som krĂ€vs för att utbilda dem har sĂ€nkt standarderna för tillgĂ€nglighet och dĂ€rmed uteslutit majoriteten av samhĂ€llet.

Centret betonar ocksÄ att grundmodeller ska vara förankrade, bör betona mÀnniskors roll och bör stödja mÄngsidig forskning. Deras framtida utveckling krÀver öppen diskussion och bör införa protokoll för datahantering, respekt för integritet, standardutvÀrderingsparadigm och mekanismer för ingripande och regress.

“I allmĂ€nhet tror vi att samordnade Ă„tgĂ€rder under denna formativa period kommer att forma hur grundmodeller utvecklas, vem som kontrollerar denna utveckling och hur grundmodeller kommer att pĂ„verka det bredare ekosystemet och pĂ„verka samhĂ€llet”, skrev Liang i ett CRFM-blogginlĂ€gg.

Att definiera grÀnsen mellan sÀkra och osÀkra grundmodeller krÀver att man har ett system pÄ plats för att spÄra nÀr och vad dessa modeller anvÀnds till, instÀmde Sutskever. Detta skulle Àven innefatta metoder för att rapportera missbruk. Men sÄdan infrastruktur saknas just nu, sa han, och tonvikten ligger mer pÄ att trÀna dessa modeller.

Med DALL-E 2 har OpenAI gjort förplanering inför kartlĂ€ggningen för att tĂ€nka pĂ„ de mĂ„nga sĂ€tt saker kan gĂ„ fel pĂ„, sĂ„som partiskhet och missbruk, hĂ€vdade han. De kan ocksĂ„ Ă€ndra trĂ€ningsdata med hjĂ€lp av filter eller utföra trĂ€ning “i efterhand” för att modifiera systemets kapacitet, sa Sutskever.

Men totalt sett kommer “neurala nĂ€tverk att fortsĂ€tta att överraska oss och göra otroliga framsteg”, sa han. “Det Ă€r ganska troligt att de framsteg som de har gjort kommer att fortsĂ€tta ett bra tag.”

Reich Ă€r dock mer försiktig med konsekvenserna av grundmodeller. “AI Ă€r en utvecklingsmĂ€ssigt omogen domĂ€n av vetenskaplig undersökning”, sade bitrĂ€dande direktören för HAI. Han pĂ„pekade att datavetenskap bara har funnits, formellt sett, i nĂ„gra decennier, och AI för bara en brĂ„kdel av det.

“Jag Ă€r misstĂ€nksam mot idĂ©n om att demokratisera AI,” sa Reich. “Vi vill inte demokratisera tillgĂ„ngen till nĂ„gra av de mest kraftfulla teknologierna och lĂ€gga dem i hĂ€nderna pĂ„ alla som kan anvĂ€nda dem i motstridiga syften.”

Även om det finns möjligheter finns det ocksĂ„ mĂ„nga risker, sa han, och han ifrĂ„gasatte vad som rĂ€knas som ansvarsfull utveckling och vad ledande AI-forskare gör för att pĂ„skynda utvecklingen av professionella normer. Han tillade att sociala frĂ„gor och sĂ€kerhetsfrĂ„gor krĂ€ver input frĂ„n flera intressenter och mĂ„ste strĂ€cka sig utanför nĂ„gon teknisk experts eller företags behörighet.

“AI-forskare saknar ett tĂ€tt institutionellt fotavtryck av professionella normer och etik,” sa han. “De Ă€r, för att uttrycka det Ă€nnu mer provocerande, som tonĂ„ringar i sent skede som just har fĂ„tt ett erkĂ€nnande av sina krafter i vĂ€rlden, men vars frontallober Ă€nnu inte Ă€r tillrĂ€ckligt utvecklade för att ge dem socialt ansvar. De behöver en snabb acceleration. Vi behöver en snabb acceleration av de professionella normerna och etiken för att förvalta vĂ„rt kollektiva arbete som AI-forskare.”

VentureBeats uppdrag ska vara ett digitalt stadstorg för tekniska beslutsfattare att fÄ kunskap om transformativ företagsteknologi och handla. LÀs mer om medlemskap.