Hur AI skapar en sÀkrare onlinevÀrld

Hur AI skapar en sÀkrare onlinevÀrld


FrÄn nÀtmobbning i sociala medier till övergrepp i metaversen kan Internet vara en farlig plats. Moderering av innehÄll online Àr ett av de viktigaste sÀtten att företag kan göra sina plattformar sÀkrare för anvÀndarna.

Men att moderera innehĂ„ll Ă€r ingen lĂ€tt uppgift. MĂ€ngden innehĂ„ll pĂ„ nĂ€tet Ă€r svindlande. Moderatorer mĂ„ste brottas med allt frĂ„n hatretorik och terrorpropaganda till nakenhet och smuts. Den digitala vĂ€rldens ”dataöverbelastning” förvĂ€rras bara av att mycket av innehĂ„llet Ă€r anvĂ€ndargenererat och kan vara svĂ„rt att identifiera och kategorisera.

AI för att automatiskt upptÀcka hatretorik

Det Àr dÀr AI kommer in. Genom att anvÀnda maskininlÀrningsalgoritmer för att identifiera och kategorisera innehÄll kan företag identifiera osÀkert innehÄll sÄ snart det skapas, istÀllet för att vÀnta timmar eller dagar pÄ mÀnsklig granskning, och dÀrigenom minska antalet personer som utsÀtts för osÀkert innehÄll.

Till exempel anvÀnder Twitter AI för att identifiera och ta bort terroristpropaganda frÄn sin plattform. AI flaggar över hÀlften av tweets som bryter mot dess anvÀndarvillkor, medan VD Parag Agrawal har gjort det till sitt fokus att anvÀnda AI för att identifiera hatretorik och desinformation. Som sagt, mer mÄste göras, eftersom toxiciteten fortfarande frodas pÄ plattformen.

PÄ liknande sÀtt upptÀcker Facebooks AI nÀstan 90 % av det hatretorik som tas bort av plattformen, inklusive nakenhet, vÄld och annat potentiellt stötande innehÄll. Men liksom Twitter har Facebook fortfarande en lÄng vÀg kvar att gÄ.

DÀr AI gÄr fel

Trots sitt löfte stÄr AI-baserad innehÄllsmoderering inför mÄnga utmaningar. En Àr att dessa system ofta av misstag flaggar sÀkert innehÄll som osÀkert, vilket kan fÄ allvarliga konsekvenser. Till exempel markerade Facebook legitima nyhetsartiklar om coronaviruset som spam i början av pandemin. Den förbjöd av misstag ett republikanskt partis Facebook-sida i mer Àn tvÄ mÄnader. Och den flaggade inlÀgg och kommentarer om Plymouth Hoe, ett offentligt landmÀrke i England, som stötande.

Problemet Àr dock knepigt. Att misslyckas med att flagga innehÄll kan fÄ Ànnu farligare effekter. Skytterna i bÄde El Paso- och Gilroy-skjutningarna publicerade sina vÄldsamma avsikter pÄ 8chan och Instagram innan de bröt ut. Robert Bowers, den anklagade förövaren av massakern i en synagoga i Pittsburgh, var aktiv pÄ Gab, en Twitter-liknande sida som anvÀnds av vita supremacister. Desinformation om kriget i Ukraina har fÄtt miljontals visningar och gilla-markeringar pÄ Facebook, Twitter, YouTube och TikTok.

En annan frÄga Àr att mÄnga AI-baserade modereringssystem uppvisar rasfördomar som mÄste ÄtgÀrdas för att skapa en sÀker och anvÀndbar miljö för alla.

FörbÀttra AI för moderering

För att Ă„tgĂ€rda dessa problem behöver AI-modereringssystem utbildningsdata av högre kvalitet. Idag lĂ€gger mĂ„nga företag ut data för att utbilda sina AI-system till lĂ„gkvalificerade, dĂ„ligt utbildade callcenter i lĂ€nder i tredje vĂ€rlden. Dessa etiketter saknar sprĂ„kkunskaper och kulturella sammanhang för att fatta korrekta modereringsbeslut. Om du till exempel inte Ă€r bekant med amerikansk politik kommer du förmodligen inte att veta vad ett meddelande som nĂ€mner “6 jan” eller “Rudy och Hunter” syftar pĂ„, trots deras betydelse för innehĂ„llsmoderering. Om du inte Ă€r en engelsktalande som modersmĂ„l kommer du sannolikt att överindexera pĂ„ profana termer, Ă€ven nĂ€r de anvĂ€nds i ett positivt sammanhang, och felaktigt flagga referenser till Plymouth Hoe eller “hon Ă€r en sĂ„ dĂ„lig tik” som stötande.

Ett företag som löser denna utmaning Àr Surge AI, en datamÀrkningsplattform designad för att trÀna AI i sprÄkets nyanser. Det grundades av ett team av ingenjörer och forskare som byggde förtroende- och sÀkerhetsplattformarna pÄ Facebook, YouTube och Twitter.

Till exempel har Facebook haft mÄnga problem med att samla in data av hög kvalitet för att trÀna sina modereringssystem pÄ viktiga sprÄk. Trots företagets storlek och dess omfattning som en vÀrldsomspÀnnande kommunikationsplattform hade det knappt tillrÀckligt med innehÄll för att trÀna och underhÄlla en modell för standardarabiska, Àn mindre dussintals dialekter. Företagets brist pÄ en heltÀckande lista över giftiga förtal pÄ de sprÄk som talas i Afghanistan innebar att det kunde sakna mÄnga krÀnkande inlÀgg. Det saknade en assamisk modell för hatretorik, Àven om anstÀllda flaggade för hatretorik som en stor risk i Assam, pÄ grund av det ökande vÄldet mot etniska grupper dÀr. Det hÀr Àr frÄgor som Surge AI hjÀlper till att lösa genom sitt fokus pÄ sprÄk samt datauppsÀttningar för toxicitet och svordomar.

Kort sagt, med större datauppsÀttningar av högre kvalitet kan sociala medieplattformar trÀna mer exakta algoritmer för innehÄllsmoderering för att upptÀcka skadligt innehÄll, vilket hjÀlper till att hÄlla dem sÀkra och fria frÄn missbruk. Precis som stora datamÀngder har drivit dagens toppmoderna sprÄkgenereringsmodeller, som OpenAI:s GPT-3, kan de ocksÄ ge bÀttre AI för moderering. Med tillrÀckligt med data kan maskininlÀrningsmodeller lÀra sig att upptÀcka toxicitet med större noggrannhet och utan de fördomar som finns i datauppsÀttningar av lÀgre kvalitet.

AI-assisterad innehÄllsmoderering Àr inte en perfekt lösning, men det Àr ett vÀrdefullt verktyg som kan hjÀlpa företag att hÄlla sina plattformar sÀkra och fria frÄn skada. Med den ökande anvÀndningen av AI kan vi hoppas pÄ en framtid dÀr onlinevÀrlden Àr en sÀkrare plats för alla.

DataDecisionMakers

VĂ€lkommen till VentureBeat-communityt!

DataDecisionMakers Àr dÀr experter, inklusive tekniska personer som arbetar med data, kan dela datarelaterade insikter och innovation.

Om du vill lĂ€sa om banbrytande idĂ©er och aktuell information, bĂ€sta praxis och framtiden för data- och datateknik, gĂ„ med oss ​​pĂ„ DataDecisionMakers.

Du kan till och med övervÀga att bidra med en egen artikel!

LÀs mer frÄn DataDecisionMakers