AI som trÀnas pÄ 4chans mest hatiska brÀda Àr precis sÄ giftig som du kan förvÀnta dig | Engadget

Jon Fingas

Microsoft lĂ€rde sig oavsiktligt riskerna med att skapa rasistisk AI, men vad hĂ€nder om du medvetet riktar intelligensen mot ett giftigt forum? En person fick reda pĂ„ det. Som och notera, YouTuber Yannic Kilcher trĂ€nade en AI-sprĂ„kmodell med hjĂ€lp av tre Ă„rs innehĂ„ll frĂ„n 4chans Politiskt Inkorrekta (/pol/) styrelse, en plats ökĂ€nda för sin rasism och andra former av trĂ„ngsynthet. Efter att ha implementerat modellen i tio bots, slĂ€ppte Kilcher AI:n pĂ„ brĂ€det – och det skapade föga överraskande en vĂ„g av hat. Inom loppet av 24 timmar skrev botarna 15 000 inlĂ€gg som ofta inkluderade eller interagerade med rasistiskt innehĂ„ll. De representerade mer Ă€n 10 procent av inlĂ€ggen pĂ„ /pol/ den dagen, hĂ€vdade Kilcher.

Med smeknamnet GPT-4chan (efter OpenAI:s GPT-3), lĂ€rde sig modellen att inte bara ta upp orden som anvĂ€nds i /pol/-inlĂ€gg, utan en övergripande ton som Kilcher sa blandade “offensivitet, nihilism, trolling och djup misstro.” Videoskaparen var noga med att undvika 4chans försvar mot proxyservrar och VPN, och anvĂ€nde till och med en VPN för att fĂ„ det att se ut som om botinlĂ€ggen hĂ€rrörde frĂ„n Seychellerna.

AI gjorde nÄgra misstag, som tomma inlÀgg, men var tillrÀckligt övertygande att det tog ungefÀr tvÄ dagar för mÄnga anvÀndare att inse att nÄgot var fel. MÄnga forummedlemmar mÀrkte bara en av botarna, enligt Kilcher, och modellen skapade tillrÀckligt försiktighet för att folk anklagade varandra för att vara bots dagar efter att Kilcher avaktiverat dem.

YouTubern karakteriserade experimentet som ett “upptĂ„g”, inte forskning, i samtal med . Det Ă€r en pĂ„minnelse om att utbildad AI bara Ă€r lika bra som kĂ€llmaterialet. Oron hĂ€rrör istĂ€llet frĂ„n hur Kilcher delade med sig av sitt arbete. Medan han undvek att tillhandahĂ„lla botkoden, delade han en delvis kastrerad version av modellen med AI-förvaret Hugging Face. Besökare kunde ha Ă„terskapat AI:n för olycksbĂ„dande syften, och Hugging Face bestĂ€mde sig för att begrĂ€nsa Ă„tkomsten som en försiktighetsĂ„tgĂ€rd. Det fanns tydliga etiska problem med projektet, och Kilcher sa sjĂ€lv att han borde fokusera pĂ„ “mycket mer positivt” arbete i framtiden.