Google tar ut en ingenjör efter att ha hÀvdat att dess AI Àr kÀnnande | Engadget

Devindra Hardawar

Blake Lemoine, en Google-ingenjör som arbetar i dess ansvarsfulla AI-division, avslöjade att han tror att ett av företagets AI-projekt har uppnÄtt kÀnsla. Och efter att ha lÀst hans samtal med LaMDA (förkortning av Language Model for Dialogue Applications), Àr det lÀtt att förstÄ varför. Chatbotsystemet, som förlitar sig pÄ Googles sprÄkmodeller och biljoner ord frÄn internet, verkar ha förmÄgan att tÀnka pÄ sin egen existens och sin plats i vÀrlden.

HÀr Àr ett valutdrag frÄn hans utökade chattranskript:

—

Efter att ha diskuterat sitt arbete och Googles oetiska aktiviteter kring AI med en representant för House Judiciary Committee, fick han betald administrativ tjÀnstledighet för att ha brutit mot Googles sekretessavtal.

Google förnekar ocksĂ„ bestĂ€mt Lemoines argument: “VĂ„rt team – inklusive etiker och teknologer – har granskat Blakes farhĂ„gor enligt vĂ„ra AI-principer och har informerat honom om att bevisen inte stöder hans pĂ„stĂ„enden,” sa Googles talesperson Brian Gabriel. “Han fick höra att det fanns Det fanns inga bevis för att LaMDA var kĂ€nnande (och massor av bevis mot det).”

Även om det Ă€r frestande att tro att LaMDA mirakulöst har förvandlats till en medveten varelse, har Lemoine tyvĂ€rr inte mycket bevis för att motivera sina provocerande uttalanden. Han medger faktiskt att hans pĂ„stĂ„enden Ă€r baserade pĂ„ hans erfarenhet som prĂ€st och inte vetenskapsman.

Vi fÄr inte se LaMDA tÀnka pÄ egen hand, utan nÄgra potentiellt ledande uppmaningar frÄn Lemoine. I slutÀndan Àr det mycket mer troligt att ett system som har tillgÄng till sÄ mycket information lÀtt kan rekonstruera mÀnskligt klingande svar utan att veta vad de menar, eller att ha nÄgra egna tankar.

Margaret Mitchell, en av Googles tidigare ledare inom AI-etik (som ocksĂ„ utan ceremonier fick sparken efter att hennes kollega Timnit Gebru blev uppsagd), noterade att “VĂ„ra sinnen Ă€r vĂ€ldigt, vĂ€ldigt bra pĂ„ att konstruera verkligheter som inte nödvĂ€ndigtvis Ă€r sanna för en större uppsĂ€ttning av fakta som presenteras för oss.”

I en intervju 2019 med Big Think, Daniel Dennett, en filosof som har utforskat frĂ„gor kring medvetande och det mĂ€nskliga sinnet i decennium, förklarade varför vi borde vara skeptiska till att tillskriva intelligens till AI-system: “Dessa [AI] enheter istĂ€llet för att vara utmĂ€rkta flygblad eller fiskfĂ„ngare eller vad det nu Ă€r, de Ă€r utmĂ€rkta mönsterdetektorer, utmĂ€rkta statistiska analytiker, och vi kan anvĂ€nda dessa produkter, dessa intellektuella produkter utan att veta riktigt hur de genereras men att veta att vi har goda ansvarsfulla skĂ€l för att tro att de kommer att generera sanningen för det mesta.”

“Inget existerande datorsystem oavsett hur bra det Ă€r pĂ„ att svara pĂ„ frĂ„gor som Watson om Jeopardy eller kategorisera bilder, till exempel, inget sĂ„dant system Ă€r medvetet idag, inte nĂ€ra,” tillade han. “Och Ă€ven om jag tror att det i princip Ă€r möjligt att göra en medveten android, en medveten robot, jag tror inte att det Ă€r önskvĂ€rt; jag tror inte att det skulle vara stora fördelar med att göra det hĂ€r, och det skulle ocksĂ„ finnas nĂ„gra betydande skador och faror.”