Hur AI-reglering utvecklas i försäkringsbranschen

Hur AI-reglering utvecklas i försäkringsbranschen


Tidigare i veckan var jag i San Diego som talare och gäst på National Association of Insurance Commissioners (NAIC) National Meeting. Jag hade möjligheten att dela några av mina egna åsikter och åsikter med Big Data and Artificial Intelligence Working Group. Jag fick också möjlighet att delta i möten med nyckelintressenter som var involverade i att överväga nästa steg mot regulatorisk tillsyn av AI.

2021 har sett en v√§sentlig acceleration i regulatoriskt intresse och st√§llningstagande n√§r det g√§ller anv√§ndningen av AI ‚Äď b√•de inom f√∂rs√§kring och mer allm√§nt. Fr√•n New Yorks kommunfullm√§ktige skapade lagstiftning f√∂r att tygla AI-f√∂rdomar under anst√§llningsprocessen till Federal Trade Commissions v√§gledning om hur man bygger och distribuerar ansvarsfulla AI- och maskininl√§rningsmodeller, styrande organ √∂ver hela USA har visat ett egenintresse av att reglera AI . F√∂r f√∂rs√§kringsbolag med europeisk exponering, en nyss sl√§ppt uppdatering av Europas f√∂reslagna AI-lag placerar nu specifikt f√∂rs√§kringsbranschens anv√§ndning av AI under kategorin “h√∂g risk”.

I augusti 2020 lade NAIC fram AI-principer. Under loppet av det senaste året var dess fokus att få mer information om exakt var försäkringsbranschen befinner sig i sin användning av AI. Prioriteten var att få en känsla av hur regleringar kan påverka branschens användning av AI-teknik. Under Big Data Working Group erbjöds en första offentlig titt på resultaten från en undersökning av fastighets- och olycksbärare och deras användning av AI. Resultaten visar en bred tillämpning av AI över kärnfunktionerna hos denna grupp av försäkringsbolag. Denna arbetsgrupp verkar sannolikt utöka undersökningen till husägare och livförsäkringsbranschen under de kommande månaderna.

Utmaningen med att reglera AI är inte obetydlig. Tillsynsmyndigheter måste balansera konsumentskydd med stöd till innovation. Flera teman är uppenbara om den regulatoriska synen på användningen av AI i försäkringar:

En uppskattning av att AI √§r ett komplext system som √§r ett resultat av handlingar, beslut och data som drivs av ett team av intressenter under ett systems hela livscykel. En f√∂rst√•else f√∂r att reglering kommer att beh√∂va inkludera bevis p√• bred livscykelstyrning och objektiva granskningar av viktiga riskhanteringsmetoder. √Ėverenskommelse mellan tillsynsmyndigheter som de i stort sett inte √§r rustade att utf√∂ra, med statlig tillsynspersonal, djupg√•ende tekniska unders√∂kningar eller kriminaltekniska unders√∂kningar av AI-system. F√∂r att bli framg√•ngsrika i regulatorisk tillsyn beh√∂ver de vidareutbildning, partnerskap med fler expertorganisationer och en viss grad av operat√∂rscertifierad ansvarighet i framtiden. En m√∂jlighet att materialutformning och definierande best√§mmelser m√•ste skapas p√• federal niv√• – inte bara f√∂rs√§kringsavdelningar p√• statlig niv√•.

N√§r jag ser tillbaka p√• mina samtal i San Diego ‚Äď och under hela √•ret ‚Äď har jag ytterligare en reflekterande punkt: Vi skulle alla kunna dra nytta av att vara mer direkta. Var b√∂rjar eller slutar AI-specifik reglering? Hur b√∂r f√∂rs√§kringsbolag i grunden f√∂r√§ndras f√∂r att b√§ttre betj√§na ofta undertj√§nade klasser av v√•r befolkning?

Min karriär har inte varit inom försäkring. Jag har dock väldigt snabbt fått en uppfattning om att många av samtalen om rättvisa och partiskhet på AI-styrningsställen inte på något sätt är exklusiva för AI-styrning. Istället är de större frågor och överväganden om att balansera lämpliga riskklassificeringsfaktorer och korrelationen dessa faktorer kan ha med rättvis behandling av vissa klasser av vår befolkning. Jag håller till 100 % med om att vi har ekonomiska skillnader och orättvisor, och jag vill se fler inkluderande marknader; Men jag skulle hata att se viktiga och välbehövliga styrningsmetoder som förbättrar nyckelprinciper som transparens, säkerhet och ansvarsskyldighet vänta på överenskommelser om, enligt min mening, de mycket större och svåra diskussionerna om rättvisa.

Jag h√∂rde konsekvent fr√•n b√•de tillsynsmyndigheter och industriintressenter i San Diego att f√∂rs√§kringar genomg√•r en teknisk ren√§ssans. Det k√§nns som att det r√•der enighet om att hur reglering fungerar idag inte √§r vad vi beh√∂ver av reglering i framtiden. P√• vissa s√§tt √§r det ett enormt erk√§nnande av denna verklighet att st√§rka NAIC:s fokus p√• AI genom att skapa en ny “bokstavskommitt√©” (H) p√• h√∂gsta niv√• – bara den √•ttonde s√•dana kommitt√©n i NAIC:s 150-√•riga historia.

Nästa år kommer att ge ytterligare perspektiv på försäkringstillsynsmyndigheternas inställning till användningen av AI. Vi kommer att se Colorado ytterligare definiera praxis och planer för SB21-169: Begränsa försäkringsgivares användning av externa konsumentdata. Vi kommer sannolikt att se någon federal policy eller lagutveckling som till och med kan vara något som HR 5596: lagen om rättvisa mot skadliga algoritmer från 2021.

Vad ska transportörer göra just nu med alla dessa rörliga pjäser? Som ett minimum bör försäkringsbolag internt organisera nyckelintressenter relaterade till AI-strategi och utveckling för att tillsammans utvärdera hur de definierar och utvecklar AI-projekt och -modeller. Om transportörer ännu inte har etablerat en bred livscykelstyrning eller riskhanteringspraxis som är unik för deras AI/maskininlärningssystem, bör de börja den resan med hast.

Anthony Habayeb är grundande VD för Monitaur, ett AI-styrnings- och ML-försäkringsbolag.

VentureBeats uppdrag ska vara ett digitalt stadstorg för tekniska beslutsfattare att få kunskap om transformativ företagsteknik och handla. Läs mer om medlemskap.