Innehåll

Balans fördjupning nr 3 2018

Rådgivningsansvar vid användande av artificiell intelligens

Uppgifter och funktioner som tidigare varit bortom automatisering kan i dag utföras mer eller mindre autonomt med hjälp av artificiell intelligens. Den största utmaningen för automatisering av arbetsuppgifter är att efterlikna den mänskliga kognitiva processen som vi förknippar med inlärningsförmåga och analytiskt tänkande; förmågor som är särskilt framträdande i advokatverksamhet och andra rådgivningsyrken. Flera AI-system har dykt upp på marknaden för att underlätta juridiskt rutinarbete, exempelvis vid dokumentgranskning i due diligence. En nyutkommen examensuppsats på juristprogrammet vid Uppsala universitet behandlar frågan om vilket ansvar rådgivaren har för det resultat AI-systemet producerar.1

Denna artikel ingår i artikelserien Nytt från Akademin där Balans frekvente skribent Carl Svernlöv tillsammans med nyutexaminerade jurister presenterar intressanta rön som framkommit i examensarbeten.

Den kritiska frågan är om och under vilka förutsättningar det kan anses oaktsamt att använda artificiell intelligens. Det är inte en traditionell arbetsmetod i dag, men avvikelse från sedvana är inte ensamt avgörande för om rådgivaren varit oaktsam. Hänsyn måste också tas till hur systemet använts och med vilken grad av omsorg, samt på vilket sätt klienten informerats och varit införstådd med AI-systemets begränsningar och medföljande risk. Förmedlas rådgivningen och eventuell osäkerhet på ett pedagogiskt sätt minskar risken för att advokaten kan åläggas rådgivningsansvar.

Artificiell intelligens (AI) är ett interdisciplinärt verktyg för att förstå, konstruera och efterlikna intelligens och kognitiva processer. Det finns många definitioner, men vedertaget är i vart fall att artificiell intelligens är datorsystem kapabla till beteende som skulle anses intelligent hos en människa. Dagens AI-system kan genom så kallad machine learning upptäcka mönster och därmed exempelvis identifiera kritiska avtalsklausuler även om de är formulerade på olika sätt. Mary Shelleys ”It’s alive!” gäller således inte längre enbart Frankensteins monster utan även den artificiella juristen. I en nyligen genomförd undersökning utmanades 20 jurister att granska kontrakt samtidigt som samma uppgift utfördes av ett dataprogram med nyttjande av artificiell intelligens. På 26 sekunder identifierade AI-systemet 95 procent av de juridiska problem som planterats. Juristerna upptäckte i snitt 85 procent av felen och behövde i snitt 92 minuter till granskningen. Många AI-system har i dag lägre felmarginal än jurister och är avsevärt mer effektiva, vilket medför att tjänsten blir billigare för klienten och rådgivningsverksamheten blir följaktligen mer konkurrenskraftig. Artificiell intelligens för således med sig flertalet fördelar till juridisk rådgivning, men det är inte helt utan risker. AI-systemen är begränsade genom att de i viss mån måste instrueras om vad som eftersöks, vilket medför att artificiell intelligens har svårt att identifiera risker den inte letar efter. Det är därmed tänkbart att en klient kan orsakas skada på grund av att ett AI-system har missat information av rättslig relevans.

En due diligence vid företagsförvärv kan tjäna som exempel på en tänkbar situation som kan aktualisera rådgivningsansvar för en advokat eller annan juridisk rådgivare. Vid ett företagsförvärv kommer parterna i avtalet oftast överens om att tillämpa den grundläggande köprättsliga principen att fel eller garantibrist som upptäckts eller borde ha upptäckts inte får göras gällande mot säljaren. För det fall information i en due diligence förbigås och köparen därigenom orsakas skada är därmed ofta ett anspråk mot rådgivaren det enda kort som återstår för klienten att spela. Rådgivarens skyldighet att ersätta sin klient för skadan beror, enligt gängse principer om rådgivningsansvar, på om det aktuella rådet (det vill säga i princip att det besiktigade målbolaget är fritt från aktuella brister som borde ha identifierats i due diligence) lämnats vårdslöst. Om artificiell intelligens använts i stället för eller tillsammans med mänskliga jurister blir frågan hur oaktsamhetsfrågan ska bedömas. Svaret blir då, mer specifikt, beroende av om användande av artificiell intelligens är eller kan anses vara en acceptabel arbetsmetod vid juridisk rådgivning i allmänhet och due diligence i synnerhet.

Rådgivningsansvaret är lagstadgat för vissa yrkesgrupper och har i övrigt utvecklats i praxis. Generellt finns det ett antal kriterier att uppfylla för att skadeståndsansvar ska kunna åläggas rådgivare. Först och främst måste det vara rådgivning och inte bara allmän information. Mottagaren av rådet måste sedan ha lidit skada, och det måste finnas ett adekvat orsakssamband mellan skadan och det felaktiga rådet. Eftersom det ofta är fråga om ren förmögenhetsskada krävs därtill ett skriftligt, muntligt eller konkludent avtal mellan givaren och mottagaren av ett råd. Rådgivningsansvaret är således en följd av att det för rådgivare finns en allmän lojalitetsplikt gentemot uppdragsgivaren. Det sista och ofta kritiska kriteriet är att rådgivaren måste varit oaktsam; det är inte tillräckligt att rådet inte ledde till önskat resultat.

Advokaters aktsamhetsnorm bygger på lag, god advokatsed och sedvana vilket sammantaget avgör vilket handlande klient haft fog för att förvänta sig av advokaten. Liknande principer (förutom god advokatsed) gäller för andra jurister som utför motsvarande arbete, till exempel transaktionsrådgivare på en revisionsbyrå. Det blir ofta fråga om att avgöra vad som varit sedvanlig arbetsmetod vid den aktuella uppdragstypen och huruvida rådgivaren avvikit från denna.

Vid due diligence får det anses vara sedvanlig arbetsmetod att juristerna går igenom och analyserar allt material som gjorts tillgängligt för den juridiska delen av due diligence, såsom bolagsrättsliga handlingar, information om anställda, tillstånd, processer samt – ofta ett mycket stort antal – avtal med kunder och leverantörer. Att använda AI för hela eller delar av denna analys är förhållandevis nytt och kan inte anses vara sedvanlig arbetsmetod i dag. Därigenom kan en sådan metod i sig vara att anse som vårdslös(!).

Praxis utvisar dock att avvikelse från sedvanlig arbetsmetod inte är ensam avgörande för huruvida juridisk rådgivning ska anses vårdslös. Det har därtill betydelse vilka försiktighetsåtgärder som vidtagits i övrigt. Vid användande av artificiell intelligens bör det därmed vara av stor vikt att ett tillförlitligt system används av personal som utbildats i hur systemet ska hanteras. Systemens felmarginaler är ofta lägst då undersökningen förenas med stickprovskontroller och liknande mänsklig input vilket därför rekommenderas.

Det har också betydelse för bedömningen med vilken aktsamhetsgrad juristen informerat sin klient om den arbetsmetod som använts och eventuella risker med den. Detta har nära samband med att det finns en pedagogisk plikt för rådgivare som medför en skyldighet att förmedla råd på ett sätt uppdragsgivaren förstår. Rådgivningsansvar kan inte avtalas bort i sin helhet med anledning av advokatens lojalitetsplikt gentemot klienten. Dock kan specifika uttalanden om rådets tillförlitlighet ha ansvarsbefriande effekt, eftersom det påverkar oaktsamhetsbedömningen. Har en advokat eller annan juridisk rådgivare uttalat att rättsläget är oklart eller att en undersökning är osäker eller ofullständig vore det orimligt att hålla denne ansvarig för det fall klienten väljer att förlita sig på rådet och skada inträffar. Det är därför att rekommendera att rådgivaren i förväg överenskommer med sin klient om att AI kommer att användas samt informerar om de felmarginaler och begränsningar det aktuella systemet är förenat med. Vid en due diligence kan arbetsmetoden förslagsvis specificeras i uppdragsavtalet eller i due diligence-rapportens introduktionsdel. Det kan vara till fördel att erinra om graden av AI-systemets tillförlitlighet i samband med att resultatet av undersökningen presenteras. För att en friskrivning ska vara bindande krävs dock enligt HD:s praxis att den är accepterad innan uppdraget genomförs.

Sammantaget kan sägas att användandet av artificiell intelligens i advokatverksamhet medför stora effektivitetsvinster och är därmed ekonomiskt fördelaktigt för klienten. Kvalitetsmässigt visar undersökningar också att felmarginalen för AI-system vid dokumentgranskning är markant mindre än för människor, vilket också gör att arbetsmetoden framstår som fördelaktig och eftersträvansvärd att introducera på marknaden. I framtiden är situationen därmed kanske rentav sådan att det kan anses oaktsamt att inte ha använt artificiell intelligens som verktyg. Det är dock inte en traditionell arbetsmetod i dag, men avvikelse från sedvana är inte ensamt avgörande för om advokaten förfarit oaktsamt i sin rådgivning. Hänsyn måste också tas till hur systemet använts och med vilken grad av omsorg, samt på vilket sätt klienten informerats och varit införstådd med AI-systemets begränsningar och medföljande risk. Förmedlas rådgivningen och eventuell osäkerhet på ett pedagogiskt sätt minskar risken för att advokaten kan åläggas rådgivningsansvar. Sammantaget går det inte att generellt förutse hur bedömningen kommer utfalla utan omständigheterna i det enskilda fallet blir avgörande. Emellertid kan ett antal faktorer identifieras som i vart fall bör minska risken för att rådgivaren ska anses oaktsam vid användande av artificiell intelligens, dessa sammanfattas i tabellen nedan.

Minskar risken för att arbetsmetoden anses oaktsam

Välj ett etablerat AI-system med små felmarginaler

Följ programmerarens rekommendationer angående mänsklig input och stickprovskontroller

Håll personalen utbildad i hur systemet används och kontrolleras

Minskar risken för att klienten missförstår resultatets tillförlitlighet

Avtala med klient om att artificiell ska användas i due diligence

Presentera tydligt AI-systemets begränsningar och risker för klienten på ett pedagogiskt sätt

Infoga avsnitt om AI-systemet som arbetsmetod i DD-rapportens introduktionsdel

Erinra om felmarginaler och resultatets tillförlitlighet i anslutning till att råd angående fortsatta åtgärder lämnas klient

Carl Svernlöv är advokat på Baker McKenzie och adjungerad professor vid Uppsala universitet.

Matilda Magnusson är biträdande jurist på Mannheimer Swartling.

Fotnoter

1) http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-351791

Sifferkollen Läs mer

Belopp

Basbelopp
År 2019 2020 2021
Prisbasbelopp 46 500 47 300 47 600
Förhöjt pbb. 47 400 48 300 48 600
Inkomstbasbelopp 64 400 66 800  
Utdelning fåmansföretag
År 2018 2019 2020
Schablonbelopp 169 125 171 875 177 100

Räntesatser

Periodiseringsfond
År 2018 2019 2020
Räntesats 0,36 0,51 0,50

 

Referensränta
År 2016-07-01 2019-07-01 - 
Räntesats -0,5 0,0
Ränta på skattekontot
Period 2013-2016 2017 -
Intäkt 0,5625 0
Kostnad Låg 1,25 1,25
Kostnad Hög 16,25 16,25
Räntefördelning
Inkomstår 2018 2019 2020
Positiv 6,49 6,51 6,50
Negativ 1,50 1,51 1,50
Statslåneränta
År 2018 2019 2020
31 maj 0,49 0,05 -0,01
30 nov 0,51 -0,09  

Traktamenten

Bilresor
Inkomstår 2018 2019 2020
Egen bil 18,50 18,50 18,50
Förmånsbil, diesel 6,50 6,50 6,50
Förmånsbil, bensin 9,50 9,50 9,50
Kostförmån
År 2018 2019 2020
Frukost, lunch och middag 235 245 245
Lunch eller middag 94 98 98
Frukost 47 49 49
Skattefria gåvor
År 2018 2019 2020
Julgåva 450 450 450
Jubileumsgåva 1 350 1 350 1 350
Minnesgåva 15 000 15 000 15 000

Skattesatser

Bolagsskatt
År 2018 2019 2020
Skattesats 22% 21,4% 21,4%
Mervärdesskatt
År 2018 2019 2020
Normal

25 %

25 % 25 %
Livsmedel, krog m.m. 12 % 12 % 12 %
Persontransport, böcker m.m. 6 % 6 % 6 %
Arbetsgivaravgifter/egenaavgifter
Födda -1937 1938 - 1954 1955 -
Arb. avgifter 0 % 10,21% 31,42%
Egenavgifter 0 % 10,21% 28,97%