Artificiell intelligens - subjekt eller objekt?

Skrolla ner för att läsa hela framställningen

Introduktion

När jag började skriva den här texten trodde jag att jag skulle ge mig in i ett ganska smalt område – något tekniskt, lite trendigt, kanske till och med lite överhypat. Men ganska snabbt insåg jag motsatsen. Inläsningen visade hur otroligt utvecklad och genomarbetad AI-rätten redan är. Det finns en massiv internationell diskussion, tunga rättsteoretiska bidrag och ett intensivt lagstiftningsarbete. Det här är inte en perifer nisch – det är ett fält där grundläggande metodfrågor i juridiken ställs på sin spets.

Samtidigt slog det mig hur lätt vi jurister förenklar det vi inte fullt ut förstår. När tekniken blir komplex – neurala nätverk, träningsdata, probabilistiska modeller – ersätter vi ofta förståelse med etiketter: “black box”, “autonomi”, “självlärande”. Det är mänskligt. Men det är också problematiskt. För när vi inte riktigt förstår hur systemen fungerar tenderar vi att behandla dem som något mer än verktyg – nästan som aktörer. Och där någonstans börjar den juridiska analysen glida fel.

För mig personligen blev arbetet nästan en metodologisk väckarklocka. Jag har alltid varit intresserad av hur juridiska begrepp används – hur de kan strukturera tänkandet men också styra det i fel riktning. I den här texten blev det tydligt hur stark makt ett begrepp kan få över analysen. Frågan “är AI ett subjekt eller objekt?” låter djup, men riskerar att bli en återvändsgränd. Den skymmer det som egentligen är intressant: vem har kontroll, vem har beslutat, vem bär risken?

Texten är därför inte bara en diskussion om AI. Den är ett försök att göra det jag själv dras till i juridiken: skala bort det spektakulära och gå ner i strukturen. Att flytta fokus från tekniken som fenomen till de mänskliga handlingskedjorna bakom den. Från ontologi till ansvar.

Arbetet gav mig också en tydligare bild av hur juristrollen kan komma att förändras. AI-system kommer användas i juridisk praktik – som analysstöd, textproducenter, beslutsverktyg. Det innebär att juristen måste förstå tillräckligt mycket om tekniken för att inte bli begreppsligt vilseledd av den. Inte för att bli programmerare, men för att kunna identifiera var det juridiskt relevanta faktiskt ligger.

Om texten bidrar med något hoppas jag att det är ett perspektiv: att vi inte behöver uppfinna en ny ontologi för att hantera AI, men att vi behöver vara mer medvetna om våra egna metodologiska reflexer. Och kanske också en påminnelse om att juridikens styrka inte ligger i att definiera vad något “är”, utan i att fördela ansvar där det faktiskt hör hemma.

Utdrag

Den samtida debatten om reglering av artificiell intelligens (AI) hemsöks av en ontologisk fixering. Från Europaparlamentets tidigare diskussioner om att tillskriva robotar ”elektronisk personlighet” till det spektakulära beviljandet av medborgarskap för roboten Sophia, tycks rättsvetenskapen vara låst i en föreställning om att teknikens vara måste fastställas innan dess böra kan regleras. Denna fixering vid artefaktens status återfinns även i EU:s nyligen antagna AI-förordning (AI Act), som trots sin uttalade riskbaserade ansats vilar på en binär klassificeringslogik där systemets tekniska egenskaper dikterar de normativa skyldigheterna. Premissen för denna diskurs är att frågan ”är AI ett rättssubjekt eller ett rättsobjekt?” utgör en nödvändig grundval för rättslig analys.

Vår tes är att denna frågeställning är metodologiskt felställd. Genom att fokusera på AI- systemets status faller lagstiftare och jurister i den fälla som den skandinaviska rättsrealismen varnade för redan vid 1900-talets mitt: Begreppsjurisprudens. I stället för att analysera de reella intressekonflikterna och ansvarsrelationerna mellan de människor som utvecklar, säljer och använder tekniken, tillåts abstrakta begrepp styra rättstillämpningen.

För att dekonstruera denna problematik anlägger vi ett funktionalistiskt perspektiv med rötter hos Alf Ross och Claes Martinson. Ross visade i sin inflytelserika analys av begreppet Tû-Tû hur juridiska termer ofta fungerar som semantiskt tomma mellanled, en presentationsteknik för att binda samman rättsfakta med rättsföljder utan att i sig referera till en verklig egenskap i sinnevärlden. På samma sätt riskerar begreppet ”AI” idag att fungera som ett modernt Tû-Tû: ett magiskt mellanled vi fyller med föreställningar om agens och autonomi för att hantera teknikens komplexitet.

I enlighet med den skandinaviska funktionalismen, såsom den beskrivs av Martinson, bör juridiska begrepp som ”äganderätt” , eller i detta fall ”rättssubjektivitet” förstås relationellt och kontextuellt snarare än som statiska storheter. Genom att applicera detta synsätt syftar denna uppsats till att visa att ”black box” -problematiken och AI:s påstådda autonomi inte kräver en ny ontologi. Det krävs i stället en återgång till en strikt ansvarsallokering där tekniken betraktas som ett verktyg i mänskliga handlingskedjor, oavsett dess komplexitet.