Dette indlæg er alene udtryk for skribentens egen holdning.

Hvad gør vi, når teknologi konflikter med andre hensyn?

8. oktober 2020 kl. 09:57
Lise Bitsch
Illustration: PR-foto.
Det er bekymrende, når AI og andre teknologier potentielt kan bruges på alternative måder, der truer eksempelvis den nationale sikkerhed, skriver Lise Bitsch, senior projektleder ved Fonden Teknologirådet. Hun giver her tre bud på, hvordan man gør op med problematikken
Artiklen er ældre end 30 dage

Før sommer beskrev Politiken, hvordan DTU og Aalborg Universitet arbejdede sammen med kinesiske universitetsforskere, og hvordan Statens og Kommunernes Indkøbsservice (SKI) tilbød overvågningsudstyr fra firmaer, der ifølge FN, har ondt i menneskerettighederne.

I artiklerne blev det også fortalt, at SKI er gået i gang med at undersøge mulighederne for at fjerne produkterne fra deres udbudskataloger. Universiteterne henviste til problematikkerne som et udenrigspolitisk spørgsmål. Men er det nu kun det?

Det handler også om forskningspolitik

I sit indlæg i Ingeniøren fra 13. september 2020, viser Lars Bangert Struwe os tydeligt de sikkerhedspolitiske komplikationer og spændinger, som danske forskere står nærmest alene med at håndtere. Den teknologiske og politiske virkelighed, som både universiteterne, forskerne, statslige myndigheder og politikerne må navigere i, er både kompliceret og under hastig forandring.

Hvordan kan vi beskytte retten til fri forskning, og et globalt handelsmarked? Hvordan kan vi samtidig navigere ansvarligt i en højteknologisk verden? Smarte informationssystemer, ansigtsgenkendelse, udvidede muligheder for overvågning og sporing af individer ved at følge deres digitale fodspor bliver mere og mere avancerede. De giver os muligheder for at bidrage positivt til eksempelvis opsporing af smittekæder i forbindelse med pandemier, men de kan også misbruges.

Hvad er bekymrende dual use?

Det, at teknologier kan bruges til andet end deres oprindelige formål, viser, at de har et såkaldt dual use-potentiale. Selvsagt er det ikke alle sådanne anvendelser, der er problematiske. Der, hvor det bliver kritisk, er, når teknologier bliver anvendt eller kunne blive anvendt, på en måde der truer for eksempel national sikkerhed, offentlighedens sundhed, menneskerettighederne eller miljøet.

Artiklen fortsætter efter annoncen

Sammen med en gruppe internationale forskere, har vi udviklet en forståelse af dual use, der gør det muligt at tænke fremadrettet for at forudse og handle proaktivt på, hvad vi kalder 'dual use research of concern (DURC)' - eller bekymrende dual use. Teknologier kan derfor have et bekymrende dual use-potentiale, hvis de udvikles med det formål at skulle anvendes inden for det politiske, militære, sikkerheds-, eller efterretningsmæssige område.

Enten har de et direkte potentiale for at kunne misbruges på måder, der truer fred, sundhed, sikkerhed og det generelle velbefindende af borgere, eller udvikles de på en måde hvor der ikke tages forsvarligt hånd om bekymrende dual use-problematikker. DURC er udviklet i kontekst af forskning og udvikling af informations- og kommunikationsteknologier inspireret af viden om hjerner. Definitionen har dog mulighed for en mere general anvendelse.

Det er her, vi vender tilbage til indledningen. Det djævelske ved såkaldte dual use-problematikker er, at de ikke kan reduceres til udenrigspolitik, men er netop også forsknings- og udviklingspolitik. Hvad kan vi så gøre ved det?

Sådan tager vi hånd om dual use

Teknologirådet har arbejdet systematisk med problematikken i forhold til de nye teknologiske muligheder som forskning i den menneskelige hjerne åbner for. Sammen med et hold af internationale forskere, og med inddragelse og input fra mange eksperter og mere end 2.000 europæiske borgere, kom vi med et bud på, hvordan man kan ansvarliggøre forskning med et potentiale for at blive brugt i militære, politiske, efterretningsmæssige og sikkerhedsmæssige sammenhænge.

Ikke forbud men etisk træning

I vores bidrag gør vi op med tanken om, at man kan forbyde forskning med et dual use-potentiale. Vi mener i stedet, at man bør udvikle processer for at evaluere hvilke ’dual uses’ der er problematiske, fx ud fra et menneskerettighedssynspunkt. Derefter skal man arbejde målrettet med at undgå at støtte sådanne udviklinger. Hvordan gør man så det? Vi udviklede 15 anbefalinger. Tre af disse er relevante for den danske kontekst skitseret i Lars Bangert Struwes indlæg og Politikens artikelserie. Lettere omskrevet til den nuværende kontekst er disse anbefalinger at:

  1. Universiteter og højere læreanstalter udvikler professionelle træningsprogrammer for deres forskere, ingeniører og studerende, sådan at disse kan genkende og forstå de sociale og etiske og dual use-problematikker, der knytter sig til deres forskning [1]
  2. Universiteter og højere læreanstalter udvikler egne politikker for, hvordan de håndterer forskning og samarbejder inden for områder, hvor der er bekymrende dual use-problematikker [2]
  3. Industrien og virksomheder, der arbejder med blandt andet kunstig intelligens, maskinlæring og lignende teknologier etablerer interne etiske rådgivnings- og kontrolorganer, som led i at udvikle gennemsigtige og etiske beslutnings- og ledelsessystemer. De skal samtidig udvikle processer for at højne kapaciteten hos deres forskere og andre ansatte til at genkende og forstå de sociale og etiske og dual use-problematikker, der knytter sig til deres forskning eller forretningsområder [3]

Du kan læse hele rapporten, som Teknologirådet her været en del af at skrive, med anbefalinger her: https://sos-ch-dk-2.exo.io/public-website-production/filer_public/77/61/7761fdcd-b0a0-40a2-a6bd-904d68d52b87/opinion_dual_use_hbp_ethicssociety.pdf

Artiklen fortsætter efter annoncen

 

[1] Indenfor hjerneforskning er denne anbefaling støttet af fx UK’s Royal Society: Royal Society (2012). Neuroscience, conflict and security: Brain waves module 3. London: The Royal Society

[2] Denne anbefaling lægger sig op af flere rapporter om dual use-problematikker, fx Chameau, J. L., Ballhaus, W. F., & Lin, H. S. (2014). Emerging and readily available technologies and national security: A framework for addressing ethical, legal, and societal issues. DC: National Academy’s Press

[3] Ibid. Denne anbefaling støtter op om forslag der kommer fra civile forskere (fodnote 2), som allerede har forsøgt at gøre opmærksomme på de sikkerhedsmæssige problematikker der knytter sig til deres forskning. Andre internationale interesse organisationer for industry og ingeniør videnskab har også udgivet retningslinjer og forslag, fx IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems: as The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems: https://standards.ieee.org/develop/indconn/ec/autonomous_systems.html, and the Future of Life Institute: https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/.

Vil du bidrage til debatten med et synspunkt? Så skriv til vores debatredaktion på debat@ing.dk

Ingen kommentarer endnu.  Start debatten

Tophistorier

Debatten
Vær med til at skabe en god debat ved at følge vores debatregler.

For at deltage i debatten skal du have en profil med adgang til at læse artiklen. eller opret en bruger.
settingsDebatvisning