First Class Citizen: Etik och Moral i framtidens IT-system?
Postat: 2019-03-16 16:07:36
First class citizen är inom programmering ett begrepp för funktioner i ett system som, kort förklarat, har fler områden att kunna fungera på, än andra funktioner kan ha. Det är mig veterligen inget vetenskapligt vedertaget begrepp, utan skrev det bara för att jag anser det passar.
Etik (regler typ)
Moral (och i vilken utsträckning man följer dem)
Ett av många problem
Hur skall man programmera in etik och moral i en autonom bil? Det kommer krävas att man måste värdera människoliv, och välja riskera att en part blir av med sitt liv.
Skall bilen i första hand skydda dem som sitter i bilen, eller de som finns utanför bilen?
Eller skall bilen räkna antal människor som riskerar sina liv utanför bilen, jämfört antal passagerare i bilen, som riskerar sina?
En normal människa skulle nog väja för en grupp dagisbarn som går över gatan, utan att tänka på att man kanske riskerar sitt liv, på grund av det. Samtidigt kommer nog få att köpa en bil idag, som man vet kommer riskera att ”offra” dig som person, vid ett specifikt scenario. Speciellt om man – i början av eran - med bilmärket från X-land/tillverkaren kan välja bort att reagera på skolklassen – att alltid ta dig som förare/passagerare i första hand. Viss sannolikhet finns dock att det blir olagligt efter ett tag, och då komma klassas som förberedelse till dråp eller liknande.
Om det skulle bli olagligt att välja sitt liv framför andras genom att programmera om sin bil att strunta i fotgängare mm, har man fortfarande en bil som kan välja att offra dig. Volvo kommer behöva utesluta dig som ägare/förare i sin produkt, fall de fortfarande vill hävda att de har världens säkraste bil.
Ingen bra sits för allas vår ”marknad” heller, oavsett åsikt om den. ”Marknaden” har stor och stark vilja - på många olika sätt - i denna värld vi lever i. Hur kommer den resonera runt vem skall dö problemet, samtidigt som den vill pusha fram autonoma bilar.
Jag undrar över vem som ansvarar för etiken och moralen i framtidens IT-system? Jag vill försiktigt påstå att det kanske inte finns någon riktigt lösning, som jag ser det idag, gällande både bil och andra system. Kommer det någonstans göra så att utvecklingen på AI området stannar upp, för att vi människor inte är på det klara över problemet, och/eller är överlag dåliga på att ta hänsyn till varandra? Inte hinner för man måste analysera kvartalsrapporten? Innan, under och efter den släppts?
Denna lista kan göras jobbigt mycket längre där etik och moral kommer att behöva tas upp, som t.ex. försäkringsbolag, som inte alltför sällan ägs av banker, kan se din inköpshistorik av mediciner och därigenom har möjlighet att anpassa kostnaderna för dina försäkringar därefter osv. Vem reglerar det?
Möjligt att det går att lösa på något sätt jag inte vet, eller förstår. Eller så är det här ett sådant oundvikligt problem/möjlighet i evolutionen som faktiskt får/tvingar oss människor att reflektera över hur vi som art behandlar varandra.
Humanity saved by AI, helt enkelt?
Etik (regler typ)
Den behandlar […] frågorna om vad som utmärker en god handling och vad som kännetecknar en god människa.
Etik - Wikipedia
Moral (och i vilken utsträckning man följer dem)
Moral är en kvalitativ egenskap i en handling, ett beteende eller hos en person att följa de etiska normerna, att följa god sed.
Moral - Wikipedia
Ett av många problem
Hur skall man programmera in etik och moral i en autonom bil? Det kommer krävas att man måste värdera människoliv, och välja riskera att en part blir av med sitt liv.
Skall bilen i första hand skydda dem som sitter i bilen, eller de som finns utanför bilen?
Eller skall bilen räkna antal människor som riskerar sina liv utanför bilen, jämfört antal passagerare i bilen, som riskerar sina?
En normal människa skulle nog väja för en grupp dagisbarn som går över gatan, utan att tänka på att man kanske riskerar sitt liv, på grund av det. Samtidigt kommer nog få att köpa en bil idag, som man vet kommer riskera att ”offra” dig som person, vid ett specifikt scenario. Speciellt om man – i början av eran - med bilmärket från X-land/tillverkaren kan välja bort att reagera på skolklassen – att alltid ta dig som förare/passagerare i första hand. Viss sannolikhet finns dock att det blir olagligt efter ett tag, och då komma klassas som förberedelse till dråp eller liknande.
Om det skulle bli olagligt att välja sitt liv framför andras genom att programmera om sin bil att strunta i fotgängare mm, har man fortfarande en bil som kan välja att offra dig. Volvo kommer behöva utesluta dig som ägare/förare i sin produkt, fall de fortfarande vill hävda att de har världens säkraste bil.
Ingen bra sits för allas vår ”marknad” heller, oavsett åsikt om den. ”Marknaden” har stor och stark vilja - på många olika sätt - i denna värld vi lever i. Hur kommer den resonera runt vem skall dö problemet, samtidigt som den vill pusha fram autonoma bilar.
Jag undrar över vem som ansvarar för etiken och moralen i framtidens IT-system? Jag vill försiktigt påstå att det kanske inte finns någon riktigt lösning, som jag ser det idag, gällande både bil och andra system. Kommer det någonstans göra så att utvecklingen på AI området stannar upp, för att vi människor inte är på det klara över problemet, och/eller är överlag dåliga på att ta hänsyn till varandra? Inte hinner för man måste analysera kvartalsrapporten? Innan, under och efter den släppts?
Denna lista kan göras jobbigt mycket längre där etik och moral kommer att behöva tas upp, som t.ex. försäkringsbolag, som inte alltför sällan ägs av banker, kan se din inköpshistorik av mediciner och därigenom har möjlighet att anpassa kostnaderna för dina försäkringar därefter osv. Vem reglerar det?
Möjligt att det går att lösa på något sätt jag inte vet, eller förstår. Eller så är det här ett sådant oundvikligt problem/möjlighet i evolutionen som faktiskt får/tvingar oss människor att reflektera över hur vi som art behandlar varandra.
Humanity saved by AI, helt enkelt?