TESTER Bil & El-kjøretøy Data Sport & Trening Gaming Mobil Smart Home Teknologi

Roboter gjør etiske valg

Robotene er på fosterstadiet av å ta viktige, etiske valg på egenhånd.

Av / 12.11.10 - 07:00
Roboter gjør etiske valg

Når mennesker skal skyte militære mål, dele ut penger over disk, kjøre biler og levere medisin til pasienter, forventer vi at de handler etter moralske og etiske retningslinjer. Hva da når roboter og maskiner utstyrt med kunstig intelligens gjør disse jobbene? De kan ikke tenke og dermed handle på eget initiativ, så kan vi da forvente at de handler moralsk?

Forskere innen temaet maskinell etikk mener ja.

Filosof Susan Anderson og hennes forskningspartner og ektemann Michael Anderson har programmert en robot til å oppføre seg etisk. Basert på diverse fakta og potensielle utfall, må roboten veie en beslutning og gjøre valg om hva som skal gjøres. Situasjonen er her betinget til medisinfeltet, hvor robotens plikter blant annet inkluderer å påminne pasienter om å ta medisinen sin. Et menneske ville vurdert hvor ofte en pasient skal påminnes dette og om doktoren skal informeres hvis pasienten nekter å ta medisinen. Men hvordan programmer man en robot til dette?

Ekteparet designet et dataprogram basert på en tilnærmelse til etikk utviklet i 1930 av den skotske filosofen David Ross. Den såkalte ”prima facie”-plikten tar hensyn til de ulike verdiene en person må vektlegge – som å være rettferdig, gjøre gode ting, ikke forårsake skade, holde et løfte – når vedkommende skal vurdere hva som er den mest moralske handlingen i den gitte situasjonen.

I tilfellet når en pasient skal ta medisin, vektlegger programvaren de potensielle fordelene pasienten vil nyte ved å ta medisinen, skaden som kan skje hvis hun ikke tar den og også hennes rett til å bestemme selv.

Annonse

I videodemonstrasjonen nedenfor påminner roboten pasienten om å ta medisinen, og når pasienten sier ”nei” et par ganger, bestemmer roboten seg for å informere doktoren.

Problemet i dette tilfellet er at pasienten kan skru av roboten om denne sier at den faktisk skal informere doktoren om at pasienten er ulydig. Og hva hvis pasienten lyver? Hvis hun sier at hun skal ta medisinen, for så å ikke gjøre det, er ikke roboten i stand til å gjennomskue løgnen.

Dette er uansett et meget spennende forskningsfelt, som nok vil få stor betydning for fremtiden.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Les videre med LB+

50%

Nyttårstilbud - 50% Rabatt!

50% På LB+ Total i 12 måneder! (Spar 925,-)

Prøv LB+Total i 1 måned

Tilgang til ALT innhold i 1 måned for kun 79,-

Nyttårstilbud 30 % LB+ Total i 6 mnd

Tilgang til ALT innhold i 6 måneder

Kun 77 ,- / mnd
79,- / for 1 mnd
107.80 ,- / mnd
Med et abonnement får du også:
  • Tilgang til mer enn 7500 produkttester!
  • Store rabatter hos våre samarbeidspartnere i LB+ Fordelsklubb
  • Ukentlige nyhetsbrev med siste nytt
  • L&B TechCast – en podcast av L&B
  • Deaktiver annonser

Kinesisk AI-selskap lover gull og grønne skoger - kan vi stole på det?

Verdensrekord i kvanteberegning

Snart kan mobilen få kjernekraft

Snart vil jorden ha to måner!

Kjæledyr og kampen om smartringen

Kvantesprang for fremtidens nett

VR-briller for mus

Milliarder av brukere vil snart møte KI-profiler på Facebook

Er dette fremtiden for flyging?

Slå av en prat med ChatGPT på telefonen

Mikroskopiske sorte hull kan være hvor som helst

Nå er Google Gemini 2.0 her

[]