TESTER Bil & El-kjøretøy Data Sport & Trening Gaming Mobil Smart Home Teknologi

Nyhet

Turing-prisvinnerne er bekymret for sikkerheten ved kunstig intelligens

KI-selskaper bryr seg mer om penger enn om sikkerhet.

Av / 09.03.25 - 09:01
Turing-prisvinnerne er bekymret for sikkerheten ved kunstig intelligens

Store språkmodeller som ChatGPT har revolusjonert utviklingen av kunstig intelligens. Men selskapene bak dem er så opptatt av å telle hvor mange milliarder dollar de plutselig er verdt, at de glemmer å se på farene teknologien også innebærer. Mangelen på sikkerhetsprosedyrer er som å teste holdbarheten til en bro ved å sende biler ut på den – og se om den kollapser.

Kritikken kommer fra to av de som burde vite mest om emnet: Andrew Barto, forsker ved University of Massachusetts, og Richard Sutton, tidligere forsker ved Google-eide DeepMind. Dette skriver teknologimagasinet The Verge. De to forskerne har nettopp mottatt årets Turing Award.

Turing-prisen regnes uoffisielt som informatikkens svar på Nobelprisen, og de to fikk prisen for sitt arbeid med å utvikle Reinforcement Learning, som handler om å trene opp kunstig intelligens. Metoden går ut på at en observatør belønner riktige resultater under treningen, slik at den kunstige intelligensen finner det ønskede regelsettet (ikke ulikt å trene opp en hundevalp).

Les også Nyhet: GPT 4.5 rundt hjørnet, snart etterfulgt av GPT 5 OpenAI er i ferd med å lansere nye GPT-versjoner, men blir jaget av Musk med sin Grok.

Andrew Barto har sagt i et intervju i Financial Times at AI-selskaper forsømmer å se på sikkerhet:

“Å gi millioner av brukere tilgang til programvare uten å ha sikkerheten på plass strider mot all god praksis. I ingeniørarbeid bør man normalt ta forholdsregler mot de negative konsekvensene – og det skjer ikke i selskapene som utvikler KI.”

Annonse

Det er ikke første gang Turing-vinnere kritiserer AI-giganter for å forsømme sikkerheten. Yoshua Bengio og Geoffey Hinton, som vant sammen i 2019, har begge påpekt at arbeidet med å utvikle generell kunstig intelligens (AGI) risikerer å skape en superintelligens som kan skade menneskeheten. Enten for sine egne agendaer eller i hendene på mennesker med ondsinnede hensikter.

Kilde: The Verge

John Hvidlykke
(f. 1964): Journalist og tester. John har arbeidet for Lyd & Bilde siden 2013, hvor han skriver om hi-fi, høyttalere, computere, gaming og teknologihistorie. John har beskjeftiget seg med teknologijournalistikk siden 1982(!), og har arbeidet for tallrike magasiner i forskjellige roller; blant annet GEAR, High Fidelity, Komputer for alle, Illustreret Videnskab, Ny Elektronik, PC World og Privat Computer. Han har dessuten skrevet tallrike bøker og undervisningsprogrammer om IT.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Les videre med LB+

Tilbud - 1 måned for kun 79,-

Tilgang til ALT innhold i 1 måned!

Populær

LB+ total 12 måneder

Tilgang til ALT innhold i 12 måneder

LB+ Total 6 måneder

Tilgang til ALT innhold i 6 måneder

Kun 79 ,-
154,- / mnd
154,- / mnd
Med et abonnement får du også:
  • Tilgang til mer enn 7800 produkttester!
  • Store rabatter hos våre samarbeidspartnere i LB+ Fordelsklubb
  • Ukentlige nyhetsbrev med siste nytt
  • L&B TechCast – en podcast av L&B
  • Magsinet digitalt
  • Deaktiver annonser

Signal kan droppe Sverige og andre krypteringsfiendtlige land

Ett enkelt krystall kan holde alle dine data

Teleportering er faktisk mulig

ChatGPT 4.5 rett rundt hjørnet

Bytedance viser imponerende video-KI

Googles 2.0 tilgjengelig for alle

Nye EU-regler skal beskytte deg mot farlig KI-bruk

Gratis Wi-Fi på SAS-flyvninger

Kinesisk AI-selskap lover gull og grønne skoger - kan vi stole på det?

Verdensrekord i kvanteberegning

Snart kan mobilen få kjernekraft

Snart vil jorden ha to måner!

Lyd & Bilde