Diskusjonene om kunstig intelligens og hvorvidt det i fremtiden kan utgjøre noen trussel for våre liv, har pågått i flere år. Sist ut var Tesla-gründer Elon Musk og Facebook-gründer Mark Zuckerberg som havnet i en åpen disputt om dette på sosiale medier

Et eksperiment med kunstig intelligens hos Facebook illustrerer hva dette kan dreie seg om.

Eksperimentet endte med at to roboter gikk bort fra å «snakke» engelsk for i stedet gradvis utvikle sitt eget språk. Pluss at de lærte forhandlingsteknikk. Facebook stanset etter hvert hele eksperimentet, skriver Digital Journal.

Teknologinettstedet Gizmodo har imidlertid gått eksperimentet nærmere etter i sømmene: Nettsted: Facebooks kunstig intelligens-eksperiment var ufarlig

I forsøket ble to roboter med navn Bob og Alice satt til å forhandle med hverandre ved å gi dem en forhandlingsoppgave. Det avanserte systemet er i stand til å forhandle med andre roboter (kunstig intelligens), slik at det kan komme til konklusjoner om hvordan man skal fortsette.

Men raskt begynte robotene å fravike vanlig engelsk, og i stedet kommunisere i brutte setninger fulle av gjentagelser som fremsto totalt tullete for et menneske.

Det robotene gjorde var i praksis å finne opp et for dem mer effektivt språk for å forhandle med hverandre. Forskere som jobber med å utvikle kunstig intelligens i andre selskaper har også observert en lignende form for «stenografi» for å forenkle kommunikasjonen.

Forhandlingsoppgave

Facebook har illustrert dette ved et eksempel der begge robotene ble vist samme antall objekter – to bøker, en hatt og tre baller – og der de skal fordele objektene mellom seg. Begge robotene er programmert til å ønske seg ulike ting.

Bob startet med å si «jeg kan jeg jeg alt annet», mens Alice svarte «baller har null til meg til meg …».

Forskerne mener «tullesetningene» viser at de to robotene forsøker å finne ut hvor mange av hvert element de skal ta, og at Bobs setning indikerer hvordan det er å bruke språk for å tilby flere ting til Alice. Når det blir tolket slik, fremstår uttrykkene ifølge Digital Journal mer logiske enn sammenlignbare engelske setninger som «Jeg har tre og du har alt annet».

Robotene lærte å late som

Den mest interessante taktikken som dukket opp var imidlertid evnen til å lyve, skriver The Register. Noen ganger latet Bob eller Alice som om de hadde interesse av objekter de egentlig ikke ville ha, for så å late som om de ga dem opp under forhandlingsprosessen.

Hvis et språk funnet opp av kunstig intelligens blir utbredt, kan de utgjøre et problem når man utvikler og tar i bruk nevrale nettverk. Men per i dag finnes det ikke bevis for å avgjøre om det utgjør en trussel som kan gjøre det mulig for maskiner å overstyre operatørene sine, skriver Digital Journal.(Vilkår)