Annons

Annons

Annons

krönikaVetenskapskrönikor

Amy Loutfi
Svarta hålet funkade – men inte alltid lätt att förstå en robot

I maj i år bjöd NASA på ljudet från ett svart hål – ett kusligt klagande läte, hotfullt och samtidigt känslosamt.

Den sensationella ljudupptagningen från rymden var egentligen inte ljud utan effekten av tryckvågor som påverkade en närliggande galax. Tryckvågorna fångades upp och översattes till ljud som blev hörbara för människor efter att pressats upp 57 oktaver. Jämför med ett piano som har 7 oktaver. 

Text: 

Det här är en krönika.Analys och värderingar är skribentens egna.

Den första bilden av ett svart hål i centrum av vår galax. Bild: European Southern Observatory

Annons

Vi människor ser, hör, luktar och smakar. På så sätt definierar vi med våra sinnen vår verklighet. Detsamma gäller för robotar, som också agerar utifrån intryck från sina ”sinnen”.

Men ibland skiljer sig robotens uppfattning - perception - väldigt mycket från människan och inte sällan som i fallet med svarta hål uppfattar roboten saker som går människan förbi om det inte förstärks eller på andra sätt förändras för att hjälpa oss att höra eller se.

Fakta

Tio forskare skriver i NA

► Tio olika forskare från Örebro universitet skriver krönikor i NA på fredagar, inom en rad varierande områden. Idag är det AI-forskaren Amy Loutfis tur. Hon forskar på samspelet mellan artificiell intelligens och människan. Nästa vecka är det kriminologen Susanne Strands tur att publicera krönika.

Annons

Hur kan då människan och roboten kommunicerar om de ser verkligheten på så olika sätt?

Annons

För nästan 20 år sedan kom min doktorsavhandling som handlade om att bygga ett luktsinne för en robot. Jag byggde så kallade elektroniska näsor och fångade upp signaler som representerade dofter. Med artificiell intelligens, AI, tolkade vi signalerna som sensorerna fångade upp. Det visade sig vara svårt att med AI dela in dofterna i förutbestämda kategorier eller att dela upp dofter i specifika beståndsdelar.

För nästan 20 år sedan kom min doktorsavhandling som handlade om att bygga ett luktsinne för en robot.

Vi människor brukar använda språket för att beskriva dofter. Något kan lukta som rosor, brända bildäck, fårpäls eller som havet en kväll i augusti. Därför tog vi fram en AI-metod som inte enbart skulle klassificera dofterna utan också beskrev dem med ord. Det ledde till en elektronisk näsa som kunde bygga på sin tidigare data och beskriva en ny okänd doft med ord och liknelser, till exempel ”lite söt” eller ”lite som vanilj”.

Min forskning då fick mig att inse att det inte är lätt att kommunicera uppfattningar om världen. Kommunikation omfattar tolkningar, subjektivitet och att hitta rätt sätt för överföringen. Forskningen knuten till AI brottas än idag med samma problem.

Nyligen reste jag och en busslast doktorander runt till en rad svenska företag som sysslar med avancerad teknik. Vi ville ta reda på hur företagen utvecklar AI och autonoma system, alltså maskiner som själva sköter jobbet. Det visade sig att skilda branscher som gruvföretag, telekomföretag och bilföretag hade samma vision: att robotar tar över de tunga arbetsuppgifterna från människor som i sin tur övervakar. Med andra ord – människor sitter i kontrollrum, tittar på skärmar och styr robotar och självkörande fordon och kontrollerar så att jobbet blir ordentligt utfört. Och korrigerar om något går fel.

Annons

Annons

Min forskning då fick mig att inse att det inte är lätt att kommunicera uppfattningar om världen.

Om det här ska bli verklighet måste kommunikationen mellan människa och robot vara god. Men det är komplicerat att definiera ”god”, eftersom robotar uppfattar omvärlden på ett helt annat sätt än människor.

Det finns en annat problem med företagens visioner. Vår hjärna bearbetar våra sinnesintryck och vår uppfattning av omvärlden. Men vår uppfattning kan skilja sig från robotens och det kan hända att jag som människa helt enkelt inte förstår vad roboten gör, eftersom roboten har ett annat sätt att uppfatta omvärlden. Det kan också hända att människan och roboten inte menar samma sak i kommunikationen med varandra. Risken finns då att människan inte klarar av att övervaka roboten. Detta kallar vi ”cognitive overload”.

Det finns också en risk för det motsatta, ”cognitive offloading”. Du har säkert upplevt det själv.

Ta mobiltelefonen. Förr hade du en liten anteckningsbok med telefonnummer som du fyllde på för hand. Och givetvis kunde du alla telefonnummer till familj och vänner utantill. Nu finns allt i mobilen och ingen behöver lära sig numren.

När roboten sköter allt jobb är det lätt hänt att människan som styr slappnar av och litar på att roboten klarar allt, eftersom maskinen har en överlägen förmåga att hantera information. Följden blir att människan i kontrollrummet kopplar av och slutar använda sin fulla hjärnkapacitet.

När roboten sköter allt jobb är det lätt hänt att människan som styr slappnar av och litar på att roboten klarar allt.

Annons

För flera år sedan gjorde vi ett test tillsammans med äldre personer. Vi ville veta hur de ställde sig till att ha en robot som hjälp i hemmet. Många svarade nej. Vår forskning visade att många av dem var oroliga för att en robot i hemmet skulle minska deras självständighet, alltså en form av ”cognitive offloading”. I en jämförelse med andra länder visades det sig sedan att sannolikheten var tio gånger större för att svenskar skulle oroa sig över detta hot från robotar i hemmet än andra, till exempel italienare.

För oss forskare är frågan hur kan vi överbrygga skillnaden mellan en människas och en robots uppfattningsförmåga, för att tillsammans stärka varandra. Utan att vare sig överbelasta eller förslappa våra mänskliga hjärnor.

Fakta

Amy Loutfi

►Ålder: 43 år.

►Född: I New Brunswick, Kanada.

►Forskningsområde: Artificiell intelligens.

►Kuriosa: Amy älskar historia, musik, film – och har vid ett tillfälle paddlat kajak från Örebro till Stockholm på åtta dagar.

Annons

Annons

Nästa artikel under annonsen

Till toppen av sidan