Archive for May 13, 2014

Gir personer rett til å bli glemt

Det som havner på internett, forsvinner aldri. Det er mange privatpersoner som har opplevd omtale av seg selv om man i ettertid skulle ønske at kunne fjernes.

Den høyeste instansen i EU-domstolen kunngjorde i dag kjennelsen i en rettssak hvor blant annet dette temaet har blitt behandlet. Men saken handlet også om hvorvidt søketjenester som Google har et ansvar i slike tilfeller.

I 2010 anla spanske Mario Costeja González sak mot avisforlaget La Vanguardia Ediciones SL og Google i Spania for å få slettet en informasjon om en tvangsauksjon González var involvert i en del år tidligere. Saken mot avisforlaget ble avvist i Spania allerede på et tidlig tidspunkt, fordi publiseringen av informasjonen var fullt lovlig. Men spanske justismyndigheter har bedt EU-domstolen om råd i saken mot Google. Digi.no omtalte saken i fjor da generaladvokat Niilo Jääskinen, som er rådgiver for den høyeste instansen i EU-domstolen, konkludert med at det ikke er søketjenesters ansvar å filtrere ut søkeresultater som kan virke svekkende for omdømmet til enkeltpersoner, så lenge det indekserte innholdet er publisert av noen andre.

Nå har EU-domstolen kommet til motsatt konklusjon. Det betyr at dersom et søk basert på en persons navn resulterer i en liste med lenker til websider som inneholder informasjon om den aktuelle personen, så har personen rett til å be om at uønskede lenker fjernes fra søkeresultatene dersom informasjonen framstår som utilstrekkelig, irrelevant eller utdatert, eller overdrevne i forhold til formålene for behandlingen av dataene eller i lys av tiden som har gått. Personen har altså rett til å kreve at innhold på internett blir «glemt» av søketjenester etter en viss tid.

Ifølge EU-domstolen vil operatøren av søketjenesten i hvert enkelt tilfelle måtte gjøre en grundig vurdering av grunnlaget for forespørselen. Dersom forespørselen avvises, vil personen kunne bringe saken inn for en tilsynsmyndighet eller en domstol.

Grunnlaget for beslutningen er dels at søketjenestene har ansvar for den prosesseringen de gjør av informasjonen. Fordi søketjenesten, Google i dette tilfellet, er representert med et lokalt kontor i et medlemsland (av EU), mener domstolen at det ikke spiller noe rolle at selve prosesseringen skjer i et land som ikke er medlem.

Hele dommen er tilgjengelig her.

USAs marine får egen ebokleser

Den amerikanske marinen utstyrer sine skip med en ebokleser kalt Nayy eReader Device eller NeRD, melder BBC.

Leseren har skjerm med elektronisk blekk, men utmerker seg ved at enheten er helt isolert.

Av hensyn til sikkerheten har den verken WiFi eller annen støtte for dataoverføring, ei heller fysiske tilkoblingsporter.

Dermed er det heller ikke mulig å legge inn eller fjerne bøker fra NeRD. Heldigvis kommer den ferdig lastet med 300 titler, og fungerer som et lite bærbart bibliotek ombord der lagringsplass kan være mangelvare.

I dette tilfellet inkluderer det klassikere fra Shakespeare og James Joyce, men også mer moderne skjønnlitterære utgivelser som Ringenes Herre og Game of Thrones.

Behovet for enheten skyldes at tradisjonelle eboklesere med GPS, støtte for WiFi og dataroaming er bannlyst ombord, da radiosendere kan røpe skipets posisjon overfor fienden.


NeRD er en ebokleser spesielt utviklet for den amerikanske marinen.

I første omgang skal alle ubåter bli utstyrt med fem eboklesere av denne typen, før tilbyder senere rulles ut i hele den amerikanske marinen, skriver BBC.

Produktet er utviklet av US Navy i samarbeid med Findaway World, ifølge en pressemelding.

Avduket verktøyene for «mobil og nettsky først»

Microsoft arrangerer denne uken selskapets TechEd North America 2014-konferanse i Houston. Under hovedtalen i går ble det avduket en rekke verktøy og produkter som bygger videre på uttalelsene til Microsoft-sjef Satya Nadella om at både mobil og nettsky må komme først.

Hovedtalen ble ledet av Brad Anderson, sjef for Microsofts Cloud & Enterprise Division. Han fortalte at de nye teknologiene endrer Microsofts tilnærming til forretningsinnovasjon og gir IT-personell, utviklere og teknologibrukere nye muligheter til å skape verdi og å øke produktiviteten.

Anderson oppsummerer den nesten tre timer lange hovedtalen i et blogginnlegg.

Blant annet nevner Anderson Microsoft Azure ExpressRoute, som nå er tilgjengelig. Dette er et verktøy som skal gjøre det enklere for virksomheter å knytte sammen lokal teknologi med Microsofts nettsky for å skape en hybrid nettsky-infrastruktur. Microsoft har også utgitt en tidlig utgave av Azure Files, som skal gjøre det enklere å dele filer i nettskyen på tvers av applikasjoner og tjenester. Anderson nevner også tidlige testutgaver av Azure-verktøy for gjenopprettelse av data og antiskadevare, samt kommende løsninger som skal forhindre datatap eller kryptere innhold i Office 365. Flere detaljer om det sistnevnte finnes i et separat blogginnlegg.

Microsoft har nå kommet med en tidlig testutgave av Azure RemoteApp, en Remote Desktop Services-basert tjeneste som gjør det mulig å kjøre Windows-applikasjoner nettskyen via klientapplikasjoner til Windows, Windows RT, Windows Phone, OS X, Android og iOS.

For utviklere
Microsoft hadde også nyheter å komme med for utviklere i går. Blant annet viste selskapet fram en tidlig utgave av neste versjon av ASP.NET som skal være optimalisering for bruk i nettskyen. Det loves at ASP.nET vNext, som den kalles, skal tilbys .NET Foundation som et åpen kildekode-prosjekt.

Visual Studio skal få støtte for Apache Cordova, en plattform for bygging av hybride applikasjoner for flere mobilplattformer ved hjelp av webteknologier som HTML og JavaScript. Dette kommer i tillegg til muligheten til å lage systemspesifikke applikasjoner til Windows, iOS og Android ved hjelp av .NET og Xamarin.

Forøvrig kunngjorde Microsoft at Visual Studio 2013 Update 2 nå er ferdigutviklet. Den største nyheten i denne oppdateringen er støtten for universelle Windows-applikasjoner.

– Bakdør plantes i amerikansk IT-utstyr før eksport

Pakker med rutere, svitsjer og servere produsert eller satt sammen i USA blir rutinemessig mottatt eller avskåret av det amerikanske etterretningsorganet NSA.

De sørger på hemmelig vis å legge inn bakdører i utstyret før videre eksport til kunder internasjonalt.

Det hevder journalist Glenn Greenwald fra The Guardian i sin ferske bok «No Place to Hide: Edward Snowden, the NSA, and the Surveillance State».

Greenwald og kolleger fra The Guardian vant nylig den høyeste utmerkelsen for journalister, Pulitzer-prisen, for sine avsløringer av USAs massive overvåking av internett, som også var basert på Snowden-lekkasjene.

Et hemmelig dokument fra sjefen for NSAs avdeling «Access and Target Development» datert juni 2010 blir fremhevet i et utdrag fra boken som blir lansert i dag.

Etter å ha tuklet med maskinvaren sørger NSAs agenter for å pakke utstyret sammen igjen, forsegle eskene med fabrikksegl og sende det videre til kunden, heter det.


Glenn Greenwald er bokaktuell med «No place to hide» som lanseres i dag 13. mai.

– Slik får NSA tilgang til hele nettverk og alle dets brukere. I dokumentet blir det på muntert vis observert at enkelte deler av SIGINT-faget… er en (bokstavelig talt) svært fingernem operasjon, skriver The Guardian.

SIGINT står for «signal intelligence» eller signaletterretning, det vil si datafangst fra elektronisk kommunikasjon. Motsatsen er HUMINT, human intelligence, altså menneskelig etterretning.

– USA gjør det de beskylder Kina for
Greenwald gjør naturligvis et poeng av at avsløringene viser at USA gjør nøyaktig det samme som de i årevis har beskyldt kineserne for å gjøre; nemlig å plante bakdører, svakheter eller ondsinnet programvare i datautstyr for å bedrive spionasje og etterretning.

Utstyr fra Huawei, Kinas største privateide selskap og verdens største produsent av infrastruktur til nettverk og mobilnett, er i praksis bannlyst fra kritisk infrastruktur i USA, etter gjentatte beskyldninger og mistanker om sikkerhetsrisiko.

På samme måte er også kinesiske ZTE nektet adgang til det amerikanske markedet, etter vedtak i etterretningskomiteen i USAs kongress. Canada, Australia og India har også nektet kinesiske telekom-leverandører adgang til kontrakter.


Det amerikanske spionorganet NSA (National Security Agency) har hovedkvarteret sitt ved Fort Meade i delstaten Maryland.

Huawei og ZTE har hele tiden kategorisk benektet enhver befatning med spionasje eller at utstyret de selger utgjør noen sikkerhetrisiko. Videre har de avvist alle påstander om bånd til myndighetene i Beijing.

– Det er fullt mulig at kinesiske selskaper planter overvåkingsmekanismer i sitt nettverksutstyr. Men USA gjør det helt sikkert, fastslår Glenn Greenwald.

Huawei store i Norge
Her i Norge er Huawei hoffleverandør av både mobilnettene til Telenor og Netcom, de er også nylig utpekt som leverandør av stamnett til Broadnet, som nå driver å moderniserer sitt nasjonale fibernett.

Politiets sikkerhettjeneste PST har tidligere advart mot Huawei, som de oppfatter som en sikkerhetsrisiko. Det samme har ledende politikere i Høyre gjort.

Telenor, som selv har et samarbeid med Huawei og delt forskningssenter på Fornebu, har gitt uttrykk for at Huawei er en risiko de tar.

Så populær er Office til iPad

Microsoft er tydelig fornøyd med hvordan markedet har tatt i mot Office til iPad, som omfatter Word, Excel og Powerpoint i egne utgaver.

Bare én uke etter lansering i slutten av mars var det lastet ned 12 millioner Office-apper tilpasset Apples nettbrett.

Erfaring tilsier at Microsoft neppe ville røpet tallene hvis etterspørselen hadde vært avmålt eller skuffende.

Doblet
Under gårsdagens åpningsforedrag på TechEd-konferansen i Houston røpet Microsoft at antallet nedlastinger nå har steget til 27 millioner, over en dobling fra siste oppdatering tidlig i april, ifølge Business Insider.

Tallene er interessante å følge, ikke minst fordi produktet er tett knyttet opp mot Microsofts nye strategi hvor kundene selv skal kunne velge hvilken plattform de ønsker å kjøre programvaren på.

Word, Excel og Powerpoint kan lastes ned fritt til iPad, men gratispassasjerer får da bare anledning til å lese dokumenter.

Hvis man i tillegg vil opprette og redigere dokumenter kreves et aktivt Office 365-abonnement, som for tiden koster fra 549 kroner per år.

4,4 millioner privatkunder har et slikt abonnement, ifølge Microsofts nyeste kvartalsrapport som kom for drøyt to uker siden. Det var en økning på 1 million fra forrige kvartal.

Utsatt frist for Windows 8.1-oppdatering

Da Microsoft i begynnelsen av april kom med Windows 8.1 Update, den hittil største oppdateringen til Windows 8.1, kom også beskjeden om at denne oppdateringen er et krav for å kunne installere framtidige oppdateringer på systemet. Dette gjelder også sikkerhetsoppdateringer. Men installasjonen av Windows 8.1 Update var ikke helt problemfri, noe som har ført til at ganske mange ikke har fått installert denne svært sentrale oppdateringen.

Microsoft har erkjent disse problemene og allerede for tre uker siden ble det klart at selskapet likevel skulle gjøre det mulig å installere sikkerhetsoppdateringen for Windows 8.1 uten at Windows 8.1 Update er installert i en periode til – nærmere bestemt til den 12. august. Men dette gjelder kun for virksomheter som administrerer Windows-oppdateringer ved hjelp av WSUS, Windows Intune eller System Center Configuration Manage.

De som derimot henter sine oppdateringer gjennom Windows Update, noe som gjelder blant alle privatbrukere, fikk ikke forlenget fristen. Betydningen av dette ville ha vært at sikkerhetsoppdateringene som kommer fra Microsoft i kveld, ikke ville kunne installeres av brukere som ikke først har installert Windows 8.1 Update.

I en lite høytidelig og vitenskapelig avstemming i denne artikkelen den 23. april gikk det fram at mer enn 20 prosent av alle som hadde forsøkt å installere Windows 8.1 Update, enten hadde støtt på problemer mer dette eller ikke lykkes i det hele tatt. Selv om undersøkelsen må tas med en stor klype salt, så antyder den at problemene også har rammet mer enn en håndfull norske brukere.

I tolvte time, det vil si i går, kunngjorde Microsoft Brandon LeBlanc at denne fristen nok var litt for knapp fordi selskapet har registrert at selv om majoriteten av brukerne nå har installert oppdateringen, så gjelder dette ikke alle. Dette til tross for at oppdateringen skal installeres automatisk hos de fleste av brukerne. Fristen har nå blitt utsatt til den 10. juni.

LeBlanc kommer i liten grad inn på hva som er årsaken til at disse brukerne ikke har installert den nødvendige oppdateringen, men kommer med noe råd om hva brukere som støter på problemer bør gjøre.

En diskusjonstråd om problemene i Windows Community Forum har for lengst passert 1100 innlegg.

Passerer snart en milliard nettsteder

Netcraft kom i forrige uke med en oppdatert rapport om hvordan verdens nettsteder er fordelt på ulike typer webservere. Det tallene i alle fall viser, er at svært mange nettsteder sannsynligvis ikke er verdt å besøk.

I rapporten skriver Netcraft at antallet registrerte nettsteder nå har passer 975 millioner, noe som er 16 millioner flere enn i begynnelsen av april. Men knapt 183 millioner av nettstedene regnes som aktive. Resten er nettsteder som er automatisk genererte, for eksempel for parkerte domenenavn.

Fortsatt er Apache (HTTD) den webserveren som driver flest nettsteder, men forspranget til Microsofts IIS (Internet Information Server) blir stadig mindre, særlig fordi mange av de nye nettstedene etableres på nettopp IIS. 37,6 prosent av alle nettstedene kjøres nå på Apache, mens 33,4 prosent kjøres på IIS. Deretter følger nginx med 15 prosent og Google med 2 prosent.

Fordi mange av nettstedene deler plattform hos store webhoteller, kan nedleggelser eller teknologioverganger føre til store endringer over kort tid i tallene til Netcraft. Av 3,7 millioner nginx-baserte nettsteder som forsvant i forrige måned, var 3,2 millioner fordelt på bare to selskaper – Enzu og Burstnet.

Aktive nettsteder
Det er likevel de aktive nettstedene som er de mest interessante. Knapt 183 millioner av de registrerte nettstedene anses som aktive av Netcraft. Over halvparten (52,3 prosent) av disse nettstedene benytter fortsatt Apache, og selv om andelen har gått noe ned siden den forrige toppen på 60 prosent i august 2011, er det ingenting som tyder på at posisjonen vil bli truet med det første, selv om både nginz og IIS øker sine markedsandeler med ett til to tidels prosentpoeng.

Blant de større nettstedene
Enda litt sterkere står Apache hos de største nettstedene. 53,3 prosent av de én million mest besøkte nettstedene benytter Apache, men nginx på andreplass med 18,2 prosent øker markedsandelen med 0,35 prosentpoeng den siste måneden. Microsoft og IIS ligger ganske stabilt på 12,4 prosent, mens Googles egen webserver benyttes av omtrent 2,9 prosent av nettstedene.

W3Techs har også lignende statistikk. Denne viser at andelen av nettsteder som bruker nginx øker med størrelsen til nettstedene. For Apache kurven helt motsatt.

Forvirring rundt OpenSSL-versjoner

Noe av den første informasjonen som ble offentlig tilgjengelig om Heartbleed-sårbarheten i kryptobiblioteket OpenSSL fortalte at sårbarheten finnes i OpenSSL 1.0.1 til og med 1.0.1f. OpenSSL 1.0.1g er ikke sårbar.

I slutten av forrige uke ble digi.no tipset av en leser som nettopp hadde installert Linux-distribusjonen Ubuntu 14.04 LTS og som så at denne, også etter å ha installert de nyeste pakkene, brukte OpenSSL 1.0.1f.

Denne utgaven av Ubuntu er en med ekstra land supporttid og særlig beregnet for brukere som krever stabil funksjonalitet. Det ville derfor være ekstra overraskende om akkurat denne utgaven skulle være sårbar, mer enn en måned etter at Heartbleed-sårbarheten ble offentlig kjent.

Det viste seg heldigvis raskt at så ikke var tilfellet. Teamleder i Ubuntu Norge, Jo-Erlend Schinstad, forklarer til digi.no:

– Vi ser at han har OpenSSL 1.0.1f installert – og hvis det er noe de fleste har fått med seg, så er det at den er sårbar. Men vi ser også at Ubuntus versjon er 1.0.1f-1ubuntu2.1, og da kan vi se på endringene i den versjonen her. Som vi ser, lukker den CVE-2010-5298 og CVE-2014-0198, som jo ikke er Heartbleed. Litt lenger nede på den siden, under Available Diffs, kan vi se forskjellen som ble gjort i forrige versjon, altså 1.0.1f-1ubuntu2.

– Her ser vi hver eneste lille byte som ble endret i 1.0.1f-1ubuntu2 og at den lukker CVE-2014-0076 og CVE-2014-0160 – Heartbleed. Vi ser at feilen ble rettet i Ubuntu 2014-04-07 19:40:59UTC av Marc Deslauriers . Vi ser også den nøyaktige koden som ble brukt for å fikse feilen i 1.0.1f. Det tok altså ikke mer enn noen få timer fra feilen ble offentliggjort og til den ble sendt ut til Ubuntus brukere. Det må kanskje være lov å påpeke at ikke alle var like raske som Ubuntu, skriver Schinstad i en post til digi.no.

Det Schinstad vil fram til, er at det i Ubuntu – og også i en del andre Linux-distribusjoner, ikke er versjonsnummeret til «upstream» – opphavet til komponenten – som er det avgjørende for om feil har blitt rettet i distribusjonen, men distribusjonens eget versjonsnummer for programvarepakken.

Eget versjonssystem
Pakken som var blitt installert på vår lesers system, har versjonsnummeret 1.0.1f-1ubuntu2.1. Den siste delen, som også Schinstad refererer til, forteller om endringer som har blitt implementert i koden av Ubuntu-prosjektet selv. I dette tilfellet dreier det seg om flere feilfikser, blant inkludert det å fjerne Heartbleed, uten å måtte ta i bruk en ny versjon av OpenSSL som kanskje også inkluderer andre endringer og potensielle regresjoner.

Det Ubuntu har gjort, kalles for backporting – det vil si å gjøre nyere feilfikser tilgjengelige i eldre versjoner av programvaren.

– Det som er litt interessant ved akkurat dette tilfellet, er at Heartbleed ble oppdaget helt mens Ubuntu var i sluttfasen av utviklingen av 14.04 LTS. Da er versjonene allerede frosset. Ellers ville vi antakelig hatt 1.0.1g fremfor en reparert 1.0.1f. Det kan kanskje virke litt skummelt med tanke på all publisiteten, men det er altså ingen grunn til bekymring – Ubuntu er bunnsolid, hevder Schinstad.

Hensikten med backportingen, i stedet for å bruke nye versjoner av programvaren, er å sørge for at systemet endres så lite som mulig mellom i dag og ved slutten av supportperioden, som for Ubuntu 14.04 LTS’ del er mai 2019. Det sikrer stabilitet, både for brukerne og dem som leverer programvare til systemet.

I OpenSSLs tilfelle har det blitt endret så lite at programvaren selv oppgir at den er «OpenSSL 1.0.1f 6 Jan 2014». Denne datoen bidro til usikkerheten vår leser følte, siden Heartbleed ble fjernet i april.

– Backporting er den tingen som gjør at systemet ditt fremdeles virker på mandag morgen, og at butikken din ikke må holde stengt i en uke, sier Schinstad.

Håper på kreativ revolusjon for arkitekter

Hvordan skapes egentlig arkitektur?

Tomasz Estkowski ved Arkitektur- og designhøgskolen i Oslo (AHO) har sett på hvordan et spesialutviklet dataprogram kan hjelpe arkitekter til å vurdere mange flere designmodeller for et byggeprosjekt enn det som er tilfellet i dag.

Datasystemet kalles generativt designsystem, og Estkowski har i sin doktorgradsavhandling utviklet retningslinjer for hvordan man kan lage et slikt system. 

- Mangel på digital hjelp for arkitekter

– På tross av mange tilnærminger til å skape generative designsystemer, ser det ut til at implementeringen til vanlig arkitekturpraksis har mislyktes. Det er mangel på digital kreativ designassistanse for arkitekter, sier han. 

Mye arkitektur avgjøres allerede i de innledende fasene, et arbeid som innebærer grundige analyser av ulike løsninger for å finne ut hvilke av dem som er gjennomførbare på en byggeplass.

For eksempel, i en leilighetsblokk er det mye som skal vurderes: At bygningsformen passer med omgivelsene, effektiv planløsning i leilighetene, krav om universell utforming, energieffektivitet m.m.

Mange flere modeller

Arkitektens oppgave er å integrere alle aspekter i én, logisk, funksjonell og elegant form som samsvarer med kundens ønsker.

– Design er en ekstremt komplisert geometrisk oppgave. Det innebærer ofte undersøkelser av et stort antall bygningsvarianter. Arkitekter vurderer som regel kun de mest logiske bygningsmodellene, basert på sin intuisjon og erfaring. Hvis et generativt system ble utviklet vil det anbefale flere som passer med designobjektivene, sier Estkowski.

Dette skjer ved at en arkitekt legger inn forskjellige egenskaper i systemet for en gitt bygning, som størrelse, antall etasjer, energiforbruk eller innfall av dagslys. Designsystemet peker raskt ut mange ulike modeller og vurderer dem. På den måten vil arkitekten være bedre informert om bygningsmulighetene.

Bra for både arkitekten og kunden

Estkowski forklarer at miljøet, kunden og arkitekten alle kan dra nytte av et generativt designsystem.

– Systemet åpner for en mye mer informativ designprosess og skal i hovedsak bistå arkitekter. Men det gagner også kunden, ettersom denne type undersøkelser vil kunne avsløre forskjellige utviklingsalternativer, sier han.

– I tillegg er systemets egenskaper basert på bærekraftig arkitektur. Så de modellene som kommer frem, sier også noe om hvor miljømessig og økonomisk bærekraftig modellene er.

- Kan ikke erstatte arkitekten

Designsystemet Estkowski beskriver er i dag kun et forskningsområde, men han tror det vil komme i nær fremtid.

Han legger til at systemet verken kan eller er ment å erstatte arkitekten.

– De fleste verktøyer har sine fordeler og ulemper, og dette systemet er ikke tilstrekkelig til å brukes alene. Ingen algoritme kan tilsvare menneskers evne til å vurdere bygningsestetikk eller identifisere symbolske betydninger. Bare arkitekter kan fullt ut forstå design i en sosiokulturell kontekst, mener han.

Referanse: 

Estkowski, Tomasz: Towards a Generative Design System Based on Evolutionary Computing, Arkitektur- og designhøyskolen i Oslo 2014

Vil lage nye måter å logge inn på

Mekanismene vi bruker til innlogging i dag gjør livet på nett krevende.

Mange passord å holde styr på er en daglig utfordring. Folk forenkler gjerne ved å bruke det samme over alt, eller ved å skrive ned. Begge deler går ut over sikkerheten.

Problemet vokser i takt med økningen i antall tjenester som krever innlogging med passord.

For mennesker med hukommelsesproblemer eller lese- og skrivevansker er det enda verre. For ikke å snakke om for de som sliter med synet.

Noen løsninger gjør det helt umulig for personer med funksjonshemminger å logge seg på.

– Myndighetene må ta tak

Norske og internasjonale forskningsgrupper har forsøkt å finne løsninger som kan gjøre innlogging brukbart for alle, men ingen av dem har hatt gjennomslag.

– Dette er et overordnet problem. Myndighetene må ta tak om det skal bli gjort noe medsier Kristin Skeide Fuglerud, sjefsforsker ved Norsk regnesentral (NR).

– Enkeltaktører kan ikke løse dette alene.

Skeide Fuglerud mener at innlogging er nåløyet for å få brukt IKT, og helt fundamentalt for å delta i informasjonssamfunnet.

Hun har det norske forskningsprosjektet e-Me – Inkluderende identitetsforvaltning som en case i sin doktorgrad.

Mangfold er en utfordring for de som jobber med universell utforming, og det er dette Skeide Fuglerud forsker på. Innen design finnes et mantra om at du skal kjenne brukeren din. Men når du skal lage noe som skal passe for alle, hvordan er det mulig?

– Det er en veldig stor utfordring å lage universelt utformede løsninger. Når de skal være fleksible for å kunne brukes av alle, blir det ofte mer sammensatt også, sier forskeren.

– Hvis man legger inn flere valg, blir det mer funksjonalitet, mindre brukervennlig og mindre universelt utformet. Da får vi en ond sirkel

Flere kanaler for innlogging

I e-Me har forskerne utviklet en alternativ løsning for identifikasjon på nettet, hvor brukeren kan velge mellom å logge inn med bilder, lyd, mønster, spørsmål/svar, vanlig passord eller autentisering i to kanaler med mobil og pinkode.

– Man kan gjøre dette på veldig mange ulike måter hvis man vil, sier Riitta Hellman, leder for e-Me-prosjektet og seniorrådgiver i selskapet Karde, hvor hun jobber med tilgjengelighet og teknologiske hjelpemidler for personer med kognitive utfordringer.

Prosjektet inkluderte ikke biometri, for eksempel gjenkjenning av fingeravtrykk, iris eller stemme.

– Det vide spekteret av muligheter burde brukes mer for mennesker med spesielle utfordringer, sier Hellman.

Forskerne har funnet ut at nærmere halvparten av alle brukerhenvendelser til Altinn handler om innloggings- og passordproblemer, så her er det ikke bare de med funksjonshemminger som sliter.

– Vi uten funksjonsnedsettelser finner måter å håndtere dette på. Mange med funksjonsnedsettelser har ikke den muligheten. Første bud må være å gjøre det mulig for dem å komme inn, sier Skeide Fuglerud.

 – Når det er så vanskelig for folk flest, er det opplagt at det finnes mennesker med funksjonshemminger som ikke mestrer dette i det hele tatt, sier Hellman.

Andre typer innlogging enn tekst og tall som skrives inn er teknisk mulig og sikkert, og det er mange som har behov for det, konkluderer forskerne.

De ser for seg at det går an å opprette en profil for hver person som for eksempel lagres i nettskyen. Den kan fortelle hvilken type innlogging personen foretrekker.

Tjenester på nettet kan deretter koble seg opp mot denne profildatabasen. Ideen er å unngå at brukerne bli konfrontert med de samme problemene hver gang de er i kontakt med et nytt system.

– Ikke spredd om seg

Løsningen som ble utviklet bygger på teknologien OpenID, og kan benyttes til ulike tjenester om man legger til rette for det. Den ble testet på en brukergruppe med synsnedsettelser.

I utlandet finnes det også andre, store prosjekter som har sett på de samme problemstillingene – for eksempel det store initiativet Global Public Inclusive Infrastructure (GPII).

Dette går også ut på å lage en global infrastruktur hvor mennesker kan ha en profil i skyen eller et annet sted, som brukes når de skal logge på en tjeneste.

Da vil tjenesten kunne tilpasse seg folks behov, enten de er fargeblinde eller trenger større skriftstørrelse.

– GPII har pågått i mange år, men ennå har ikke dette spredd om seg. Det siste jeg hørte var at man ikke i tilstrekkelig grad har tatt inn over seg utfordringene for å få dette til, som finnes på alle samfunnsplan – økonomisk, sosialt, kulturelt og teknologisk, sier Skeide Fuglerud.

Til sommeren trer Diskriminerings- og tilgjengelighetsloven i kraft på IKT-området. Den handler om at ingen skal utestenges på grunn av nedsatt funksjonsevne.

Alle nye tjenester som retter seg mot allmennheten – offentlige eller private – må oppfylle et bestemt sett med kriterier som finnes i retningslinjene Web Content Accessibility Guidelines (WCAG), utviklet av World Wide Web Consortium.

Sikkerhet

– Problemet er at denne standarden sier lite om problemstillingene knyttet til innlogging, og dreier seg om det som møter deg etter at du har kommet deg inn, sier Skeide Fuglerud.

Hun mener prosjektet e-Me illustrerer hvordan det kan gå an å løse problemet, men at det er mange politiske og økonomiske utfordringer.

Sikkerhet er et viktig stikkord.

– Vil man ha alle brukernavn og passord på samme sted? Mange er skeptiske til å legge igjen sin innloggingsinformasjon på ett sted – det kan innebære å gi én aktør for mye makt. Hvem skulle eventuelt eie og drifte det? Vil man kunne stole på den aktøren? En slik aktør, som lagrer din tilgang til mange tjenester, kan også bli mer utsatt for angrep, sier Skeide Fuglerud.

Hun tror det er et spørsmål om å finne en balanse for vanlige brukere. Kanskje vil vi ikke putte de viktigste tjenestene inn i en slik felles innlogging, mens det vil være ok å legge inn de mindre viktige.

– Da kan vi kanskje redusere antall brukere til noen få, sier Skeide Fuglerud.

Seniorforsker Lothar Fritsch ved NR var med i e-Me-prosjektet som sikkerhetsekspert, og mener de ulike løsningene har noen begrensninger.

– For eksempel kan lydbasert identifisering, hvor brukeren velger en sekvens av melodier, bare brukes trygt når brukeren sitter med hodetelefon, så ingen andre kan høre passordet, sier han.

– Det er intuitivt opplagt at jo flere systemer du smelter sammen, jo større risiko bærer du. Men i dag har vi muligheter til så høy sikkerhet, at det ikke er noe argument mot å lage inkluderende løsninger, sier Hellman.

– Bør være forberedt

Det koker uansett ned til at man ikke kan basere seg på kun én innloggingsmetode.

Fritsch mener de ulike utformingene av alternative innloggingsmekanismer bør undersøkes videre, slik at det utvikles trygge måter å bruke dem på.

– Tjenester på nett bør være forberedt på at de må tilby flere identifikasjonskanaler for folk med ulike behov. Det vil lønne seg på sikt når de kan flytte kundene over til metoder som passer bedre til endret livssituasjon, sier Fritsch.

For eksempel når folk blir eldre og ser dårligere.

Løsningen med færrest mulige og sikre alternativer for å dekke alle verdens brukere har man ikke funnet enda.

– Selv om man bruker biometri må det være alternativer, for det er ikke alle som har fingre eller øyne uskadet hele livet, sier Fritsch.

Når personlig tilpasning av tjenester krever informasjon om den enkelte – for eksempel i en brukerprofil, kommer dessuten problemet med at også det å ha en brukerprofil krever innlogging.

For hvordan kan en innloggingstjeneste vite at du trenger bildeinnlogging uten å vite hvem du er?

– Her er det uvisst hvor nærme man er en løsning, for dette har vist seg vanskelig i store, internasjonale forskningsinitiativer, sier Skeide Fuglerud.

– I e-Me-prosjektet måtte man velge mellom de fem alternativene for innlogging hver gang man skulle logge på tjenesten. Det er ikke så gunstig. På den andre siden vet du kanskje at du alltid bruker tredje alternativ, så belastningen kan bli mindre om dette ble brukt til innlogging alle steder, sier Skeide Fuglerud.

Brukerinvolvering

Fordelen er at du alltid bruker den samme innloggingen, og at resten av tjenesten kan være tilpasset din brukerprofil.

Selv om prototypen foreligger, tror Skeide Fuglerud at vi må dra med oss haugen med brukernavn og passord i enda noen år framover.

Det tar tid å bytte ut slike ting, og lovverket trer først i kraft for nye løsninger, mens etablerte tjenester har til 2021 å forbedre seg.

Skeide Fuglerud har jobbet med universell utforming av IKT i ulike sammenhenger i 10 år, og i doktorgraden jobber hun blant annet med prinsipper for å redusere kompleksitet.

Hun har også vært leder for komiteen som utviklet en standard for brukermedvirkning og universell utforming av IKT for Standard Norge, lansert i desember.

– Innen forskning og praksis på feltet brukskvalitet, er beste praksis brukerinvolvering og brukertesting. Det finnes ikke seriøse aktører som lager IKT-produkter i dag uten brukertesting som del av utviklingsprosessen, sier Skeide Fuglerud.

– Diskriminerings- og tilgjengelighetsloven krever at man skal følge retningslinjer, men man kommer ikke i mål kun med det. Man må involvere folk med funksjonsnedsettelser for å lage gode tjenester. Loven burde hatt med noe om brukermedvirkning.