Kluss i Microsofts lederjakt


De siste ukene er det blitt klart at flere eksterne kandidater ikke lenger er aktuelle som mulig toppleder i Microsoft etter Steve Ballmer. Balmer varslet i august at han ville trekke seg innen tolv måneder.

En av de heteste kandidatene var Alan Mulally, toppsjef i Ford. Navnet hans ble spesielt hett i september, da en gruppe Microsoft-investorer ba styret velge ham.

Spekulasjonene rundt Mulally fortsatte trass i at han gjorde det klart i en e-post til Bloomberg 5. september at han ville fortsette som toppsjef i Ford ut 2014. 5. desember gjentok styremedlem i Ford, Edsel Ford II, at Mulally blir hos Ford ut neste år. I en ny gjennomgang publisert av Bloomberg, heter det at voksende skepsis mot Mulally på grunn av alder (han er 68 år gammel) og manglende teknologierfaring tyder på at han ikke lenger er kandidat.

En annen det ble snakket om var Steve Mollenkopf, nestkommanderende i Qualcomm. 12. desember ble han forfremmet til toppsjef. Det gjør ham uaktuell til å ta over Microsoft.

Ikke-navngitte kilder sier til Bloomberg at også Ebay-sjef John Donahoe og tidligere VMware-sjef Paul Maritz har gjort det klart at de ikke ønsker å ta over ansvaret for Microsoft.

Minst én framtredende ekstern kandidat skal være under vurdering, uten at navnet hans har vært nevnt av toneangivende amerikanske medier, sier Bloombergs kilder.

Av interne kandidater nevnes først og fremst Satya Nadella, i dag ansvarlig for Microsofts nettskysatsing. Det gis dårligere odds for forretningsutviklingsansvarlig Tony Bates og tidligere Nokia-sjef Stephen Elop.

Halvlederkolosser samles


To globale veteraner innen elektroniske komponenter slår seg sammen: Avago kjøper LSI for 6,6 milliarder dollar, over 40 milliarder kroner. Selskapene og deres varemerker er som doldiser å regne. Oppkjøpet skaper en komponentleverandør med en årsomsetning rundt 5 milliarder dollar. Kundegrunnlaget favner fra mobiltelefonleverandører til Google og andre selvbyggere av utstyr til datasentraler.

Investorene er nærmest i ekstase: Avago-aksjen, som har lagt på seg 44 prosent hittil i år, fikk et hopp på nesten 10 prosent. LSI, som har økt med 12 prosent siden forrige årsskiftet, spratt 39 prosent opp.

LSI ble etablert i Silicon Valley i 1981 og ble verdens første leverandør av applikasjonsspesifikke komponenter (ASIC, for «application specific integrated circuit»). Disse var blant annet grunnlaget for prosessorene som den legendariske leverandøren Norsk Data utviklet for sine minimaskiner, fra modell ND-120 og seinere.

Det siste tiåret har LSI i stadig større grad satset på standardkomponenter. I dag beskriver LSI seg som en leverandør av halvlederkomponenter og programvare «som akselererer lagring og nettverk i datasentraler, mobile nettverk og databehandling på klientsiden». Strategiendringen ble spesielt klar da Abhi Talwalkar tok over som toppsjef i 2005. Talwalkar kom til LSI fra Intel.

Historien om Avago starter på 1960-tallet da HP initierte forskningsprosjekter som førte til en satsing innen ulike typer elektroniske og optiske komponenter. Da HP skilte ut Agilent som eget, frittstående selskap i 1999, fulgte denne virksomheten med. Selskapet Avago ble så skilt ut fra Agilent i 2005. Avago selger ASIC, komponenter innen fiberoptikk, LED-baserte skjermer, bevegelsessensorer, optiske sensorer, optiske koplere, radiokomponenter og forsterkere. Produktene brukes i mobiltelefoner, servere og annet utstyr. Avago framhever sin styrke innen kablet og trådløs infrastruktur.

Avago har vært børsnotert siden 2009, LSI siden 1983.

Det er to ganske forskjellige selskaper som nå blir til ett.

Motivet som oppgis for oppkjøpet er å lage en komponentleverandør som er bedre i stand til å gripe mulighetene innen to av tidens store trender: økt utbygging av datasentraler og økning i mobil datatrafikk. Det er først og fremst Avagos styrke innen infrastruktur og LSIs styrke innen datalagring som framheves.

Toppsjef Hock Tan i Avago sier at LSI skal integreres i Avago-plattformen: Det skal drive LSIs driftsmargin opp på Avagos nivå. Toppsjef Abhi Talwalkar i LSI sier kjøpet vil gi LSIs ansatte større muligheter til å utvikle avanserte løsninger, og at det samlede selskapet vil oppnå storskalafordeler til «ytterligere innovasjon i datasentraler». Det snakkes også om årlig innsparing på 200 millioner dollar fra og med første felles driftsår.

Analytiker Suji De Silva hos Topeka Capital Markets sier til Bloomberg at det koster stadig mer å konstruere halvlederkomponenter, og at det er en opplagt fordel å stå utviklingsressurser sammen. Han tror også at Avago og LSI vil kunne samle produkter innen for eksempel lagring, med tanke på store datasentraloperatører som Google.

Avagos kjøp av LSI er det andre store oppkjøpet innen halvledere på kort tid. I september betalte Tokyo Electron 9,4 milliarder dollar for Applied Materials.

De to oppkjøpene kan være opptakt til en konsolideringsbølge i halvlederbransjen.

Investeringsselskapet Silver Lake, som spilte en nøkkelrolle da Avago ble skilt ut fra Agilent i 2005, er også avgjørende i kjøpet av LSI. De går inn med 1 milliard dollar. Avago trekker 1 milliard dollar fra egen drift. De resterende 4,5 milliarder dollar er lån fra en gruppe ikke-navngitte banker.

Kjøpet er godkjent i begge selskapenes styrer. Det gjenstår godkjenning fra LSIs aksjonærer og ulike offentlige myndigheter.

Rettslig nederlag for etterretning


Da etterretningstjenesten NSAs masselagring av data om amerikaneres telefonsamtaler ble kjent gjennom graderte dokumenter lekket til mediene av Edward Snowden, leverte flere aktivister i USA søksmål mot staten med påstand om at masselagringen krenker deres grunnlovfestede personvern.

I går kom den første kjennelsen i disse søksmålene.

Dommer Richard Leon ved distriktsretten i USAs hovedstad – US District Court for the District of Columbia – skrever at masselagringen «høyst sannsynlig krenker grunnloven».

Kjennelsen inneholder en rettslig forføyning om at masselagringen må opphøre fram til det foreligger en endelig avklaring om hvorvidt grunnloven faktisk er krenket.

Slike forføyninger trer normalt i kraft umiddelbart. Leon utsetter iverksettelsen med seks måneder, med henvisning til at betydelige nasjonale sikkerhetsinteresser står på spill, og til behovet for en grundigere diskusjon av de konstitusjonelle problemstillingene saken reiser. Han truer med «tilhørende straffetiltak» dersom staten skulle finne på å be om en ytterligere utsettelse.

Kjennelsen utfordrer hele det juridiske grunnlaget for NSAs masseinnsamling og masselagring av telefondata.

Den utfordrer også de 15 dommerne som ved 35 ulike anledninger – alle i den hemmelige domstolen Foreign Intelligence Surveillance Court (FISC) – har slått fast at virksomheten er lovlig. Det er første gang masselagringen er vurdert juridisk av en uavhengig og fri domstol. Kjennelsen har følgelig stor symbolverdi, selv om den ikke får umiddelbare praktiske følger.

Kjennelsen omfatter to søksmål mot den amerikanske staten, fra en konservativ aktivist, Larry Klayman, gründer i den ideelle organisasjonen Freedom Watch. Organisasjonen har publisert hele kjennelsen (pdf, 68 sider).

Kjennelsen er også publisert av New York Times. Denne artikkelen siterer videre en uttalelse fra Edward Snowden, distribuert av frilansjournalist Glenn Greenwald: Snowden sier han lekket NSA-dokumentene fordi han var overbevist om at masseovervåkningen er grunnlovsstridig, og at amerikanske borgere fortjener at spørsmålet behandles i en åpen rett. Han tror kjennelsen vil bli den første i en lang serie med samme syn.

Andre ideelle organisasjoner som har levert liknende søksmål er American Civil Liberties Union (ACLU) og Electronic Frontier Foundation (EFF). Begge er i et tidlig stadium av rettslig prosess.

En fjerde gruppe, Electronic Privacy Information Center, prøvde å gå direkte til USAs høyesterett med sin utfordring til masseovervåkningen. Høyesterett avviste å behandle dette i november.

Det er flere juridiske spissfindigheter i dommer Leons kjennelse. Leon må argumentere for at han faktisk har myndighet til å vurdere hvorvidt han, som distriktsdommer, har myndighet til å behandle en konstitusjonell utfordring til NSA, siden etterretningstjenesten sorterer under den hemmelige domstolen FISC. Han må også argumentere for at Klayman er gyldig utfordrer som vil lide uopprettelig skade dersom masseovervåkningen fortsetter.

Det gjør han til gangs. Selv om den holder seg strengt til tørr juridisk terminologi, er kjennelsen en harmdirrende kritikk av NSAs praksis. Leon viser til grunnlovens fjerde tillegg («Fourth Amendment») som verner amerikanske borgere mot urimelig ransaking og beslag. Han argumenterer for at NSAs masseinnsamling, masselagring og analyse av telefondata utgjør en ransaking og et beslag i grunnlovens forstand, og skriver at Klayman med stor sannsynlighet vil vinne fram med en påstand om at ransakingen og beslaget også er urimelig. Han viser til at FISC-domstolens behandling av dette hviler på en høyesterettskjennelse fra 1979: Teknologi og personvern har gjennomgått så store endringer de siste 34 årene at dette er et utilstrekkelig grunnlag å vurdere masseovervåkningen på, ifølge Leon.

Leon begrunner videre at den offentlige interesse og faren for at overvåkningen også skader andre enn saksøkerne taler for at den må opphøre.

En talsperson for USAs justisdepartement, Andrew Ames, sier til amerikanske medier at departementet er i ferd med å sette seg inn i kjennelsen, og at man inntil videre holder fast ved at NSAs virksomhet er i samsvar med grunnloven.

Lytter til «alt» dere sier


Personlige, digitale assistenter som Siri og Google Now fungerer best når de «kjenner» brukerens vaner og planer. Men nå har det kommet en lignende applikasjon til iPad som tar det hele noen skritt videre. Nvnet, MindMeld, får kanskje noen tenke seg om to ganger før man tar appen i bruk. Mindmeld er en av superskurkene i Marvel-universet og kan bytte bevissthet med andre personer. På den annen side kan funksjonaliteten utvilsomt være nyttig.

Tenk deg at du snakker på noen via nettbrettet og det plutselig blir behov for å lete fram noe informasjon. MindMeld tolker samtalen fortløpende og leter automatisk fram artikler, websider, bilder og videoer som den anser som relevante i forhold hva samtalen i hovedsak handler om. Alle stikkord og oppslag kan lagres, slik at man senere kan gå tilbake og se hva som ble funnet fram.

Appen omtales av noen som en kombinasjon av Siri og Skype. MindMeld kan nemlig lytte til samtaler med opptil åtte deltakere via en integrert telefonkonferanse-funksjon. Innloggingen skjer via Facebook.

Brukerne kan aktivere eller deaktivere MindMelds lyttefunksjon til enhver tid.

Det er selskapet Expect Labs som står bak MindMeld.

– Etter hvert som vi beveger oss i en verden med allestedsnærværende, tastaturløse, nettverkstilknyttede enheter, er det essensielt at vi finner opp nå måte å finne informasjon på, som ikke avhenger av skrevne søkeoppslag, sier Timothy Tuttle, gründer og administrerende direktør i Expect Labs i en pressemelding.

– MindMeld er vår første utforskning av hvordan stemmen kan brukes sammen med andre, kontekstuelle signaler til å gjøre det enkelt å oppdage informasjon ved å bruke enhver enhet, sier Tuttle.

MindMeld skal også gjøres tilgjengelig for iPhone og for Android-baserte smartmobiler og nettbrett i løpet av noen måneder.

– Vil du ha 800 døde på samvittigheten?


Det kommer fram i et innslag som tirsdag skal sendes i programmet Ekot på Sveriges Radio. Blant dem som har følt seg presset, er toppsjefen i det svenske selskapet Bahnhof, Jon Karlung. Han har selv gjort opptak med skjult mikrofon under møtet med Säpo.

– Nå smeller det
Når Karlung stiller spørsmål ved om Säpo virkelig må ha direkte tilgang til hundretusener av svenskers aktivitet på mobiltelefon og internett, får han dette svaret:

– Vi mistenker et terrorangrep i Stockholm sentrum og får inn informasjon som gjør at det er verdifullt for oss å eliminere. Og dette får vi fredag kveld klokka 20 utenom kontortid. Svaret, med manuell håndtering, innebærer at vi får leveransen mandag formiddag. Da smeller det i Stockholm sentrum med 800 døde, sier Säpos signalstrategiske rådgiver Kurt Alavaara.

Blir presset
Flere teleoperatører har fortalt om lignende press. Blant annet har de fått beskjed om at de løper terroristenes ærend hvis de ikke leverer ut opplysninger. Samtidig blir de lovet at kundene aldri vil få greie på at de samarbeider.

Tele2s sjefjurist Stefan Backman bekrefter overfor TT at selskapet er blitt presset.

– Absolutt. Og det er direkte ubehagelig for oss, som forsøker å ta kundenes integritet på alvor, å bli utsatt for slikt press fra svenske myndigheter, sier Backman.

Han sier at Säpo også i andre saker har brukt en lignende retorikk, og han er spesielt kritisk til Säpos argument om at kundene ikke vil få vite noe.

Ifølge juristen ville kundene ha vært de første som fikk vite det hvis Säpo ble gitt det han kaller «en motorvei» inn til selskapets system.

– Ubehagelig
Professor i kriminologi, Janne Flyghed, har lyttet gjennom de i alt fire timer lange opptakene. Hun mener at teleoperatørene åpenbart blir utsatt for press.

– Det føles litt som man holder på med en stor markedsføringskampanje. Man må få igjennom dette, og her opererer man både med løfter og delvis med trusler for å få disse operatørene til å gå med på dette. De blir åpenbart presset. Det føles ubehagelig å høre på denne type kommunikasjon, sier Flyghed til Ekot. (©NTB)

Når bør du slutte å teste koden?


DEBATT: Etter drøye 10 år med stort fokus på automatisert testing, ønsker jeg å vurdere hvor dette har tatt oss, og om omfanget av automatisert testing legges på et fornuftig nivå.

Jeg har opplevd at dette er et tema som kan være vanskelig å diskutere med mange utviklere, da det har en lei tendens til å oppstå litt «religiøsitet» hos endel. Å argumentere for mindre bruk av automatisert testing kan lett bli som å argumentere for mindre «sikkerhet» på flyplasser.

Det skal betydelig argumentasjon til for at folk vil lytte, og det er mye lettere å få gjennomslag andre veien, for folk ønsker jo sikkerhet. Men man må spørre seg om alle rutinene på dagens flyplasser gir mer sikkerhet, eller om noen av rutinene er fåfengte forsøk på å få det.

I flere anbudsforespørsler de senere årene har det vært krav om at systemet skal ha «100 prosent testdekning».


Artikkel­forfatteren Christian Aamodt er Java-arkitekt og fagansvarlig mobile løsninger i Ciber.

Jeg er usikker på om de som krever dette vet hva de ber om. I en bokstavelig, teknisk forstand betyr dette at hver eneste kodede funksjon og «vei» i hver enkelt funksjon skal testes at den virker som forutsatt. Man ender da raskt opp med betydelig større mengder testkode enn reell kjørekode. Det synes også implisitt forutsatt at det ikke vil være feil i testkoden…

Jeg etterlyser et mer edruelig forhold til automatiserte tester. Jeg mener testing bør holdes på et nivå hvor den gjør mer nytte enn skade.

I Ciber Norge har vi vært gjennom mange Java-prosjekter med ulik grad av automatisert testing, og brukt ulike rammeverk for dette. Eksempler er jUnit, Selenium og FitNesse, og noen prosjekter har benyttet verktøy som Cobertura for å vurdere testdekningen i prosjektet. Våre prosjekter er ofte i en mellomstørrelse, total prosjektstørrelse mellom 1 000 og 10 000 timer, og gjerne for kunder i offentlig sektor. Prosjektene våre har brukt Test Driven Development (TDD) i varierende grad. Noen prosjekter har vært utført helt uten TDD, men har valgt å skrive tester for utvalgte deler av koden i etterkant.

Hva er fordelene med automatisert testing? Jeg vil her forsøke å trekke frem de viktigste. Vær oppmerksom på at jeg ikke her fokuserer på fordeler ved bruk av TDD, da dette kan være andre.

  • Man kan videreutvikle koden og være rimelig sikker på at det man gjør ikke bryter med de forutsetningene som er gjort i koden.
  • Bedre støtte ved vedlikehold av koden i ettertid. Dette gir spesielt store fordeler når utviklere byttes ut.
  • Man får gradvis luket ut feil ettersom man legger til nye tester når feil forekommer.
  • Man kan enkelt kjøre en «suite» av tester som gjør manuell regresjonstesting mindre omfattende.
  • Testene forenkler samkjøring av flere utviklere som jobber mot samme kodebase.

De fleste utviklere er enige om at automatiserte tester gir fordelene nevnt ovenfor. Men ulik bruk av automatiserte tester gir ulik grad av disse fordelene i forhold til hvor mye tid eller arbeid som legges ned i å utvikle og vedlikeholde testene.

Som i eksemplet ovenfor om sikkerhet på flyplasser, vil det alltid være mulig å legge til nye og mer omfattende rutiner for å skape sikkerhet, men på et eller annet nivå vil den økte sikkerheten ikke stå i forhold til ulempene det medfører for passasjerene å gjennomføre de aktuelle rutinene. Man kunne for eksempel nekte all form for glassprodukter eller metallbestikk etter sikkerhetskontrollen, slik at disse ikke kan benyttes til å kapre fly. Dette vil medføre betydelige problemer for restauranter og taxfreesalg, og vil neppe gi den helt store sikkerhetseffekten. Dette avspeiler seg i «Law of diminishing returns». Se illustrasjonen øverst i denne artikkelen: Kurven som viser når det er hensiktsmessig å avslutte innsatsen, fordi økt innsats ikke vil gi økt utbytte.

Det er ikke nødvendigvis slik at behovet for kontroll er det samme i alle prosjekter. Det som kan gi god og ønsket kontroll i et stort prosjekt med mange utviklere, kan være en hemsko i et mindre prosjekt med få utviklere. Et eksempel her kan være et webprosjekt med et lite og oversiktlig brukergrensesnitt som tar kort tid å teste manuelt. Hvis man i en slik situasjon benytter et webtestrammeverk for å teste frontend, kan det skape betydelige merkostnader ved videreutvikling eller modernisering, uten at testoppsettet nødvendigvis ga så mye merverdi selv når det ble satt opp første gang.

En omfattende «suite» av automatiserte tester kan også gjøre det mer arbeidskrevende å refaktorere moduler i koden.

Noen vil nok innvende at man med fornuftig strukturering av koden vil kunne kjøre de samme testene på modulen når den er ferdig refaktorert. I en ideell verden ville jeg vært enig, men ofte er årsaken til refaktoreringen nettopp at modulen eller grensesnittet til denne ikke ble strukturert og utviklet på beste vis i første runde. Full testdekning i modulen vil da gjøre refaktoreringen mer arbeidskrevende, og i mange situasjoner vil det i tillegg til refaktorering av selve koden være nødvendig med omfattende refaktorering av testkoden.

Arbeidet som utføres for å forhindre feil, i dette tilfellet automatisert testing, bør også til en viss grad ses opp mot konsekvensen av feil.

I noen prosjekter, for eksempel ved utvikling av IT-systemer for sykehusene som i verste fall kan bety liv eller død for pasientene, må man ha et annet forhold til konsekvensene av feil enn hvis man utvikler spill for barn. Jeg mener ikke å bagatellisere feil i mindre kritiske systemer, og jeg er helt innforstått med prinsipper for «craftsmanship», men det må alltid gjøres avveininger i forhold til økonomi i prosjektet eller om man skal prioritere funksjonalitet fremfor utvidet testsuite.

En innvending mot automatisert testing har vært at testene gir en slags falsk trygghet for de som skal videreutvikle koden. Dette er mulig, uten at jeg har sett klare tegn til det.

Uansett er det en forutsetning at de som skal videreutvikle koden har full forståelse for hvordan koden henger sammen. En solid testsuite kan gi en god «dokumentasjon» av koden, slik at det er lettere å få forstå hvordan den er ment å virke. En middels god eller utdatert testsuite kan skape mer forvirring enn oversikt. Man må derfor være klar over at testene og mockede objekter må videreutvikles i parallell med koden. En slurvet holdning her vil fort føre til at testsuiten forvirrer mer enn den hjelper.

Kvaliteten på testkoden er like viktig som kvaliteten på kjørekoden.

Jeg har sett eksempler på at man for å kunne teste deler av koden, åpner opp koden mer enn man ellers ville gjort. I slike tilfeller fører testingen til at man har mindre kontroll enn man ville hatt uten testene. Kvalitetssikring av testkoden er altså viktig, og må ikke nedvurderes i forhold til kvalitetssikring av kjørekoden.

Finnes det noe alternativ til automatisert testing? Nei, ikke noe som oppnår helt det samme, men det er fremdeles mulig å benytte mange kjente, kjære teknikker og prinsipper for å utvikle kode som har liten sannsynlighet for feil. I endel tilfeller vil dette være godt nok, i hvert fall på deler av koden.

Hva er så et fornuftig nivå for automatisert testing?

Som nevnt er dette avhengig av systemet som skal utvikles, dets størrelse og i hvilken grad konsekvensen av feil er kritisk. Hvis man forutsetter at prosjektet skal utvikle et system som ikke dreier seg om liv og død ved feil, og er i en størrelsesorden 5 000 til 10 000 timer, vil jeg anbefale følgende strategi for (automatisert) testing og kvalitet:

  • Legg forretningslogikken i modellen, og test denne.
  • Sørg for at så mye som overhodet mulig av forretningslogikken ligger i domenemodellen. Ha denne som en separat del av koden (for eksempel som eget prosjekt i utviklingsverktøyet). Etterstreb høy testdekning (med jUnit eller lignende) av den viktige koden i denne delen av systemet (det vil si ikke test «gettere og settere» og slikt, men der hvor det finnes kode med risiko for feil).

  • Trekk ut generelle funksjoner, og test disse.
  • Sørg for at alle funksjoner som kan generaliseres på fornuftig vis, blir generalisert, og at resten av koden benytter denne mer generelle koden. Hvis du så sørger for at denne koden blir testet, unngår du mange feil uten å utforme mengder av testkode.

  • Bruk «Single Responsibility Principle», og lukk koden.
  • Strukturer koden din slik at klassene i så stor grad som mulig har et rent og oversiktlig grensesnitt mot resten av applikasjonen. Sørg for å beskytte klassevariable for påvirkning utenfra. Hvis det er vanskelig å teste all funksjonaliteten i klassen uten å åpne opp med ekstra metoder eller å gjøre klassevariable tilgjengelige utenfra, er det ofte et tegn på at det kan være fornuftig å omstrukturere klassen til mindre klasser.

  • Gjør det lett å finne ut hva en feil kommer av.
  • Sørg for nullsjekking av parametere, slik at man lett kan identifisere hva som forårsaker feil. Hvis du er i tvil om en feilsituasjon noengang vil oppstå, og om du trenger å ta hensyn til den, kast alltid en exception som beskriver hva som har skjedd.

  • Kvalitetssikre all testkode på samme nivå som kjørekoden.
  • Vurder om enkelte deler av applikasjonen er godt nok testet.
  • I mange applikasjoner er det funksjoner som er kritisk i sin natur. I en nettbutikk er det for eksempel kritisk å ha på plass rutiner som sørger for at ikke priser er null eller betydelig lavere enn det korrekte tallet. Vurder om det finnes slike caser i din applikasjon, og om det trengs ekstra rutiner som forhindrer slike feil.

Jeg mener man ved en slik tankegang vil kunne utvikle systemer som er rimeligere, og hvor automatisk testing står i et fornuftig forhold til systemets behov.

Personlig assistent til Windows Phone?


Anonyme kilder med angivelig kjennskap til Microsofts planer for Wndows Phone 8.1 forteller til The Verge at den kommende oppdateringen vil inkludere funksjonalitet som bringer systemet mer opp på høyde med Android og iOS når det gjelder funksjonalitet.

Det ene er en Siri-lignende personlig assistent med kodenavnet Cortana. Navnet stammer forøvrig fra spillet Halo, i likhet med Threshold-navnet som trolig refererer til en framtidig bølge med Windows-oppdateringer. I Halo er Cortana en rollefigur med kunstig intelligens som kan lære og tilpasse seg. Cortona er altså et ganske passende navn på denne kommende funksjonen.

Ryktet om Cortana er forøvrig ikke helt nytt.


Originalutgaven av Cortana, hentet fra spillet Halo: Combat Evolved.

Siri kom til iOS i 2011. Googles variant, Google Now, kom nesten et år senere. De har sine ulike styrker og svakheter, men regnes for tiden som omtrent like gode og betydelig bedre enn for et år siden. Google Now tilbys forøvrig også til iOS.

Den andre store nyheten som trolig kan ventes i Windows Phone 8.1, er et varslingssenter som kan dras ned fra toppen av skjermen, slik man lenge har kunnet i Android og senere også i iOS. Her vises varslene fra både operativsystemet og de ulike applikasjonene på ett og samme sted.

Andre nyheter som ifølge disse kildene kan ventes i den kommende oppdateringen, er separate kontroller for lydstyrken til ulike funksjoner, for eksempel ringetonen og medieavspillingen. Det antydes også at Bing Smart Search vil komme på plass, slik det er i Windows 8.1. Dessuten skal det innebygde musikknavet erstattes med separate apper.

Alt tyder på at Windows Phone 8.1 vil bli gitt ut i tidsrommet rundt Microsofts kommende Build-konferanse, som arrangeres i San Francisco i april.

Grafén kan åpne for nettverk av nanomaskiner


Ifølge Georgia Institute of Technology, også kjent som Georgia Tech, er det en virkelig stor utfordring knyttet til nanomaskiner – virkelig små datamaskiner egnet for å utføre enkle oppgaver, for eksempel å overvåke og utveksle sensordata – nemlig antennen.

Dersom også antennen lages i nanometerstørrelse og i kobber, vil radiosignalene måtte ha en frekvens på hundrevis av terahertz. Med så høye frekvenser har signalene bare noen få mikrometer. I tillegg kreves det mye effekt, noe nanomaskiner sjelden vil kunne levere, siden noe av målet er at de skal kunne kjøre på energi hentet fra omgivelsene.

Alternativet er større antenner, men da vil antennene være langt større enn datamaskinene, og dermed forsvinner mye av vitsen.

Grafén
Men nå kan forskere ved Georgia Tech ha funnet en løsning basert på «vidundermaterialet» grafén, som har en rekke svært interessante egenskaper. Grafén består av et lag med karbonatomer som danner et bikake-lignende gitter. Dette kan danne en elektrisk overflatebølge som gjør det mulig å lage antenner som bare er 1 mikrometer lange og 10 til 100 nanometer brede, og som kan gjøre den samme jobben som mye større antenner.

Til tross for størrelsen mener forskerne at den vil kunne operere i den nedre enden av terahertz-området, mellom 0,1 og 10 terahertz.

Dette oppnås ved hjelp av det som kalles for en SPP-bølge (Surface Plasmon Polariton).


Professor Ian Akyildiz og den modellerte grafénantennen.

– Når elektroner i grafénet blir eksitert av for eksempel en innkommende, elektromagnetisk bølge, begynner å de å bevege seg fram og tilbake. På grunn av de unike egenskapene til grafén, resulterer denne globale oscilleringen av elektrisk ladning i en avgrenset bølge på toppen av grafénlaget, forteller Ian Akyildiz, professor i telekommunikasjon ved Georgia Techs School of Electrical and Computer Engineering, i en pressemelding.

Forplantning av SPP-bølger er ikke noe unikt ved grafén. Det kan også støttes av en del edle metaller, slik som gull og sølv, men ifølge Georgia Tech skjer dette ved langt høyere frekvenser enn det som man mener er tilfellet med grafén. For det er nemlig ikke slik at forskerne har demonstrert dette ennå. Antagelsen er basert på modellering og simulering.

Forskerne er likevel svært optimistiske når det gjelder mulighetene disse egenskapene kan bidra til. I pressemeldingen opplyses det at effektbehovet kan reduseres med fire størrelseordener i forhold til kobberbaserte antenner. Men det sies ingen ting om rekkevidden, selv om reduksjon av frekvensen med 99 prosent nok betyr ganske mye.

– Vi tror at dette bare er begynnelsen på en nytt paradigme for nettverk og kommunikasjon basert på grafén, sier Akyildiz.

Science fiction?
Dette handler ikke bare om kommunikasjon internt i et nettverk av nanodatamaskiner. Man ser nemlig også for seg at samlinger med hundre- eller tusenvis av knøttsmå transceivere, utstyrt med grafénantenner, kan gi mer tradisjonelle datamaskiner mer trådløs båndbredde.

– Terahertz-båndet kan øke dagens datarater i trådløse nettverk med mer enn to størrelsesordner. Dataratene i dagens mobilsystemer er på opptil én gigabit per sekund i LTE Advanced-nettverk og 10 gigabyte per sekund i såkalte millimeter-bølge- eller 60 gigahertz-systemer. Vi venter datarater i terabit per sekund-størrelsen i terahertz-båndet, sier Akyildiz.

Nøyaktig hvordan dette er tenkt å fungere, er ikke oppgitt, men omtales kanskje i en vitenskapelig artikkel om forskningen som er planlagt publisert i IEEE Journal of Selected Areas in Communications.

Neste mål for forskerne vil være å lage en faktisk nanoantenne i grafén og bruke den sammen med en transceiver som også er laget av grafén.

Nettstress for skoleelever

Svenske skoler har prioritert bruk av datamaskiner i undervisningen.

Over 200 – av ialt 290 – svenske kommuner har investert i en PC for hver eneste skoleelev og lærer – den såkalte en-til-en-modellen.

Denne svenske databølgen begynte rundt 2007, i etterkant av en stor amerikansk skolesatsing.

– Det er tydelig at de nesten provoserende positive evalueringene i USA har påvirket svensk skole, mener pedagog Håkan Fleischer.

Han mener at både evalueringene av og forskningen på skolesatsningen er overfladisk.

Negative erfaringer

I sin doktoravhandling har han undersøkt hvordan ’en-til-en’-arbeid påvirker undervisningen.

Fleischer peker på flere negative erfaringer med PC-bruken.

Elevene blir stresset og distraheres av både egen og andre elevers bruk av sosiale medier. Og selv når eleven ønsker å konsentrere seg om skolearbeidet er det ikke alltid praktisk mulig.

Kan bidra til dårligere kunnskaper

I verste fall kan en-til-en-modellen bidra til at elevene ender opp med dårligere kvalitet på kunnskapen, mener Fleischer.

– Elevene kaster seg utpå og samler informasjon uten noe ordentlig utgangspunkt. De går seg vill i mengder av informasjon som de forventes å automatisk kunne navigere seg gjennom.

– De blir forvirret, og veiledningen fra lærerne går ofte ut på å bare svare på spørsmål, istedet for å reflektere over og sette kunnskapen i ny sammenheng, sier han.

I Norge presenterte Senter for IKT i utdanningen nylig en rapport om teknologiske framtidsutsikter for norsk skole.

Også her understreket ekspertgruppen at teknologien må integreres skikkelig i et pedagogisk rammeverk.

Føler de ikke har nok tid

Fleischers studie inkluderer en oversikt over tidligere forskning på bruk av en-til-en-modellen i undervisningen, intervjuer med elever om deres erfaringer med denne arbeidsmåten, og analyse av innleverte elevoppgaver med fokus på kunnskapsdybde og kritisk vurdering.

– Elevene opplever stress, da de iblant føler at de ikke har nok tid til å fordøye tidligere kunnskaper og diskutere med hverandre, skriver Fleischer i avhandlingen.

Elevene meldte også at når de trenger å skaffe seg dypere kunnskap foretrekker de å kombinere internett-søk med informasjon fra bøker og samtaler med læreren.

– De skiller mellom overfladisk digital læring og en dypere læring som skjer analogt, påpeker Fleischer, som jobber ved Högskolan för lärande och kommunikation i Jönköping.

Viktig å aktivt velge en strategi

En måte å takle dette i undervisningen er at vi begynner å se datamaskiner, internett og sosiale medier i en større sammenheng, mener han.

At de ikke bare blir sett på som et verktøy for å innhente kunnskap, men også som en egen verden. Skolen må forstå og ta hensyn til de endrede spillereglene i sin undervisning.

– Min forskning viser at om alle får hver sin datamaskin, og man stoler på elevenes evne til å bruke den, fordi vi tror de tilhører en digital generasjon som automatisk takler dette, er man farlig ute å kjøre, konkluderer Håkan Fleischer.

– Uansett hvilken strategi man velger i skolen er det viktig å velge den aktivt – og ikke bare investere i datamaskiner og la resten gå av seg selv.

Referanse:

Håkan Fleischer: En elev – en dator. Kunskapsbildningens kvalitet och villkor i den datoriserade skolan. Högskolan i Jönköping 2013. Sammendrag

Plast lager strøm av temperaturforskjeller

Kroppsvarmen din kan gi strøm til sensorer i klærne dine.

Små sensorer som holder øye med huset ditt kan drives av små temperaturforskjeller – batterier blir overflødige.

Et billig plastmateriale åpner for nye muligheter.

Materialet er en termoelektrisk polymer, men for enkelhets skyld kan vi kalle det termoelektrisk plast.

– Dette materialet har store anvendelsesområder, sier førsteamanuensis Dag Werner Breiby ved Institutt for fysikk ved NTNU.

Der det finnes en liten temperaturforskjell, kan det skapes strøm ved hjelp av plastmaterialet, kalt polyetylendioxytiofen eller pedot.

Breibys har sett på oppbyggingen av dette materialet ved hjelp av røntgen.

Leder strøm, ikke varme

Det er gammel allmennkunnskap at plast ikke leder strøm. Tvert imot er de kjent som gode elektriske isolatorer, og elektriske ledninger har derfor et lag med plast rundt seg.

Men som med så mye annet, er dette ikke hele sannheten.

Enkelte plastmaterialer kan nemlig lede strøm. Det ser du om du har en av de helt nye OLED-tv-ene. Disse tv-ene har en skjerm som består av en plastfilm som sender ut lys. Det har vært kjent siden 1970-årene at plast kan være halvledere eller ha metalliske egenskaper.

Semimetalliske egenskaper i plast bidrar til en forbedret forståelse av den relativt høye termoelektriske yteevnen til disse materialene. Denne plasten kan lede strøm greit, men leder samtidig ikke varme noe særlig. Og nettopp dette er en av grunnene til at materialet er så interessant.

Ny elektronikk

– Dette funnet er spennende med tanke på utvikling av termoelektronikk og spinntronikk, enkelt sagt ny elektronikk, sier Breiby.

Termoelektronikk utnytter nettopp temperaturforskjeller til å generere strøm, eller omvendt. Ved hjelp av det nye plastmaterialet kan altså kroppsvarmen din drive en sensor i klærne dine.

Kanskje kan dette brukes til å overvåke hjerterytmen din. Kanskje kan kroppsvarmen drive en kalkulator. Det trengs ingen batterier. Dette kan være fullt mulig snart.

–  Bare noen få grader i temperaturforskjell er nok, sier Breiby.

Termoelektrisk plast er mye billigere enn sjeldne uorganiske materialer med lignende egenskaper, og dermed blir teknologien overkommelig i pris for flere anvendelser. Breiby understreker at elektronikk basert på plast ofte har dårligere yteevne, men for mange formål kan dette være godt nok.

Den første kommersielle anvendelsen forventes å være trådløse sensornettverk, hvor det termoelektriske materialet forsyner sensor og radiosender med strøm.

– Dette er jo et plastmateriale, og industrien er flink til å forme slike materialer på en enkel og billig måte, sier Breiby.

Referanse:

Bubnova m.fl: Semi-metallic polymers, Nature Materials, 08 December 2013, doi:10.1038/nmat3824.