Hur kan nya läkemedel utvecklas med AI?

I skuggan av klimatförändringar är antibiotikaresistens en av 2000-talets stora utmaningar. En ljusglimt kom häromveckan, när en artikel publicerades där forskare vid bland annat MIT beskrev hur de använt AI och maskininlärning för att upptäcka nya antibiotika som i djurstudier visat sig bita på multiresistenta bakterier. Artikeln finns här; en mer lättsmält rapport finns att läsa i The Guardian. Upptäckten har lyfts fram som början på en ny era för läkemedelsforskningen, där AI kommer att ge oss framtidens läkemedel. Liknande metoder har redan börjat användas för att ta fram läkemedel mot coronaviruset.

Men hur gör man egentligen för att få AI att upptäcka nya läkemedel?

AI och maskininlärning handlar i grund och botten om att låta datorn ta fram komplicerade matematiska formler (ofta många sidor långa) som kan användas för att lösa problem. Vill man exempelvis lära datorn att översätta text måste man då först förse den med en massa exempel på översatta texter. Formlerna byggs upp genom att datorn går igenom de här exemplen för att hitta mönster. När de är klara kan man stoppa in någon sorts data i formeln och få ut ett svar. Om systemet byggts för översättningar stoppar man in en text och får ut en översättning av texten till ett annat språk. Om det har byggts för att beskriva bilder stoppar man in en bild och får ut en beskrivning av vad bilden föreställer.

Kan då samma idé användas för att hitta nya antibiotika? Svaret är ja. Vi känner idag till hundratals miljoner molekyler, men bara en liten bråkdel av dem har testats som läkemedel. En idé vore därför att bygga ett AI-system som kan känna igen hur antibiotikamolekyler ser ut och låta det gå igenom listan över kända molekyler för att bedöma om dessa kan användas som antibiotika eller inte.

Det är precis vad forskarna vid MIT gjorde i sitt projekt. De samlade ihop data om drygt 2300 molekyler, varav några gick att använda som antibiotika vid behandling av vissa bakterieinfektioner. De exemplen kunde de sedan använda för att bygga ett AI-system som utifrån information om en molekyls struktur kunde förutsäga om molekylen fungerade som antibiotika eller inte. Inte med hundraprocentig noggrannhet, men med tillräckligt hög noggrannhet för att oftast ha rätt. Forskarna lät därefter systemet gå igenom mer än 100 miljoner kända molekyler och bedöma hur sannolikt det var att dessa skulle gå att använda som antibiotika. Slutligen testade de om de 99 molekyler som systemet ansåg vara mest lovande faktiskt hade någon antibiotisk verkan i laboratorieförsök. 63 av dem visade sig ha det.

En av molekylerna, kallad halicin, verkar särskilt lovande. I försök med möss har forskarna sett att läkemedlet, som inte är likt de antibiotika som används idag, är effektivt mot flera multiresistenta bakterier.

Den stora fördelen med AI är sällan att systemen utför uppgifter bättre än oss, utan att de kan utföra uppgifter mycket snabbare än vad människor hade klarat av. Textöversättning är ett bra exempel på det – tjänster som Google Översätt ger blixtsnabba översättningar. De blir inte alltid rätt och håller inte samma kvalitet som omsorgsfullt gjorda översättningar av professionella mänskliga översättare, men är ofta bra nog. Den här snabbheten var helt avgörande för antibiotikaprojektet vid MIT. Ingen forskargrupp på jorden hade kunnat testa sig igenom 100 miljoner molekyler, men AI-systemet kunde göra det på några timmar. Det gav inte rätt svar för varje molekyl, men för tillräckligt många för att vara användbart. Det är, åtminstone i det här fallet, gott nog.

Dagens AI ligger långt ifrån de superintelligenta robotar vi stöter på i science fiction. Men redan nu kan vi använda AI för att automatisera vissa uppgifter som lämpar sig särskilt bra för datorer. Det kan göra att projekt som skulle ta årtionden blir klara på några veckor. Det öppnar nya möjligheter och frigör tid, och rätt använt låter det oss människor fokusera på andra mer intressanta arbetsuppgifter. AI som ett verktyg i läkemedelsutveckling är inte science fiction – det är kort och gott science.

Coronaviruset visar utvecklingen inom AI

Uppdatering april 2020: Texten nedan skrevs i början av februari, innan det nya coronaviruset på allvar börjat spridas utanför Kina. Den handlar om hur AI kan användas för att upptäcka och bekämpa epidemier i ett tidigt skede snarare än när man fått stor samhällsspridning.

De senaste veckorna har nyhetsrapporteringen dominerats av spridningen av coronaviruset 2019-nCov. Ett ord som dyker upp gång på gång i de spaltmeter som skrivits om viruset är AI, och rapporteringen låter oss se vilka kliv utvecklingen inom AI tagit det senaste årtiondet. Det vi ser är imponerande.

Smittspridningen blev allmänt känd först i januari, även om den nu tros ha pågått sedan december. Redan då varnade det kanadensiska bolaget BlueDot sina kunder för att deras AI-system, som samlar in data från mängder av digitala källor, upptäckt spridningen av ett nytt virus i kinesiska Wuhan.

Men AI används inte bara för att kunna förutse hur epidemier sprider sig. Tvärtom så används AI för att bekämpa spridningen på flera olika sätt:

  • AI-drivna botar har ringt upp Shanghaibor hörandes till riskgrupper och frågat dem om symptom. I en del fall har de rekommenderats karantän i hemmet, och botarna har då informerat myndigheterna om de misstänkta fallen. En bot kan genomföra 200 sådana samtal på 5 minuter, medan en människa hade behövt 2-3 timmar för att göra motsvarande jobb. Med AI kan myndigheterna snabbt nå ett stort antal människor under kriser.
  • Autonoma robotar används för att desinficera slutna delar av sjukhus och servera mat till personer som satts i karantän. AI kan ta över farliga uppdrag från människor för att minska smittorisken.
  • AI-system med infraröda sensorer mäter kroppstemperaturen på passagerare i kollektivtrafiken, för att upptäcka misstänka fall av smittan. Snabbare och effektivare än om varje kontroll genomförts av en spärrvakt.
  • Stora kinesiska teknikbolag som Baidu och Alibaba har delat med sig av AI-algoritmer och datorkraft för att förstå virusets genetik, vilket snabbat upp processen flera gånger om.
  • AI har använts för att ta fram kandidatmolekyler för läkemedel mot coronaviruset. Det gör att läkemedel förhoppningsvis kan tas fram på mycket kortare tid.

En titt på rapporteringen kring coronaviruset gör det tydligt att AI är inte längre science fiction, utan något som används överallt hela tiden. Vi stöter på AI varje dag i nätbutikers och strömningstjänsters rekommendationer, kartappar, skräppostfilter, kamerafilter och röstassistenter som Google Home och Siri. Samtidigt är den här en teknologi som fortfarande är ung, och som dras med problem som inbyggd diskriminering och bristande genomskinlighet. Att ha en grundläggande förståelse för AI blir allt viktigare för allt fler, dels för att förstå teknikens möjligheter och dels för att förstå dess begränsningar.

e-hälsa ger bättre vård – med eller utan AI

e-hälsa och digitalisering av vården är 2010-talets melodi och nu börjar vi på allvar se fördelarna med det inom medicinsk diagnostik. Ta patienter som hamnar på sjukhus som ett exempel. Genom åren har flera statistiska modeller för att förutspå mortalitet, oplanerade återbesök och långvarig inläggning på sjukhus tagits fram. Genom att använda information om exempelvis blodtryck, puls, andning och vita blodkroppar kan modellerna med hyfsad noggrannhet avgöra risken att en patient avlider, tvingas komma tillbaka till sjukhuset eller blir kvar i mer än en vecka.

I en intressant artikel från maj i år visar forskare från bland annat Google och Stanford att ett AI-system som kan läsa digitala journaler gör ett betydligt bättre jobb när det gäller att förutspå sådana risker. Artikeln har uppmärksammats stort i media, bland annat av Daily Mail och Bloomberg. Studien ser ut som en triumf för e-hälsa och forskarna ägnar mycket utrymme åt att beskriva fördelarna med djupinlärning, som är den form av AI de använt.

Det är lätt att hålla med om att det här är ett stort kliv framåt för e-hälsa – det visar att datorsystem som tolkar hela journaler istället för några få mätvärden har stor potential. Däremot är det knappast något stort kliv framåt för AI. Den som läser artikeln lite närmare hittar nämligen en jämförelse mellan forskarnas djupinlärningssystem och ett betydligt enklare system som matats med samma journaldata. Det senare använder logistisk regression – en stapelvara inom traditionell statistisk analys, som lärs ut på grundkurser och har funnits sedan 1950-talet. Jämförelsen, som ligger gömd längst ner i artikelns appendix, visar att skillnaden mellan djupinlärning och logistisk regression är minimal (och ser ut att vara inom felmarginalen).

Att lära upp djupinlärningssystem är tidskrävande och kräver mängder av beräkningskraft. Logistisk regression är betydligt enklare att använda, kräver mindre datorkraft och har dessutom fördelen att modellen går att tolka: djupinlärningssystem är så kallade svarta lådor där vi inte vet varför de gör en viss bedömning, medan vi med logistisk regression kan förstå precis varför systemet gör bedömningen. Om båda systemen fungerar lika bra så ska man välja logistisk regression alla dagar i veckan. En produkt som inget vet hur den fungerar är förstås inte lika bra som en produkt som vi kan förstå.

I den här och liknande artiklar kan man just nu skönja två tendenser:

  • e-hälsa kommer fortsätta leda till förbättrad vård och smart användning av digitala journaler kommer leda till bättre diagnoser.
  • Alla vill hoppa på AI-tåget och det är lätt att bli förblindad av alla glänsande nya AI-verktyg. Det verkliga bidraget i den här artikeln är sättet att få ut information från digitala journaler – inte användet av djupinlärning. Trots det talar både forskarna och media mest om AI-aspekten.

Den dataanalys som använder de häftigaste senaste teknikerna är inte alltid den som är bäst. Det är något som är väl värt att ha i åtanke när ni anlitar konsulter för dataanalys. Ibland är AI och djupinlärning precis rätt verktyg för era problem, men ibland är andra alternativ mycket bättre. Precis som man ska vara försiktig med att anlita en snickare som tror sig kunna lösa alla byggprojekt med bara en hammare så ska man tänka sig för innan man anlitar en konsult som vill lösa alla problem med AI.

Vad innebär automatiseringen för det livslånga lärandet? Fler behöver läsa statistik

Det pratas allt mer om automatisering och vad det kommer att innebära för framtidens arbetsmarknad. OECD bedömer att ungefär 8 % av de svenska jobben kan försvinna som en följd av automatisering – och att den siffran är betydligt högre i en del andra länder. Andelen jobb som på olika sätt kommer påverkas och förändras av automatisering är däremot betydligt högre. Det innebär också att vi i framtiden måste vara beredda på att kontinuerligt vidareutbilda oss, när automatiseringen gör att arbetsuppgifterna ständigt förändras.

Större företag kommer att erbjuda intern vidareutbildning för sina anställda (Disney är ett aktuellt exempel på det), medan mindre företag får förlita sig på externa lösningar – antingen erbjuder man lön under utbildningar för att behålla personalen eller så använder man frilansare, för vilka egenbekostade utbildningar blir en del av den nya gigekonomin.

Här kommer förstås också staten få en stor roll att spela, och stora nya krav kommer ställas på vuxenutbildningen. I februari gav regeringen därför Vinnova i uppdrag att ta fram korta kurser på avancerad högskolenivå, särskilt utformade för vidareutbildning av yrkesverksamma specialister och nyligen gavs sju universitet i uppdrag att satsa på AI-fortbildning.

Ett område som väldigt många kommer behöva vidareutbilda sig inom är databearbetning och statistik, inklusive artificiell intelligens. Dels för att kunna använda och jobba med de nya automatiserade verktyg som kommer, och dels för nya arbetsuppgifter knutna till desamma. Ett exempel på en arbetsuppgift som kommer bli allt vanligare är datastädning: system för artificiell intelligens och maskininlärning fungerar bara bra om de matas med bra data – så någon måste se till att data håller hög kvalitet och inte innehåller felaktigheter. Räkna med att personal inom exempelvis sjukvården kommer behöva lära sig mer om datastädning under det kommande årtiondet.

En region som redan kommit långt inom databearbetning och statistik är Edinburgh i Skottland, som nu satsar på att bli ”Europas datahuvudstad”. Jag jobbar sedan i vintras med att utveckla University of Edinburgh nya kurser i sannolikhetslära och statistik, nyckelkurser inom deras nystartade masterprogram i data science (statistik, programmering, datahantering och dataanalys) där all undervisning sker över nätet.

Cockburn street i Edinburgh - en av de första gatorna man stöter på som turist, samt skådeplats för delar av Avengers: Inifinity War

Det finns fler anledningar till att man väljer att förlägga undervisningen för de här programmen online – anledningar som rimmar väl med framtidens behov av kontinuerlig vidareutbildning:

  • Det gör det möjligt att på ett effektivt sätt erbjuda undervisning till stora grupper studenter,
  • Det gör det möjligt för studenter som av olika anledningar inte har möjlighet att flytta till en universitetsstad att vidareutbilda sig (dit kan exempelvis personer som har ett jobb, familj eller rörelsehinder höra),
  • Det demokratiserar utbildningen genom att ge studenter från alla delar av världen möjlighet att studera vid ett prestigefyllt brittisk universitet.

Värt att poängtera är att onlineundervisning är ett komplement till och inte en ersättning för den traditionella salsundervisningen vid lärosätet, som fortfarande kan förväntas vara det första steget för de allra flesta. Distansundervisning är för övrigt inget nytt i sig – men ambitionsnivån och skalan på de program som nu kommer skiljer sig åt från det vi tidigare har sett. Det ställs därför också högre krav, bland annat när det gäller:

  • Förbättrade möjligheter till interaktion mellan studenterna,
  • Examination som i större utsträckning är (just det!) automatiserad, utan att den för den sakens skull bara utgörs av flervalsfrågor,
  • Användande av AI för att utvärdera och stimulera studenternas lärande.

En stor del mitt projekt med University of Edinburgh har hittills handlat om att hitta bra lösningar på framförallt de två förstnämnda utmaningarna. Vår första kurs startar i lite mindre skala september, och kommer sedan följas av en storskalig kurs med start i januari. I samband med det kommer jag att återkomma till hur vi jobbar med AI, studentinteraktion och automatiserad examination.

AI upptäcker hudcancer

Jag har de senaste dagarna skrivit om svårigheter med att utveckla AI för medicinsk användning samt om problem som kan uppstå när medicinska AI-tekniker används för andra syften. Dags så för ett mer positivt exempel – Vetenskapsradion rapporterade igår om en ny artikel i tidskriften Annals of Oncology, där en tysk forskargrupp använt AI för att utifrån bilder på hudförändringar upptäcka hudcancer.

När diagnostiska metoder utvärderas finns det två mått som är särskilt intressanta:

  • Specificitet: hur stor andel av de sjuka patienter som diagnosticeras som sjuka – en metod med hög specificitet missar sällan sjuka patienter.
  • Sensitivitet: hur stor andel av de friska patienterna som inte får sjukdomsdiagnosen – en metod med hög sensitivitet ger sällan felaktigt patienter en diagnos.

Svårigheten med det här är att så metoder som har hög specificitet ofta har låg sensitivitet, och vice versa – ska man verkligen upptäcka alla sjuka patienter måste man ta med många tveksamma fall, och då fångar man automatiskt upp många friska patienter också.

De 58 dermatologer som användes som jämförelsegrupp i den tyska studien nådde en specificitet på 75,7 % och en sensitivitet på 88,9 %. AI:n nådde vid samma sensitivitet en specificitet på 82,5 % och presterade därmed bättre än dermatologerna. Ett fint resultat för AI inom medicin! Metoden som användes – faltningsnätverk, kallade convolutional neural networks på engelska – har under flera år rönt stora framgångar inom andra problem som går ut på att få information från bilder.

I en ganska nära framtid kommer vi att se den här sortens verktyg för privat bruk – exempelvis en app i telefonen som kan bedöma hudförändringar. I sådana sammanhang blir det väldigt intressant med ansvarsfrågor. Vem är egentligen ansvarig om din app inte lyckas upptäcka din hudcancer?