Habermas och Lars Lerin visar vägen för public service i Interneteran

Tags

, , , , , , , , , , , , , ,

Kulturen och underhållningen behöver ingen “välmenande storebror” längre – allt för alla finns på nätet. Att demokratin behöver resurser för tidskrävande kvalitetsjournalistik vilket både Pelle Snickars, Umeå Universitet och Robert Jonsson i sin debattväxling i DN är överens om kan knappast kallas paternalistiskt. Ska Habermas tolkas för vad han vill se framåt (och inte som kritiskt beskrivande mediehistoriker) är det dock rimligen nyhets och samhällsjournalistik, gärna romantiska idéer om att vilja förstå varandra bättre som konfliktlösningsmetod i demokratins tjänst, som ska prioriteras i det framväxande Internetsamhället.

Det handlar inte om kulturen.

Idén om fin- respektive fulkultur är död med Internet, nu när det finns billiga och globalt verkningsfulla sätt att distribuera både gulliga kattvideor och det senaste från forskningsfronten. Det handlar om vad varje dagisbarn i dag tycks få lära sig ordentligt, men som tycks ha gått en skrämmande stor del av den vuxna och politiskt engagerade befolkningen förbi – hur vi beter oss mot varandra när vi tycker och tänker olika i de frågor som rör vårt gemensamma ansvar.

Det offentliga samtalet, som är ett fint ord för just detta gjordes populärt av sociologen Jürgen Habermas och det är i allra högsta grad relevant i ett Sverige som på ett oroväckande sätt kokar av konspirationsteorier, filterbubblor och infantilt “blockande” och “avföljande” mellan vuxna, vanligtvis vettiga och trevliga människor på Twitter, det offentliga samtalets kanske tydligaste plattform i det nya medielandskapet.

Medieprofessorn och public servicekommissions-deltagaren Pelle Snickars skrev nyligen i DN en debattartikel med rubriken Så ska public service blomstra i en digital era om hur Internet förändrar förutsättningarna för de statliga mediebolagen att uppfylla sitt ursprungliga uppdrag.

Hårdrar man det samtida problemet med public service och dess legitimitet, kan det reduceras till ett enda ord: internet. I regeringens nuvarande sändningstillstånd framgår att både SR och SVT ska erbjuda ”ett mångsidigt programutbud” – som om ett sådant inte existerade i den digitala domänen. Den mediekulturella bristens tid är ju sedan länge ett minne blott – och ”mångsidigt”? I förhållande till vad, den enfaldiga webben?

Mångfalden är säkrad inom kultur och avsändare av budskap

I runda slängar påpekar Snickars i artikeln (med rätta) att det nu finns ett tidigare otänkbart utbud tillgängligt för den medborgare som vill informera eller utbilda sig tack vare Internet, men även att public service “idémässigt varit en sorts (alltför) välmenande medier” som han med stöd i kulturteoretikern Raymond Williams analys av BBC kallar paternalistiska.  Vurmare av public service och Habermas idéer om kommunikativt handlande som jag själv får sig en släng av sleven :

Det är en tankefigur som omfattas av såväl politiker som journalister, liksom för all del medieforskare, förlästa på mer eller mindre romantiskt, habermasianska ideal kring en fullkomlig offentlighet och ett (önske)tänkande kring ömsesidigt kommunikativt handlande. ”Public service är för närvarande det kanske enda sättet som gemensamma kunskaper och nöjen upprätthålls i en delad offentlighet till gagn för hela befolkningen”, påtalade en av dem, Paddy Scannell, 1989.

Det är bra med konkurrens, inom den politiska sfären kallar vi det demokrati

Habermasianska ideal kring en fullkomlig offentlighet är i allra högsta grad något för public service medier att ledas av. Precis som privatägda mediebolag också gör det på främst kultursidor och i nyhetsflödet. Men för att de privatägda (industriella) mediebolagen ska gå runt på sina mycket ansträngda annonsbaserade affärsmodeller krävs brett genomslag där underhållning är en del av mixen. Jag känner inte till besöksstatistiken för nyhets och samhällsjournalistik i statliga medier respektive privata medier, men om jag inte är helt ute och cyklar så står sig program som Uppdrag Granskning, Rapport, Aktuellt Sveriges Radios ekonyheter väl i konkurrensen med de privata mediebolagens motsvarigheter.

Är det någonstans det är bra med konkurrens är det väl rimligen just inom makten över de bilder hela befolkningar får av huvudet av omvärlden och dess problem och möjligheter genom industriellt producerade och distribuerade massmedier? Internet har gett (nästan) alla helt nya möjligheter att kasta sig in i diskussioner och ropa ut sin egen åsikt. Traditionella massmedier har inte på något sätt spelat ut sin roll, som medieforskaren Jonas Andersson Schwartz på Södertörns Högskola, påpekade i en intervju i  P1 nyligen.

Alla sorters mediebolag är jämställda, men public servicebolag är jämställdast

Tvärtom är det det journalistik som produceras i både public service och privatägda medier som dominerar vad som diskuteras på Twitter. Internet må vara en förlängning och en ny kontaktyta med publiken, men beträffande kvaliteten på den journalistik som ligger bakom information och samtal om samhällsfrågor är ingenting nytt under solen. Det är fortfarande tidskrävande och osäkert vilka “gräv” som leder till vatten. Den industriella logiken inom media såsom i alla andra branscher bygger i grunden på att undvika risk. Därför finns det en poäng med att låta skattepengar betala för samhällsnyttig journalistik vars dagliga granskningsarbete långt ifrån alltid (och förhoppnings inte) leder till avslöjanden om missförhållanden.

Robert Olsson, programdirektör för nyheter och samhälle på SVT, skjuter i SVTs officiella svar på Pelle Snickars debattartikel in sig på just den punkten. Jag upplever dock att parterna skjuter förbi varandra helt här. Den eventuella paternalism och storebrors-mentalitet jag kan se i public service ursprungliga anda, att förmedla kvalificerad kultur till folket i en uppfostrande anda är en ambition jag inte sett röken av i public service. Att P2 med sin inriktning på klassisk musik stadigt har relativt litet genomslag sett till hela befolkningen tycks inte uppmärksammas av någon part, medan däremot bredare underhållningsprogram nog snarare är den egentliga stridsfrågan mellan privata och offentliga aktörer.

Det är gemenskapen vi saknar – och den kräver “romantiska” idéer 

När jag tittar på vad som just nu är populärt på svtplay.se ser jag Gift vid första ögonkastet, 30 grader i februari, Veckans brott och längskidor. Jag kan inte se att något av dessa program med brett genomslag har med vare sig kulturell folkbildning eller demokratistärkande information och dialog. (UPDATE: min vanligtvis välunderrättade granne Joanna säger att Leif GW ger konkreta tips om hur polisen kan förbättra sitt jobb, så OK då) Det kommunikativa handlande som Habermas, liksom jag och många med mig, tycker väldigt mycket om finns det dock ett ypperligt exempel på i form av i programserien Vänligen Lars Lerin. Just genom konstnären Lars Lerins mjuka och empatiska person i mötet med andra sensibla (och populära och rent av folkkära) människor får vi genom public service ett slående exempel på vad det offentliga samtalet inte är, men faktiskt kan vara i det nya samhälle som växer fram. Alla som är intresserade av samhället och vad Internet gör med det borde bums köpa och läsa Jan Söderqvists och Alexander Bards bok Syntheism – creating God in the Internet Age.

Det finns en underliggande trend i samhället idag, säger Bard och Söderqvist, och jag upplever det vara precis så. Den industrikapitalistiska eran som födde både borgerlighetens (affärs- och högkulturorienterade) och arbetarnas (demokrati och folkbildningsorienterade) massmedier är på väg mot sitt slut och det är ingen skam i att det ligger en romantisk underton i den nya andan. Efter tvåhundra år av konflikt- och tävlingsorientering som det normala i det offentliga rummet, är det just (riktiga, relaterbara) människor som Lars Lerin som väcker drömmar om de Habermasianskt förståelseorienterade samtal lite till mans. Det är sannolikt inte bara jag som tycker att det börjar kännas unket med iscensatta debatter med låsta positioner och floskel-bingo för att det är förment bra TV.

Ge pengar till fortsatt digitalisering av kulturinstitutionerna!

Internet har möjliggjort att nationalscenen Dramatens pjäser nu sänds fritt på Internet. Det är i allra högsta grad en statlig public service, även fast den inte går via SVT, SR eller UR. Internet möjliggör att företag och institutioner blir sina egna mediekanaler, vilket gör att statsfinansierad kultur kan nå sin publik direkt utan mellanhänder, vare sig statligt eller privat finansierade mediejättar. Utmärkt!

Det handlar alltså inte om konsten och kulturen. Det handlar om vem som tar ansvar för att båda sidor kommer till tals i samtal om hur samhället ska styra och att åtminstone de som företräder näringsliv, offentlig och ideell sektor på riksnivå alla både blir granskade och får komma tills tals på lika villkor.

Det är lysande att offentlig sektor, dvs vi med våra skattepengar, tar ansvar för minoritetskultur (både samiska och klassisk högkultur kan i publikstorlek utan tvivel jämställas här), men Internet möjliggör att denna fritt får flyta över Internet som Snickars skriver. När det kommer till politik och samhälle, dvs den arena som Habermas intresserar sig främst för, anser jag verkligen att public service medierna ett stort ansvar, som det dessutom kan behövas en skärpning inom om eftersom det sedan flera år jäser en mycket obehaglig underton bland främst invandringskritiska att inte all fakta redovisas. Om det flyttas pengar från kultur och nöje till nyheter och samhälle som en konsekvens av Internets enorma utbud ser jag ingenting konstigt i det, särskilt inte om offentliga (och ideella) kulturinstitutioner får en del av dem för att digitalisera och distribuera sina produktioner fritt på Internet som en kulturell form av öppna data.

Det här inlägget blev långt, men är det nåt som engagerar mig så är att vi måste se framåt nu när Internet omformat samhället och ta med oss Habermas poäng om kommunikativt handlande. Javisst är det romantiskt, men det är precis på sådana grunder vi människor motiveras att kliva ut ur och vidare från våra små bubblor av vardagspussel och fåniga jakt efter status som kompensation för den mänskliga gemenskap vi förlorat i det industriskapitalistiska paradigmet som nu är på väg att förvandlas till nåt nytt. Som vi bygger, bland annat genom hur vi beter oss mot varandra i den globala digitala by vi plötsligt vaknat upp i.

Älskar du din data tillräckligt?

Tags

, , , , ,

Du som går i tankar att knyta band med maskininlärning och AI, ställ dig frågan om du verkligen älskar datan du ska arbeta med såsom dig själv, för du kommer att spendera mycket intim tid med både dess mörka och ljusa sidor ända in på skinnet för att det ska bli bra.

Konstnär: Jonas Söderström

En äkta Jonas “Blind Höna” Söderström i min ägo efter generös donation av konstnären

 

Gartner har bytt ut “big data” mot maskininlärning i sin hajpkurve-mätning. För egen del snubblade jag in i det hela då det ännu var “big data” som gällde, via mitt stora intresse för att göra kvantitativ innehållsanalys på större mängder än vad som är brukligt inom inom den analoga omvärldsbevaknings-branschen jag kommer ifrån. När det kommer till att arbeta med barns uppsatser, som jag haft den stora förmånen att få göra nyligen, eller göra dataanalys av skönlitteratur, som jag drömt om sen länge

För att tala med Ferlin, så må Gud väl förlåta mig somliga rader, tillkomna i min entusiasm över de nya forskningshorisonter som uppstår genom att se mönster som framträder i aggregerade data såsom Franco Moretti (i DN nyligen) på ett förtjänstfullt sätt exemplifierar och argumenterar för i boken Graphs, Maps, Trees: Abstract Models for Literary History.  Jag tror genuint att dessa metoder för att analysera aggregerade texter och annat kulturmaterial kommer att tillföra nya och spännande perspektiv på många områden i samhället. Digitala metoder kan även komplettera och på sikt ersätta metoder som inte hänger med i hur människor förhåller sig till att svara på långa enkäter i en tid av långt mer tilltalande gillande och tyckande på nätet och dessutom rent av motverka några av de inneboende problemen med den typen av kvantitativa undersökningar såsom att människor oftare än inte säger en sak om sig själva, men i verkligheten gör helt annorlunda, vilket beteendeekonomin lyft fram de senaste åren.

Det förekommer dock ibland en syn på AI och maskininlärning som en slags quick fix för många praktiska problem som rör information särskilt inom affärslivet, såsom många redan förtjänstfullt skrivit om. Så är det naturligtvis inte, även om jag själv är mycket häpen inför de väldigt fina framsteg som gjorts inom detta fält. För mig som är särskilt intresserad av att utvinna meningsfull information ur naturligt språk i textform, gav algoritmen word2vec faktiskt ett “automagiskt” intryck när jag första gången testade den. Men med sådana undantag i beaktande, är erfarenhet inom de fält jag verkar är mitt huvudsakliga intryck av arbetet med riktiga projekt som innefattar maskininlärning, men som går från start till slut i hela kedjan, det rakt motsatta; framgång beror till allra största delen på manuellt mänskligt hantverk.

Kanske inte så mycket i den inledande datainsamlings-fasen, det finns gott om datakällor att ösa ur (tack vare många människors manuella hantverk som skapat API:er, skrapningsverktyg, excel-ark med mera), och inte heller i visualisering-fasen som idag är mycket enkel tack vare utmärka programvaror och öppna kod-bibliotek, men desto mer så i den omformning som nästan alltid är fallet i bearbetnings och analysfasen. Datatvätt, det vill säga att rätta till misstag som sker vid automatisk omvandling såsom till exempel OCR-inläsning av analoga dokument till maskinläsbart text, är en annan mycket tidskrävande och maskinellt svårlöst utmaning för alla oss som är intresserade av digitaliserade medier. För egen del, undantaget den tid jag ägnar åt att skriva kod, utgörs mellan 60 och 80 procent av tiden för att göra en undersökning, med manuell närläsning och pillande med enskilda ord och tecken som ibland gör avgörande skillnad för slutresultatet.

Det är alltså en klar fördel att tycka om den data man arbetar med för att stå ut med det pill-göra som manuell närläsning och bedömning innebär för att slutresultatet ska bli bra.

En renässans för humaniora ligger i dess tredje kris på 200 år

Tags

, , , , , , , , , , ,

Det talas om humanioras kris, men i själva verket kan hela tre distinkta kriser identifieras de senaste 200 åren. De två första kriserna har varit till relativ fördel för naturvetenskap och teknik, men den tredje krisen som pågår just nu har alla förutsättningar för att leda till ett uppsving för humaniora och samhällsvetenskaperna så att humanvetenskaperna kan integreras med naturvetenskaperna på jämlik grund igen.

Anledningen till uppsvinget är den nya världens “big data”, algoritmer och artificiella intelligens sätter humanioras paradgren, de existentiella frågorna, i fokus. Det övergripande temat Människan och Maskinen, uppstår och utforskas i praktiken  genom att förena humanvetenskapernas förståelse för människan och kulturen och naturvetenskapernas förståelse för systemen och naturen.

För att bättre förstå varför humanioras nuvarande, och hoppingivande, kris i mötet med “det digitala” kan det vara på sin plats att beskriva de tidigare mer destruktiva kriserna.

Humanioras första kris: industrisamhällets nyttokrav

Humaniora brottas fortfarande med sviterna av industrialismens framstöt i samhället. Vetenskaper som är samhällsekonomiskt nyttiga såsom ingenjörsvetenskaperna och de delar av naturvetenskaperna som industrin har direkt nytta av, såsom framsteg inom material och energi, har sedan 1800-talets begynnelse haft det lättast med finansiering och uppmärksamhet. Som framgår av filosofiprofessor Sharon Riders artikel “en anna slags nytta” i Sydsvenskan nyligen klagade Nietzsche också för 150 år sedan på de ökade kraven på nyttighet inom vetenskapen. Mot affärslivets hektiska tempo och fokus på skalbara processer där människor och varor är utbytbara enheter står sig humaniora slätt.

För att möta detta yttre tryck fick humaniora, då som nu, försöka argumentera längst linjer såsom att estetik är viktigt för att produkter ska sälja bra eller att medarbetare eller vårdtagare som läser skönlitteratur vilar bättre och kommer snabbare tillbaks till produktivitet efter semester eller vårdvistelse. I samband med dagens fokus på Internet-företag argumenteras det på samma sätt ofta att humanister och beteendevetare har en viktigt funktion att fylla för att hjälpa IT-bolag göra sina produkter psykologiskt frestande och rent av beroendeframkallande genom att trigga mänskliga behov såsom gemenskap och bekräftelse.

Men samhället som det ser ut idag har gått vidare från industrisamhällets ekonomism och instrumentalism och adderat nya dimensioner till akademins samhällsposition, vilket leder oss till den andra krisen humaniora ställts inför.

Humanioras andra kris: 68-rörelsens kulturkritik

Postmodernismen har inneburit många olika sorters perspektivskiften, men ett som påverkat humanioras förutsättningar på universitet och högskolor särskilt är den politiska aspekten. I slutet av 60-talet svepte  postmodernismens primära konfliktytor kön, etnicitet och klass in över akademin, liksom övriga delar av samhället. Här är det inte längre ekonomisk nytta som sätter press på vetenskapen, utan kulturella privilegier. Även den förändringsvinden blåser fortfarande starkt över humaniora och märks exempelvis i att “traditionlistiska” agendor som att vara väktare av bildning, högkultur och kanon får det allt svårare att få gehör. Postmodernismen ställer ju i sin kritik frågan vems privilegier som vidmakthålls genom att sådana begrepp används. Tittar man närmre på dessa visar det sig ofta dölja sig ett kotteri av vita, medelålders män bakom i egenskap av såväl väktarna som de som står som modell för bildning och även de som skrivit de böcker som ingår i kanon.

För att möta detta yttre tryck har humaniora bland annat inlemmat genus- klass- och kulturkritik i etablerade humanistiska utbildningar och vävt in mångfald i universitetens uppdragsbeskrivningar. Detta har inneburit att humanioras kulturbevarande funktion blivit svårare att argumentera för. Är inte det syftet endast ett sätt att bevara de gamla maktstrukturerna? Det finns därmed en risk att de ursprungliga källorna inte studeras och används, utan istället läses indirekt genom filtret av moderna akademikers ideal.

Därmed riskerar de att trivialiseras och glömmas bort eller banaliseras. Strindberg var exempelvis inte uteslutande en kvinnohatare om man gör sig omaket att läsa vad han faktiskt skrev. Detta är särskilt allvarligt då humaniora är den gren av akademin förvaltat arvet från de kristna munkar som kopierade och därmed räddade ovärderliga vetenskapliga historiska verk från andra tider och kulturer, trots att de inte vad korrekta med samtidens mått mätt. Ett lysande exempel är förstås de grekiska och indiska vetenskapliga skatter som hittades i de arabiskspråkiga böckerna av europeiska kristna i muslimernas kvarlämnade bibliotek i Toledo efter 1095 e.kr och som förvaltades, översattes och lade grunden för stora delar av universitetsväsendet. De kunde ha gjort en “politisk poäng” av att detta var böcker skrivna inom andra religiösa, filosofiska och kulturella traditioner och enbart “läst dem kritiskt”. Lyckokastet var att de både förvaltade dem genom att översätta och kopiera dem och läste dem kritiskt inom ramen för teologiska nytolkningar.

Den postmoderna revolutionen 1968 firar dock snart 50-årsjubileum och utvecklingen har gått vidare även sedan dess.

Humanioras tredje kris: “det digitalas” kunskapsrevolution

Idag kan en litteraturvetare i framkant vilja använda samma teknologiska verktyg som en astrofysiker i form av hård- och mjukvara för storskalig dataanalys. Den akademiska världen är djupt förankrad i boken som kunskapsteknologi, vilket framsynta humanister med Marshall “the medium is the message” McLuhan på 60-talet och den senare Friedrich “We are the subjects of gadgets and instruments of mechanical data processing” Kittler ägnat stor möda åt att bena ut. Eftersom de teknologier vi använder för att tänka även påverkar hur vi tänker, står vetenskapen inför utmaningar i mötet med IT och digitaliseringen som den på medieteknologiska grunder inte haft motsvarigheten till sedan dess uppkomst i det antika grekland. Även då var, ska tilläggas, var boken den dominerande medieteknologin.

Vi är mitt uppe i den här medieteknologiska revolution sett ur den akademiska vetenskapens perspektiv. Jag behöver väl knappast påpeka för dig som läser denna text att utbildning vid världens främsta universitet redan idag är tillgänglig digitalt på Internet på ett sätt som helt rundar aspekter av akademins “operativsystem” såsom antagningsförfaranden och kursavgifter. Det bedrivs fullskalig professionell forskning av vanliga medborgare utan krav på akademiska examina eller forskarutbildning. Och teknikföretag som Google har redan övertrumfat all världens samlade bibliotek för att samla in och tillgängliggöra fakta och kunskap digitalt över Internet.

Digitaliseringen förändrar kunskapande i grunden

När boktryckarkonsten slog igenom var det en självklarhet för humanister att anamma den nya teknologin. En bok är en bok är en bok. Men en dator är däremot något långt mer än en bok. En dator påverkar vårt tänkande i långt större utsträckning än en bok i åtminstone det att den adderar en oerhörd snabbhet i “sin” egenskap av tankeverktyg och en oerhörd effektivitet i sin egenskap av distributionsmedel för dessa våra digitalt förstärka tankar.

En dator kan för all del användas som ett skrivverktyg – en sofistikerad ersättning för papper och penna, som möjliggör smidig behandling av texter och färdigställande av layout. Men i datorn gömmer sig något mycket mer kraftfullt än så. En dator är till själva sitt väsen en generell beräkningsmaskin vilket har oerhörda konsekvenser för vilken typ av vetenskapliga problem den tillåter oss att ge oss i kast med. Därutöver är den nätverkande datorn principen om nästintill obegränsad lagring och beräkningskapacitet vilket ytterligare förstärker datorn som verktyg för vetenskap i bred mening.

Det är i grunden detta som de beräkningsintensiva naturvetenskaperna dragit nytta av. Inte som en elektrisk skrivmaskin för att skriva uppsatser och artiklar på, utan för att möjliggöra steget från att en noggrann och uthållig forskare observerar en stjärna i taget vid sitt teleskop, till att automatiska maskiner outtröttligt sveper över natthimlen och analyserar och sorterar oändligt antal observationer i jakten på betydelsebärande mönster och samband. Datorn möjliggör en arbetsinsats och ett resultat som helt enkelt ligger bortom vad som vore möjligt ens om universiteten varje år fylldes på med horder av Gallieos, Copernicusar och Keplers för att göra en liknelse om vad datorn inneburit för astronomin.

Det samma gäller medicinsk forskning som gått från manuell provtagning till att kartlägga den mänskliga arvsmassan för referens. Det är att likna vid om en litteraturvetare som studerar en bok av en författare hade kunnat börja med att jämföra den med alla världens böcker som publicerats inom samma genre  – en tanke som för övrigt inte ligger särskilt långt borta i verkligheten.

Utmaningen ligger i praktiken idag inte i form av ingenjörskonster som att exempelvis digitalisera och flytta litterärt källmaterial till flexibla och skalbara databaser och analysera dem med med utmärkta verktyg för vetenskaplig programvara. Snarare är utmaningen att förnya det vetenskapliga tänkandet. Inte nödvändigtvis förbättra det gamla, utan komplettera med det nya. Vad kan humaniora lära av naturvetenskapens användande av digitala verktyg? Vilken ny sorts kunskap väntar på att upptäckas i digitaliserade arkiv av kulturmaterial? Många är rädda att placerandet av vetenskapliga instrument mellan subjektet och det studerade ska göra att något “magiskt” försvinner i översättningen. Det kan det vara klokt att påminna sig om att den personliga erfarenheten av andäktighet inför det studerade inte skiljer sig åt mellan den passionerade observatören av naturen från den passionerade observatören av kulturen. Universum har inte blivit mindre fascinerande och tankeväckande sen vi kunde se djupare in i det med datoriserade teleskop, tvärtom.

Det digitala sätter de existentiella frågorna i förgrunden

Vi lever i en teknologisk tidsålder med datornätverk, “big data” och artificiell intelligens som främsta tecken i tiden. Därför är det inte konstigt att det nu plötsligt är naturvetare, ingenjörer och IT-entreprenörer som i detta brytningsskede tycks ha tagit över mikrofonen i det offentliga rummet från humanvetenskapernas teologer, litteraturvetare och psykologer gällande de stora existentiella frågorna. Det är entreprenörer som Elon Musk, fysiker och astronomer som Stephen Hawkins och Max Tegmark och ingenjörer som Ray Kurzweil i massmedia uttolkar teknologins inverkan på de eviga frågorna om vad det är att vara människa, var vi kommer ifrån och vart vi är på väg som art och kulturvarelser i deras varningar inför en okontrollerad teknisk utveckling.

Men det finns även gott om renodlade humanister som påverkar samhällsdebatten i frågan om människan och maskinen. Inte minst filosofen Nick Bostrom som i själva verket låg bakom att den ovan nämnda varningen för AI. Inte så många känner kanske till att vår nuvarande ärkebiskop Antje Jackgelén som exempel, bland annat skrivit om vad utvecklingen av AI kan innebära för idén av människan som skapad till Guds avbild. Även medieteoretikern Douglas Rushkoff har till viss del lyckats nå ut med resonemang om vad medieteknologin gör med oss som samhällsvarelser i Present Shock  och Program or be programmed. Men ingen har förmått att axla den akademiska superkändisen Marshall McLuhans mantel som en den teknologiska samtidens profet. Det skulle förvåna mig om någon enda person utanför akademin känner till den lika färgsprakande och kreativt tänkande medieteoretikern Friedrich Kittler som gick bort 2011.

Den mest spännande nyskrivna bok jag stött på inom det här området är skriven av Alexander Bard och Jan Söderqvist och heter Syntheism – creating God in the Internet Age och jag rekommenderar starkt den filosofiskt intresserade att läsa den!

Nästa steg för humaniora är att omfamna tekniken

Den digitala revolutionen har inburit att tröskeln till att använda avancerade verktyg för vetenskapligt arbete sänkts och fortsätter att sänkas i rask takt. Det är ett mindre bekymmer att lära sig använda datorer för att samla in, analysera och publicera humanistiskt intressant material i textform som enskilda författares litterära verk eller  vanliga människors kulturuttryck på Internet. Sedan helt nyligen har även snabba framsteg skett inom maskinell bildanalys, vilket med teknikutvecklingens numera rasande tempo lovar ytterligare möjligheter för de visuellt orienterade humanvetenskaperna inom en snar framtid.

Det finns ingen konflikt mellan kontemplation och teknikstödd empiri. De kompletterar varandra på samma sätt som filosofisk intuition och spekulation föder vetenskapliga hypoteser att pröva rationellt. Tvärtom har den snabba utvecklingen inom den digitala tekniken lett till ett större behov i samhället efter att tolka och förstå de massiva datamängder som nu genereras automatiskt i människors samverkan med maskiner.

Intelligenta digitala assistenter blir snabbt allas vardag och hur vi som biologisk art och kulturvarelser påverkas och förändras i mötet med det digitala är vår tids kanske största fråga. Och det är en fråga där humanvetenskapernas existentiella frågeställningar och metoder för tolkning och reflektion behövs precis lika mycket som den naturvetenskapliga strävan efter repeterbarhet och ingenjörskonstens förmåga att bearbeta empiriskt material. Humanvetenskaperna och naturvetenskaperna integrerade och samarbetande på lika villkor och med ömsesidig förståelse och intresse för varandras perspektiv och praktiker. Peer-to-peer co-creation.

Prästen, matematikern och banbrytande statistikern Thomas Bayes (1701-1761) kan stå som modell för vad hela akademin, humanvetenskaper och naturvetenskaper som en integrerad helhet, har framför sig i en tidsålder då storskalig statistisk analys av mänsklig kultur och beteende för första gången blir möjligt som komplement 2000 år av boklig lärdom och kontemplation.

 

 

 

 

 

Digitaliseringen marginaliserar medieforskare och mediebevakare

Tags

, , , ,

Att mediedata talar högre än medieundersökningar tvingar alla som arbetar med att undersöka medier att lära sig kod och stå med mössan i handen hos de digitala jätteföretagen.

I maj i gick medieprofessorn Pelle Snickars ut i Östersundsposten och påpekade att medieforskningens metoder är daterade och att det i sin tur skapar ett dåligt underlag för mediepolitiska beslut. Detta eftersom medieforskare i huvudsak förlitar sig på enkätundersökningar och pressklippssammanställningar i en tid där den mediedata som produceras automatiskt inuti medierna själva snabbt gör de inbyggda och accelererande bristerna med de förstnämnda undersökningsmetoderna allt tydligare.

Follow the money

Samma utveckling är tydlig i mediebevakningsbranschen där kunderna i allt större utsträckning efterfrågar den data som produceras inuti deras egna digitala mediekanaler framför relativt kostsamma och tveksamt mervärdesskapande sammanställningar av massmedieinnehåll.

Digitaliseringen av medier är svår att få grepp om med traditionell logik, men Pelle Snickars sätter fingret på den ömmande punkten; de som sitter på den värdefulla informationen i det nya medielandskapet är de nya, eller digitaliserade, medieföretagen. Och de släpper den inte till vare sig medieforskare eller omvärldsbevakare annat än som små hinkar ur en ocean och med en vidhängande rejält tilltagen prislapp.

Den regering som vill veta vad som rör sig i huvudet på medborgarna har idag oändligt mer att vinna på att vända sig till Facebook, Google och Apple än till opinionsinstituten, omvärldsbevakarna eller universiteten. Ett traditionellt opinionsinstitut tvingas på grund av sina metoder investera allt kraftigare i att nå ut till  människor för att få deras åsikt, medan Facebook som exempel nu får över 1 miljard (!) människors tankar, åsikter och, i snabbt ökande takt, mediekonsumtion flygande likt stekta sparvar in i databaserna.

Även medieföretagen blir omsprungna

Detta är en maktförskjutning på samma skala som när de industri-teknologiskt förstärka kapitalisterna marginaliserade de jordbruks- och hästbaserade feodalherrarna. Då är det inte konstigt att en medieforskning som till stor del blev till för att bevaka att inte ägandet av analoga massmedier koncentrerades på ett sätt som skadade demokratin inte nödvändigtvis hänger med i svängarna. Det gör ju inte ens de analoga massmedierna som nu tycks vara på väg att fullständigt hamna i knät på IT-bolagen.

På samma sätt kan opinionskänsliga företag och organisationer som banker, flygbolag eller retail-företag till en bråkdel av kostnaden för insamling och analys av massmediematerial runda massmediebevakning med så enkla medel som att läsa vad folk skriver på deras egna officiella Facebook-sidor.På så sätt kan de  direkt fånga upp och agera på kritik, i bästa fall innan det vuxit till en massmedianyhet och därmed skadar varumärket väsentligt.

Konsumentinformationen som de traditionella massmedierna producerar i form av tips och larm delas dessutom i sociala medier, vilket skapar en både billigare och insamlingsmässigt enklare genväg till konsumenternas åsikter, farhågor och önskemål. Detta gäller särskilt specialforumen, där initierade konsumenter tipsar varandra om vilka produkter som är bäst att köpa.

Men i grund och botten är all insamling av digitalt medieinnehåll, oavsett om det är från redaktionella eller sociala medier långt mindre värdefullt än den data som  de digitala medierna själva sitter på i sina loggfiler. I realiteten gör de än så länge knappt nåt med den förutom att steg för steg försöka förbättra sin egna annonsaffär.

När Google och Facebook nu tar steg för att locka in massmedierna ännu djupare i deras plattformar riskerar massmedierna att bli överskuggade av den massiva mängden användardata som på så sätt automatiskt tillgängliggörs för IT-bjässarna på global skala, men fortfarande bara i relation till det egna innehållet för mediebolagen som “ger bort” sitt innehåll till dessa mycket större och data-analytiskt kapabla annonsnätverk.

Facebook – världens främsta medieforskninginstitut?

Facebooks data science-avdelning(-ar?) har idag i praktiken tillgång all data om vilket medieinnehåll som väcker intresse i alla världens hörn samtidigt som de har fullkomligt förbluffande insikter om majoriteten av världens mediekonsumter – toppat med resurser att analysera all denna mediedata som mäter sig med kombinationen av flera av världens främsta universitet. Om man i ljuset av detta tittar på hur många medieforskare eller omvärldsanalytiker som ens kan grundläggande programmering för att lagra, analysera och dra slutsatser av digitalt medieinnehåll, ens när det rör sig om små mängder såsom en putte-land som Sverige så är det självklart att dessa båda grupper bleknar i jämförelse.

I gapet mellan digitalt handfallna forskare och omvärldsanalytiker å ena sidan och monstruösa dataanalysbjässar å den andra sidan, hoppar märkligt nog ibland enskilda individer och hackare som Ted Valentin, av bara farten och utan att ha några forskningsmetodologiska ambitioner, in och skapar nya medieforskningsprojekt såsom socialnyheter som faktiskt är mer innovativt, sett ur både medieforskningsperspektiv och omvärldsbevakningsperspektiv, än något jag sett från vare sig akademin eller omvärldsbevakningsbranschen sen Internet kom.

Så vad kan och bör göras åt saken?

Precis som Pelle Snickars skriver och medieforskaren Jonas Andersson Schwartz tagit riktade aktiva steg emot, ser jag ingen annan utväg än att knyta allianser mellan medieforskare och de digitala medieaktörerna själva, hur mycket det än smärtar en forskarkår som av institutionell roll och personlig övertygelse sett som sin uppgift att hålla en kritisk distans till dem. Alternativet är nog dessvärre att marginaliseras helt. Problemet, liksom i fallet med Twitters donation av hela deras data-arkiv till National Library of Congress är att det krävs rejäla tekniska muskler att ens hantera så stora databaser, muskler som minnesinstitutioner och humanistiska och samhällsvetenskapliga institutioner idag inte har.

En praktisk väg framåt

Utmaningen här är inte enbart att få loss ekonomiska anslag, utan även att förändra mindset till “det digitala” och tillskansa sig digital litteracitet i form av kodkunnande  inom forskningen, omvärldsbevakningsbranschen och de minnesinstitutioner som har till uppgift att bevara och tillgängliggöra medieinnehåll. De goda nyheterna med digitaliseringen är trots allt många och direkt tillämpbara. Därför vill jag avsluta med några smakprov på goda nyheter för alla oss som faktiskt tycker medieundersökningar, oavsett mottagande samhällsfunktion, är viktigt, angeläget och spännande:

Och sist men inte minst, när du skaffat dig grundläggande kodfärdigheter enligt ovan har vi ett Svenskt nystartat företag som har potentialen att förändra förutsättningarna för medieforskare, omvärldsbevakare och alla andra som redan idag är intresserade av medieinnehåll – än så länge såvitt jag vet juridiskt banbrytande och unika:

  • Overviewnews – världens nyheter i maskinläsbar form (API)

 

 

 

 

 

Triggas reptilen eller hästen i oss av terrornyheter?

Tags

, , , , , , ,

För knappt två veckor sedan var jag i Helsingborg och deltog i Hackathonet News Remixed arrangerat av Mindpark, ehandel.se och själva möjliggöraren av hacket, det mycket spännande nyhets-API:et Overview News.

Jag åkte dit med en tanke om att titta på medieinnehåll med nån form av etiska glasögon och se vart tog vägen:

News Remixed tanke

Idé – Reptiler, hästar och människor

Min gode och tänkande vän Erik Starck hängde på och utvecklade ett resonemang baserat på teorin om den treeniga hjärnan. Det är alltså idén att vår hjärna utvecklats i tre faser från reptilens hjärna, över det limbisak systemet som vi bland annat delar med hästar och slutligen i neocortex.

Den sistnämnda evolutionsfasen möjliggör bland annat abstrakt logiskt tänkande och twitter-gräl. Två dygn tidigare hade de vidriga attentaten i bland annat Paris ägt rum och vi tänkte oss att analysera språket i svenska nyhetstexter före, under och efter attentaten mot bakgrund av modellen den treeniga hjärnan. Victor Zaunders nappade på idén och anslöt sig för att hjälpa till i experimentet.

Vi resonerade en del om vilket resultat vi förväntade oss och såg väl framför oss att reptilhjärne-orienterade ord som “döda”, “sårade” och “skrämmande” skulle öka sin andel språket. Det kändes ju som en rimlig slutsats som vi kanske skulle kunna påvisa empiriskt. Vad vi fick fram var dock något annat.

Genomförande – kod och taggning i ett rasande tempo

Efter att vi diskuterat idén och genomförandet i nån timme hade vi cirka 4 timmar på oss att få ihop testet. Erik kom med idén och kommunicerade medan jag kodade Python, med stöd av Victor.

Jag använde iPython Notebook för att enkelt kunna cowboy-koda (pang-pang från höften), dokumentera och visualisera resultatet på samma ställe. Logiken blev till slut i huvuddrag som följer:

  1. Sök efter nyhetstexter som innehåller ordet “paris” via Overview News API.
  2. Räkna antal gånger varje gång unika ord förekommer i brödtexterna
  3. Hitta adjektiv bland de 5000 vanligast orden med Emil Stenströms eminenta JSON-API till Stagger
  4. Tagga 276 adjektiv manuellt på magkänsla i kategorierna positiv/negativ respektive reptil, social (limbiskt) eller neocortex.
  5. Räkna procentandel av orden i de 1000 nyhetstexterna som gav träffar i respektive kategori
  6. Visualisera dessa procenttal brutet per dag då nyhetstexterna publicerats

Vi lyckades med nöd och näppe komma hela vägen till visualisering till klockan slog 18. Här finns koden.

Resultat – reptilen stilla, men en väldig fart på hästarna

För att se ökningen av antalet artiklar plattade vi ut antalet ord i nyhetstexterna vi fått ner vi Overviewnews API per dag:

antal ord

Därefter ser vi hur den procentuella andelen negativa ord ökar kraftigt i samband med terrorattentatet:

sentiment

Slutligen plottade vi ut andelen ord som bedömts representera reptilhjärna, det limbiska systemet (kallat “social”) respektive neocortex (neo) som andel av helheten (1.0 = 100% av de kategoriserade orden):

trinue_brain

När vi kommit så här långt var vi både hungriga och trötta och pizzan hade precis kommit. Så vi betraktade väl diagrammet i några sekunder och noterade att andelen reptilhjärne-ord faktiskt var en mindre andel av den totala mängden taggade ord dagarna efter attentatet. Istället var det ord som taggats som sociala eftersom de flesta handlar om identitet som ökade relativt kraftigt dagarna efter attentatet. Ord som “grekisk”, “islamiska” och “främlingsfientliga”, men även “tillsammans” och “enig” ökade alltså i fokus efter attentatet.

När vi kring pizzan redogjorde för experimentet kom jag att tänka på en iakttagelse jag gjorde på en hästviskar-kurs på Gotland förrförra sommaren. Hästar är fantastiska på att vara medvetna om vilka som befinner sig i flocken och utanför den. Närma dig en hästhage och de visar med oerhört subtila signaler att de noterat dig, men också om du är ofarlig, farlig eller bara en pajas man inte behöver bry sig om såvida du inte lyckas underhålla dem bättre än vad de själva gör genom att mumsa gräs.

Så kanske säger den här sortens medieanalys egentligen något om flockbeteendet hos oss människor? Blir vi liksom hästarna akut fokuserade på identitet och social tillhörighet när något sådant här händer?

Reflektion: social medieanalys kan bli till samhällsanalys

Är tecken på att människor börjar intressera sig för sociala markörer såsom etnicitet, religion, kön, yrkestitel, rang etc är bättre signaler på samhällsoro än vad jag förut hade gissat, dvs ett mer aggressivt språkbruk? Kanske är det en tidigare signal man kan plocka upp innan det sansade intellektuella samtalet tystnar till förmån för ett mer aggressivt eller mindre sofistikerat språkbruk?

Detta experiment genomfördes minst sagt i all hast och med enklast möjliga metoder med avsikt att testa en tanke och få ut nåt resultat över huvudtaget. Jag är väldigt nöjd med att tre specialintresserade personer på 5 timmar drivna av en donerad API-nyckel, hämtmat och kaffe och ett utlånat konferensrum (och inte att förglömma, Helsingborgs öppna Internetuppkoppling)

Vad tror du om det här experimentet?

Ett annat guld

Tags

,

Orden är tankar som fryst till kristall
Språket en bro in i själen
Kisa, se sanning och skönhet i strunt
Ur noten låt frambringa klangen

Min längtan är bortom och djupare in
En eko från Den Andra Världen
Skatten finns gömd mitt i sorlet och larmet
Mönstret som avtäcks, från Gud

Möt olikhet, tolkning och mänskligt förstånd
Med hårda och kalla maskiner
Elda försiktigt med vatten intill
Förtjäna din ved bakom plogen

Slutligen ändras allt, något blir till
För den som har fin hand med spjället
och hjärtat på det rätta stället

Värden med storskalig och automatisk dataanalys av människor och kultur

Tags

, , , , , , ,

Siffror och diagram är hårda, ord och bokstäver är mjuka. När de nu smälter samman i analysvärlden formas en ny mjuk-tuff analytiker-roll som är mer lik Bamse än vare sig Krösus Sork eller Lille Skutt.

Kvantitativt och kvalitativt – en rekapitulation 

När en kunnig litteraturvetare analyserar texterna från till exempel en poet inför en bredare publik brukar det innefatta både en tolkning av diktarens miljö och omständigheter och strukturella aspekter av lyriken såsom användandet av adjektiv och andra grammatiska särdrag. Det första, lite grovt, den kvalitativa analysen och det andra, på samma sätt, den kvantitativa analysen. Den stora konsten ligger i att välja rätt aspekter av respektive tillvägagångssätt och att balansera dem mot varandra till en sammanhängande och begriplig helhet.

Alltför kvalitativt och man förlorar sig lätt i en intellektuell snårskog av möjliga tolkningar och bedömningar av vad som är relevant för att besvara analysfrågorna. Alltför kvantitativt och man förlorar sig lika lätt i ett rationellt systembygge och, särskilt då man använder mjukvara och stora datamängder för analysen, i upptäckarglädje inför skinande nya leksaker.

Som traditionell medieanalytiker (min grund) är värdet av att ta sig tid att läsa och begrunda en enskild text uppenbart, medan värdet av att skumma igenom tusentals eller miljontals texter och ta mjukvara till hjälp för att besvara frågor som är till hjälp för kommunikatörer inte alltid så uppenbart. Det är lätt att avfärda sådana kvantitativa metoder som ytliga och lågvärdiga. Då missar man dock de nya möjligheter till värdeskapande som uppstått i och med digitaliseringen av stora mängder text och den nya tillgängligheten till mjuk- och hårdvara för kraftfull dataanalys.

Den kommersiella världens nya värden

Den kvantitativa analysen ger möjligheten att ta ett steg tillbaka så att man kan se den stora tavlan i all sin prakt och dessutom snabbt zooma in på den detalj som mot bakgrunden av helheten fångar ens intresse. Den ger en bra fingervisning om var man ska rikta sin energi och uppmärksamhet. Den är därför lysande för att besvara medie- och kommunikationsanalytiska frågor som:

  • Vilka är de mest centrala aktörerna och temana?
  • Hur hänger de ihop med varandra nu och över tid?
  • Vad är sannolikt att tro sker med dessa i framtiden?

Men det går även att få reda på information som tidigare varit praktiskt omöjlig att ta reda på såsom vilka ord som brukar förekomma före och efter ett visst begrepp. Analysföretaget Gavagai har gjort ett exempel på detta genom sitt självuppdaterande och språkoberoende lexikon, för att inte tala om de oerhörda framsteg som gjorts inom automatisk översättning, med det mest kända exemplet i Google Translate baserat på samma princip.

Det är dessa nya möjligheter som fött kommersiellt intressanta analysföretag som Recorded Future och Palantir, som båda bland annat försöker upptäcka säkerhetsrisker innan de blir allvar. Självfallet har det dykt upp mängder av företag vars ambitioner på värdetrappan för analystillämpningar är betydligt måttligare. Särskilt inom marknadsföring, där den nya tillgången till ren och skär grundfakta om engagemang och målgrupper är ett stort steg framåt.

Det finns en oändlig mängd nyttor och underhållningsvärden att skapa i de oändliga mängder mediedata som skapas nu. Den snabbrörliga kapitalismen har redan lärt sig att se skillnad på projekt där inte bara råmaterialet och slutprodukten är digital, utan även själva bearbetningen däremellan.

Den intellektuella världens nya värden

Jag har fortfarande inte sett ett lika fascinerande bruk av storskalig automatiserad medieanalys som projektet We Feel Fine av Jonathan Harris och Sep Kamvar från 2005. Syftet är enligt skaparna att utforska mänskliga känslor på en global skala och jag tycker att de lyckas med den äran. Det nya forskningsfältet digital humaniora är ett annat mycket spännande område som introduceras (och försvaras) bra i Franco Morettis bok Graphs, Maps, Trees – Abstract models for literary history. Med en intressant vändning ställer han sig frågan vad som händer om vi med hjälp av storskalighet och rationalitet vänder blicken från “det extraordinära till det alldagliga, från [det] exceptionella… till den stora mängden fakta”. Exempelvis att rikta vår dyrbara och därför begränsade uppmärksamhet från enskilda storheters , såsom en Shakespeare eller en Ingmar Bergman, till tusentals, eller rentav miljontals människors digitaliserade och digitala dagböcker från en viss tidsperiod.

Det finns oändlig skönhet och glädje att upptäcka på de mest oväntade håll i världen. Jag tror att digitala analysmetoder redan är på väg att hjälpa oss att se dem.

Vi är på väg in i ett både-och-samhälle. Den förkrossande majoriteten av all analys av texter i böcker, tidningar, dokument oavsett analogt eller digitalt format görs ännu manuellt, vilket är till gagn för det lilla fåtal människor och organisationer som har industrisamhället privilegium att utgöra Källorna. Den utjämnande kraften av teknologisk demokratisering går dock väldigt, väldigt snabbt.

Rätt använda låter maskinerna oss vara mer människor

Många använder sig tyvärr åt att skjuta insikts-mygg med data-kanoner genom att rikta analysen mot toppen av den långa kurvan, som vi inte behöver vare sig stora mängder material eller sofistikerade metoder för att se. Istället bör vi naturligtvis fånga de insikter som ligger i den långa svansen som utan rationella kvantitativa metoder inte är åtkomliga för den tolkning och reflektion som är människans paradgren.

Mot bakgrund av sen-kapitalismens allt ökande tryck på människor att bete sig som maskiner är det en mycket positiv utveckling att det gryende nätverkssamhället har fått maskinerna att börja avlasta oss genom att bete sig alltmer som människor.

Machine Learning and the future of Media Analysis

Tags

, , , , ,

The media industry: After digitisation comes machine learning

I’ve been working most of my life in and around media analysis and I believe machine learning and it’s younger sister data science is in an exponential trajectory in restructuring the whole business. I see a Ketchup-effect in the near future: first nothing, then nothing, then a drip and then all of a sudden – splash!

For you who are not familiar with that business its first of all very small market and it’s core is about measuring and evaluating PR efforts. The global organisation organizing most of the companies in this business is AMEC. It’s members are fundamentally different from the much larger media monitoring industry in that they (we) provide deeper and more tailored analysis of media content than the monitoring firms that focus on collecting and distributing media content. After the rise of social media there has also grown up an offshoot-industry around creating statistics around social media engagement by firms such as Socialbakers.

“Media Monitoring” is being eaten by data collection giants

The digitisation of media has gone on for quite some time now. One aspect is the traditional media companies themselves that go online, another is new media forms such as the social eco-system and a third is the inevitable change in the media “after-market” of monitoring and so-called listening tools. In the first wave digitalization meant scanning offline print to PDF before distribution to the after-market. The second wave meant actual raw data being delivered via API:s in raw machine readable formats such as JSON. This shift has meant the creation of new markets for data delivery, most notably in the form of data vendors Datasift and GNIP, but also specialized data vendors such as Spinn3r for blog data on a global scale.

Adding coders to business-as-usual or coding the new businesses?

From another side of the market a new industry has emerged that is a very different animal than traditional media monitoring and analysis companies. Therefore it has been hard to take into the equation for especially he analysis companies assessing the competitive landscape. The main reason is that it is technological at its core and have human analysts more as crusting to the cake or even in the sales positions, while in the traditional media monitoring in general and the media analysis business in particular it is by tradition the other way around. Here in Sweden the monitoring-turned-analysis company Meltwater is a good example. Based on a relatively simple technological product for monitoring and a strong focus on sales people it grew so much that it could make a strategic investment in an “AI-company”, buying a small team of around 10-15 machine learning specialists to add to their over hundred employees at the time. Applying machine learning atop their own monitoring product they are able to eat into the market for media analysis answering deeper questions about the content than just volume and simple key-word searches.

The growth potential in a truly data-centric business is unbeatable

For a business born out of the machine learning market media content is just another input source to their core text mining algorithms, however. Text mining currently experience a tremendous momentum due to the recent progress made in deep learning. It’s, just like data science, an interdisciplinary approach to content analysis that draws from advances in computing power, statistics and machine learning over many years, but happened to prove amazingly effective to current industry problems like classifying what’s in pictures really well. It’s currently quite a frenzy in applying the technique to all kinds of areas such as astronomy, biology, finance and of course marketing. Even this quiet little pond, measured as market size, as media analysis is currently hosting meetups where technologists show-and-tell about their experiments in the field.

What makes me think that the media analysis market will be more or less swept away the coming years?

Well, first of all the built-in productivity of any machine learning endeavor that has exponential growth built into its DNA (see slides below about why companies like Uber, Google, Apple, Valve etc exponentially outperform the competition) the business as compared to the business-as-usual way of adding more head-count especially in sales to grow.

Secondly I’ve been watching and in recent years experimenting myself with using this technology to answer the more complex questions of media analysis such as does the media coverage align with our brand strategy? What client-defined topics are used when describing our company? Those types of questions where probably possible to answer 10 years ago if you had a few million dollars to spare (or access to the few academics that where than developing the techniques that are now booming into market). Today all you need is really some fundamental coding skills and ability to ask the right questions and design the research projects well. This leads me to comment on the very prevalent over-confidence in algorithmic approaches to the analysis of communication and management of businesses based on data analysis. You really have to be reluctant to actually meet the realities of any business operations or manually reading through and tagging texts to come to the conclusion that algorithms by sheer magical power will produce useful insights.

A word of caution: don’t count out wisdom in the age of quick facts. 

Just like the mass hysteria to “prove the ROI” of PR in traditional media by measurement during the last 15 or so years is barking up the wrong tree (the right tree is going online for end-to-end measurability) the current tendency to fall in love with numbers in the age of cheap and abundant data and analysis capacity will be just a phase. The 10000-dollar question is really how to balance the tremendous power fallen into almost everyone’s hands due to the advances in the data analysis industry in general and machine learning/text mining industry in particular and the ability to identify business relevant questions to apply data-logical thinking and techniques to. And judging by history it will most likely NOT be the current players, fettered by current successes to defend and mind-sets based on how success was produced in an old business paradigm (the Innovators dilemma is a good read on this). My guess is that it will come from a small team with a large mission and a whole new set of skills and capabilities in machine learning and insight into why people share stuff online. Hint: it’s got a lot to do with the fundamental difference between people and machines.

Presentation at Södertörn University: A Twitter text database for research

I had the privilege to be invited to hold a talk at the higher seminar at the Media and Communication institution at Södertörn University on initiative by Jonas Andersson Schwartz recently. There I presented the idea to build an interdisciplinary available Twitter text database based on what I’ve collected and built for my amateur research. I am very grateful for the the attendance of the people at the seminar, people who I know have a busy schedule and/or many competing priorities ranging from infants to businesses to run.

The main idea is nothing more and nothing less than me donating my private database in exchange for that resources are made available to finance long-term administration, technical tender and time to initiate research relevant projects.I also present my own research interests, examples of my methodological approaches for large-scale “distant reading” of social media content and a glimpse of where I believe media research will go in the coming years. Why not have computational theology research done, for instance?

Video:

Slides:

Föreläsning: social kommunikation för webbredaktörer




För några dagar sen hade jag nöjet att få hålla en introduktionsföreläsning om social kommunikation på Medieinstitutets utbildning Webbkommunikatör Sociala Medier. Efter snart 10 år då sociala medier integrerats alltmer i alla kommunikatörers vardag är vi nu i ett intressant skede. Från att tidigare mestadels ha fokuserat på kanaler och deras logik börjar vi nu skönja nya frågeställningar kring automatisering. Än så länge handlar det mest om att schemalägga postningar, men från mitt perspektiv som data scientist med specialisering på kommunikationsbranschen tänker jag mycket på skillnaden mellan människa och maskin. De förändringar kommunikationsbranschen står inför, tror jag, handlar till mycket stor del om den filosofiska frågan.

Med utgångspunkt i ett antal framgångsrika personliga och företagsvarumärken resonerar jag därför med första- och andraårsstudenterna om frågor som:

  • Vad är de faktiska framgångsfaktorerna bakom social kommunikation?
  • Vilka delar av kommunikationsprocessen är lättast respektive svårast att automatisera?
  • Vad gör data-trenden med vår förståelse för målgrupper och relationer?

Studenterna kom med oerhört insatta och engagerade frågor och resonemang och jag hoppas att det här samtalet fortsätter både på de utbildningsinstitut som liksom Medieinstitutet formar nästa generations kommunikatörer och på nätet. Särskilt glad är jag för att så många stundenter visar intresse för samhällskommunikation och hur det nya digitala medielandskapet blivit spelplats för både problematisk populism och ren informationskrigsföring.

Det behövs att de goda krafterna mobiliseras i tider då det finns många som vill destabilisera samhället.

Tack för att jag fick initiera det här samtalet!

Follow

Get every new post delivered to your Inbox.