Pages

tiistai 26. huhtikuuta 2011

Väitös avoimen innovaation yhteisöistä pe 29.4 klo 12 TTY/Festia

Maria Antikaisen väitöskirja "Facilitating customer involvement in collaborative online innovation communities" tarkistetaan


pe 29.4 klo 12 alkaen Tampereen teknillisen yliopiston Festia rakennuksessa.

Teemana osallistumismotivaatiot, palkitseminen ja työkalut avoimen innovaation yhteisöissä.

VTT:n uutisointi väitöksestä.

maanantai 25. huhtikuuta 2011

Crowdsourcing - artikkeleita systemaattisesti yleisön toimesta

Kokonaisen artikkelin voi tehdä yleisön avulla crowdsourcing periaatteita noudattamalla. Mitä haasteita järjestelmälliseen yleisön käyttöön journalismissa liittyy ja on ratkottava, kun yleisöä pyydetään kontribuioimaan osallistumalla varsinaiseen tehtävien tekemiseen? Miten kompleksinen jutunteko -prosessi saadaan pilkottua pieniksi tehtäviksi?

Lyhykäisyydessään haasteet ja ratkottavat asiat liittyvät esimerkiksi:
1) tehtävien määrittelyyn ja jakamiseen
2) tuotetun materiaalin käsittelyyn
3) materiaalin laatuun
4) palkitsemiseen
5) crowdsourcing mallin muokkaamiseen ja prosessien taivuttamiseen toimintaan ja tavoitteisiin sopivaksi.

Tässä postauksessa on muutamia teemaan liittyviä löytöjä verkosta ja tutkimuksista no. kokonaisen artikkelin tekemisen näkökulmasta. Tässäkin blogissa on aiemmissa postauksissa muutamia esimerkkejä elävästä elämästä, mutta seuraavissa esimerkeissä on systemaattisesti lähdetty palastelemaan artikkelin kirjoittamista alusta loppuun yleisöä apuna käyttäen. MTurkista on jo paljon julkaistua tieteellistäkin tietoa, tässä on uudempia, viime aikaisia tai menossa olevia kokeiluja liittyen kompleksisten tehtävien, kuten artikkelin kirjoittaminen, suorittamiseen MTurkissa.

Amazon Mechanical Turk
Yksi tunnetuimmista crowdsourcing saiteista maailmalla on Amazonin Mechanical Turk . MTurk:issa "Requester:in" antamia tehtäviä (HIT, Human Ingelligence Tasks) suorittavat nk. Turker:it. Tehtävät, nk. mikrotaskit, ovat esimerkiksi kuvien valintaa, lauseiden uudelleen kirjoitusta tai jopa artikkelin tarkistamista. Tehtävän tekemisestä saa palkkion, mikäli tehtävän antaja hyväksyy suorituksen.

CrowdForge tehtävien palasteluun ja koostamiseen
Carnegie Mellon yliopiston tutkijoiden kokeilussa 36 kirjoittajan minitehtävinä koostettu encyclopedia-artikkeli sai paremman arvion kuin kokonaisen artikkelin kirjoittanut. Esimerkki: Ensimmäisenä tehtävänä on luoda jutulle runko alaotsikoineen. Näistä äänestetään tai koostetaan paras laadun varmistamiseksi (tehtävä). Tämän jälkeen kuhunkin osaan kerätään faktoja mikrotaskeina ja näistä puolestaan koostetaan kappaleen sisältö yhtenä tehtävänä. Sen jälkeen tehtävänä on koostaa juttu kappaleista. Erilaisia laadunvarmistuksia voidaan tehdä eri vaiheissa (kuten rungon osalta). Tehtävien palasteluun (partition, map) ja kokoamiseen (reduce) tutkijat tarjoavat CrowdForge nimistä sovellusta, joka on suoraan yhteydessä MTurkiin. Tämän jutun hinnaksi tuli alle neljä dollaria (kukin tehtävä noin 10 c arvoinen).

Tieteellisen artikkelin uutisointi crowdsourcing -menetelmällä
Crowdsourcing kokeilujen innoittamana ja yhteistyössä edellisten tutkijoiden kanssa, muutama journalisti on päättänyt kokeilla koko editoriaalisen prosessin hoitamista crowdsourcing periaatteella tieteellisen artikkelin uutisoimiseksi (ks. My Boss is a Robot). Ensimmäisenä tehtävänä oli "set the angle for the story and write the opening line". Tämä jaettiin kahteen tehtävään, joista ensimmäisenä tekijöiden tuli lukea abstrakti artikkelista ja kirjoittaa avaus (lead, 10 Turkeria) ja seuraavana tehtävänä oli lukea abstrakti ja poimia mielenkiintoisin avaus (20 Turkeria). Äänestyksen tulos ei ollut yksimielinen (max neljä ääntä samalle avaukselle).

Seuraavaksi tehtäväksi annettiin "mitä tapahtui" eli menetelmä osion kirjoittaminen. Ensimmäinen annettu tehtävä oli menetelmäosion kappaleiden erottaminen artikkelista. Kyseiset kappaleet annettiin seuraavassa tehtävässä eteenpäin, joiden pohjalta piti kirjoittaa tiivistelmä uutistyyliseksi yhdeksi kappaleeksi (10 Turkeria). Laadunvarmistus: Näistä valitaan esim. kaksi parasta, joista pyydetään Turkereilta yhdistelmä, tai Turkereita pyydetään äänestämään paras kymmenestä. Näin voidaan varmistaa, että laatu on riittävä, ja yksittäiset huonot vastaukset, eivät vaikuta lopputulokseen.

Tämä kokeilu on edelleen kesken ja odotellaan mielenkiinnolla jatkoa! Joka tapauksessa esimerkit tuovat esiin sen, että mitä kompleksisempi tehtävä annetaan yleisön tehtäväksi, sitä tärkeämpää on suunnitella tehtävän palastelu pienempiin osiin ja miten näistä koostetaan lopputulos varmistaen myös sen laatu.