Atjaunināt sīkdatņu piekrišanu

E-grāmata: Evaluation in the Crowd. Crowdsourcing and Human-Centered Experiments: Dagstuhl Seminar 15481, Dagstuhl Castle, Germany, November 22 - 27, 2015, Revised Contributions

Edited by , Edited by , Edited by
  • Formāts: PDF+DRM
  • Sērija : Lecture Notes in Computer Science 10264
  • Izdošanas datums: 27-Sep-2017
  • Izdevniecība: Springer International Publishing AG
  • Valoda: eng
  • ISBN-13: 9783319664354
  • Formāts - PDF+DRM
  • Cena: 53,52 €*
  • * ši ir gala cena, t.i., netiek piemērotas nekādas papildus atlaides
  • Ielikt grozā
  • Pievienot vēlmju sarakstam
  • Šī e-grāmata paredzēta tikai personīgai lietošanai. E-grāmatas nav iespējams atgriezt un nauda par iegādātajām e-grāmatām netiek atmaksāta.
  • Formāts: PDF+DRM
  • Sērija : Lecture Notes in Computer Science 10264
  • Izdošanas datums: 27-Sep-2017
  • Izdevniecība: Springer International Publishing AG
  • Valoda: eng
  • ISBN-13: 9783319664354

DRM restrictions

  • Kopēšana (kopēt/ievietot):

    nav atļauts

  • Drukāšana:

    nav atļauts

  • Lietošana:

    Digitālo tiesību pārvaldība (Digital Rights Management (DRM))
    Izdevējs ir piegādājis šo grāmatu šifrētā veidā, kas nozīmē, ka jums ir jāinstalē bezmaksas programmatūra, lai to atbloķētu un lasītu. Lai lasītu šo e-grāmatu, jums ir jāizveido Adobe ID. Vairāk informācijas šeit. E-grāmatu var lasīt un lejupielādēt līdz 6 ierīcēm (vienam lietotājam ar vienu un to pašu Adobe ID).

    Nepieciešamā programmatūra
    Lai lasītu šo e-grāmatu mobilajā ierīcē (tālrunī vai planšetdatorā), jums būs jāinstalē šī bezmaksas lietotne: PocketBook Reader (iOS / Android)

    Lai lejupielādētu un lasītu šo e-grāmatu datorā vai Mac datorā, jums ir nepieciešamid Adobe Digital Editions (šī ir bezmaksas lietotne, kas īpaši izstrādāta e-grāmatām. Tā nav tas pats, kas Adobe Reader, kas, iespējams, jau ir jūsu datorā.)

    Jūs nevarat lasīt šo e-grāmatu, izmantojot Amazon Kindle.

As the outcome of the Dagstuhl Seminar 15481 on Crowdsourcing and Human-Centered Experiments, this book is a primer for computer science researchers who intend to use crowdsourcing technology for human centered experiments.

The focus of this Dagstuhl seminar, held in Dagstuhl Castle in November 2015, was to discuss experiences and methodological considerations when using crowdsourcing platforms to run human-centered experiments to test the effectiveness of visual representations. The inspiring Dagstuhl atmosphere fostered discussions and brought together researchers from different research directions. The papers provide information on crowdsourcing technology and experimental methodologies, comparisons between crowdsourcing and lab experiments, the use of crowdsourcing for visualisation, psychology, QoE and HCI empirical studies, and finally the nature of crowdworkers and their work, their motivation and demographic background, as well as the relationships among people forming the crowdsourcing community.

Evaluation in the Crowd: An Introduction
1(5)
Daniel Archambault
Helen C. Purchase
Tobias Hoßfeld
Crowdsourcing Versus the Laboratory: Towards Human-Centered Experiments Using the Crowd
6(21)
Ujwal Gadiraju
Sebastian Moller
Martin Nollenburg
Dietmar Saupe
Sebastian Egger-Lampl
Daniel Archambault
Brian Fisher
Understanding the Crowd: Ethical and Practical Matters in the Academic Use of Crowdsourcing
27(43)
David Martin
Sheelagh Carpendale
Neha Gupta
Tobias Hoßfeld
Babak Naderi
Judith Redi
Ernestasia Siahaan
Ina Wechsung
Crowdsourcing Technology to Support Academic Research
70(26)
Matthias Hirth
Jason Jacques
Peter Rodgers
Ognjen Scekic
Michael Wybrow
Crowdsourcing for Information Visualization: Promises and Pitfalls
96(43)
Rita Borgo
Bongshin Lee
Benjamin Bach
Sara Fabrikant
Radu Jianu
Andreas Kerren
Stephen Kobourov
Fintan McGee
Luana Micallef
Tatiana von Landesberger
Katrin Ballweg
Stephan Diehl
Paolo Simonetto
Michelle Zhou
Cognitive Information Theories of Psychology and Applications with Visualization and HCI Through Crowdsourcing Platforms
139(15)
Darren J. Edwards
Linda T. Kaastra
Brian Fisher
Remco Chang
Min Chen
Crowdsourcing Quality of Experience Experiments
154(37)
Sebastian Egger-Lampl
Judith Redi
Tobias Hoßfeld
Matthias Hirth
Sebastian Moller
Babak Naderi
Christian Keimel
Dietmar Saupe
Author Index 191