Článek, z kterého vycházím,
napsala Sabine Niederer a José van Dijck. Obě autorky se zabývají novými médii
na univerzitě v Amsterdamu. Hlavní oblastí zájmu Niederer je vliv technologie
na webové obsahy. Profesorka van Dijck se zabývá výzkumem v oblasti médií
a vědy, technologiemi médií, digitální kulturou atd. V roce 2013 vydala
knihu The Culture of Connectivity. A
Critical History of Social Media.
V článku, který společně
napsaly a který vyšel v roce 2010 v časopise New Media & Society,
rozebírají Wikipedii jako příklad webové stránky tvořené kolektivně, tj. přispíváním
mnoha různých uživatelů. Ukazují ovšem, že klasický pohled na problematiku webů
2.0 a s tím související kolektivní inteligenci a produsage, je do jisté míry
černobílý. Opomíjí totiž důležitý faktor ovlivňující webové obsahy a to
technologické nástroje jako jsou softwarové skripty a samotná hierarchická
struktura uživatelů s odstupňovanými právy a přístupy. Autorky upozorňují,
že výzkumníci se primárně zaměřovali na lidské aktéry. Diskutovali kvalitu,
objektivitu a přesnost zveřejňovaných informací v souvislosti se
schopností anonymních amatérů příspěvky produkovat. Niederer a van Dijck ovšem
tento úhel pohledu problematizují a popisují tento typ webových stránek (web
2.0) jako sociotechnický systém, v němž spolupracují a vzájemně se
doplňují živí uživatelé a automatizované systémy kontroly obsahu.
Článkem prostupují 3 základní
témata. Za prvé je to otázka, zda jsou informace na Wikipedii napsány pár
elitními uživateli nebo se jedná o mnoho různých přispěvatelů. Původní myšlenka
zakladatelů Wikipedie byla, aby ji napsala vybraná skupina odborníků. Tento
postup byl ovšem velmi pomalý a postupně tak začalo do Wikipedie přispívat více
a více lidí. Od roku 2006 tak klesá počet tzv. elitních uživatelů a otevírá se
přístup i nezkušeným nováčkům. Jak ovšem upozorňují autorky článku tento trend
je možný právě díky technologickým nástrojům a hierarchickému řízení obsahu. Ve
skutečnosti sice na Wikipedii může přispívat každý, ale často pak dojde k tomu,
že jeho příspěvek je „přepsán“ uživatelem, který stojí v hierarchii práv a
přístupů výše. Potom tak dochází k tomu, že většina článků je stejně
editována tzv. elitou.
Druhé téma se týká kvality
samotných příspěvků, tedy jejich přesnosti a neutrality. Řada badatelů
zpochybňuje pravdivost a přesnost informací na Wikipedii z důvodu anonymity
některých uživatelů, kdy neznáme jejich zájmy ani odbornost. Tato anonymita je
ovšem diskutabilní. Technický rozvoj umožňuje řadu věcí a nyní je možné u
každého příspěvku dohledat konkrétní IP adresu, z které byl přidán. Tu je
pak možné propojit s kontaktními údaji nebo zjistit, z jaké společnosti
byl příspěvek publikován. Tím se samotná anonymita uživatelů ztrácí. Rovněž je
nutné dodržovat 3 pravidla pro zveřejňování informací na Wikipedii – informace musí
být možné ověřit, nesmí se jednat o žádný původní výzkum a musí být zachováno
neutrální hledisko. Je-li některý z těchto tří principů porušen, příspěvek
je smazán.
Posledním tématem v článku je
závislost uživatelů na tzv. softwarových robotech, které mají za úkol sledovat strategii
v tvorbě obsahů. Umožňují automatické úpravy příspěvků, aniž by k tomu
potřebovali lidský zásah nebo rozhodnutí. Jde o naprogramované skripty, které
mají dokonce svou vlastní uživatelskou stránku a disponují určitou mírou práv a
přístupů. Jejich počet od roku 2002 razantně stoupl. Tehdy byl pouze jeden
jediný „robot“, v roce 2006 už jich bylo 151 a do roku 2008 se jejich
počet ještě ztrojnásobil. Existují dva typy „robotů“ – editační a
administrativní. Editační zasahují do obsahu příspěvků. Jsou dokonce nejaktivnějšími
přispěvateli na Wikipedii. V roce 2002 například Derek Ramsey
naprogramoval tzv. rambota, který stahoval informace z veřejných databází
a vytvářel z nich podle dané struktury články. Uživatelé pak samozřejmě
měli možnost tyto příspěvky kontrolovat, přidávat k nim obrázky, upravovat
apod. Rambot vytvořil do roku 2010 kolem 30 000 článků. Druhou skupinou
jsou pak „roboti“ administrativní, jejichž hlavními úkoly je blokovat spamy, dohlížet
na dodržování autorských práv, blokovat nevhodné uživatele, zabraňovat
vandalismu jako je například mazání velkého množství obsahu apod. Čísla ukazují,
že skoro 22 % editací na Wikipedii je provedeno prostřednictvím „robotů“. Toto
procento pak rapidně vzrůstá v případě Wikipedií v jazycích, které
jsou používány menším počtem lidí nebo jsou dokonce blízko k zániku. Tento
jev reprezentují obrázky níže. Vnější kruh zobrazuje velikost Wikipedie v daném
jazyce, černá tečka uvnitř pak ilustruje poměr aktivity „robotů“ pro danou
jazykovou variantu Wikipedie.
Wikipedie a další web 2.0
platformy jsou zajímavé nejen svou interaktivitou a tím, že každému umožňují
podílet se na jejich tvorbě a zároveň je využívat. Jejich nedílnou součástí je
ale i konkrétní systém a technologie, která spoluurčuje konkrétní podobu těchto
webových stránek. Uživatel tak není kontrolován pouze experty a dalšími
uživateli, ale je podřízen určitým pravidlům, hierarchii práv a přístupů a
technologickým nástrojům, které mají možnost uživatelovi příspěvky editovat a
ovlivňovat jeho celkové působení na takovém webu. Autorky tak apelují na
nutnost pochopit a přijmout fakt, že se nejedná pouze o lidské aktéry, kteří se
na obsahu nejen Wikipedie podílejí, ale že jde i o technická specifika a
nástroje, které hrají významnou roli a které není možné přehlížet. Navrhují
proto rozšíření tohoto přístupu na výzkum i dalších webů typu 2.0.
Zdroj:
NIEDERER, Sabine a José VAN DIJCK. Wisdom of the crowd or technicity of content? Wikipedia as a sociotechnical system. New Media & Society. 2010, č. 8.
Věděli jste, že robotizace práce postoupila už i na wikipedii? Já jsem teprve nedávno zjistili, že počítačový program píše články na wikipedii. Všimla jsem si toho docela nedávno. Jelikož když zemřel známý český zpěvák, tak na wikipedii byl téměř okamžitě článek na 2 stránky, kdežto bulvár napsal jen titulek.
ReplyDelete