Вы находитесь на странице: 1из 37

Mappatura della svolta geospaziale

Todd Presner e David Shepard

Il sottocampo della mappatura, visualizzazione geo-temporale e storytelling locativo


all'interno delle discipline umanistiche digitali è esplosa negli ultimi anni. Ragioni per questo
sviluppo includono la recente ubiquità di dispositivi abilitati per il web e il GPS, la
semplificazione del software tecnico necessario per creare mappe e l'ampia disponibilità di
immagini storiche e set di dati geografici. Tentativi per caratterizzare questo campo hanno
usato una serie di termini convergenti per descrivere la "svolta spaziale" nelle discipline
umanistiche digitali, la nascita di "discipline umanistiche spaziali" come campo di ricerca e
metodologia, e l'emergere di studi umanistici geografici come indagine basata
sull’intersezione creativa tra geografia e discipline umanistiche (Guildi, senza dati;
Bodenhamer et al., 2010; Dear et al., 2011). Sarebbe riduttivo affermare che metodi
quantitativi derivanti da sistemi di informazione geografica (GIS) sono semplicemente
metodologie usate per cambiare qualitativi, storici e interpretativi di discipline umanistiche;
piuttosto, gli studi umanistici geografici hanno accelerato una riconcettualizzazione
accademica del significato del posto in relazione alla narrativa, alle pratiche di
rappresentazione, e alle tecnologie digitali. "Spazio" e "tempo" non sono contenitori vuoti o
determinate categorie; sono invece costruzioni locate e problemi concettuali che richiedono
una molteplicità di approcci alla mappatura. Pertanto, richiedono una consapevolezza
storica di modi differenti e culturalmente specifici per concettualizzare "Spazio" e "tempo".
Al suo livello più elementare, una mappa è un tipo di visualizzazione che utilizza livelli di
astrazione, scala, sistemi di coordinate, prospettiva, simbologia e altre forme di
rappresentazione per trasmettere una serie di relazioni. La mappa potrebbe avere o meno
un qualche tipo di referente a una "realtà esterna" (comunque la si definisca), ma le mappe
sono sempre relazionali, dal momento in cui qualcosa è inscritto in relazione a qualcos'altro.
Nella storia della cartografia, negli studi di cartografia critica e, più recentemente, nella
cartografia radicale, le mappe hanno dimostrato di essere "sistemi di proposizioni", per usare
Il termine di Denis Wood, nel senso che creano sempre discussioni e affermazioni (e, in tal
modo, anche per escludere, mettere a tacere e cancellare altre discussioni e rivendicazioni)
(Wood, 2010: 34).
La storia della cartografia tradisce i molti modi in cui le mappe sono implicate nelle ideologie
di scoperta, proprietà e controllo nel modellare il potere e la portata dello stato-nazione,
incoraggiando la volontà coloniale a conoscere e codificando le dinamiche di potere come
espressioni naturalizzate di un mondo presumibilmente "là fuori". Molto lavoro è stato fatto
nelle discipline umanistiche, nella geografia e negli studi di cartografia critica per
"denaturalizzare" il mappare ed esporre le ipotesi strutturanti, epistemologie e visioni del
mondo che governano la sua forma proposizionale.
La mappatura nelle discipline umanistiche digitali va dalla mappatura storica dei "livelli
temporali" alle mappe di memoria, alla mappatura linguistica e culturale, alla mappatura
concettuale, alla comunità basata sulla mappatura e a forme di contro-mappatura che
tentano di deontologizzare la cartografia e immaginare nuovi mondi. Negli anni '50, i membri
dell'esperimento del gruppo situazionista hanno sviluppato un approccio per sperimentare gli
spazi urbani che essi definiscono "psicogeografia" al fine di creare una nuova
consapevolezza critica dell'ambiente urbano. Allo stesso modo vengono utilizzate mappe
cognitive speculative per modellare l'esperienza in molti domini della vita umana in cui alle
proprietà qualitative viene data dimensione e formale valore in forma visiva. Inoltre, con i
media locativi, il panorama fisico e l'ambiente creato è curato e annotato per produrre
esperienze maggiori. I dati dei paesaggi possono essere curati nello spazio fisico della città,
consentendo a un utente con un dispositivo mobile abilitato al Global Positioning System
(GPS), ad esempio, ad ascoltare paesaggi sonori geo-coordinati mentre si cammina lungo
un marciapiede, o seguire le orme dei morti, o ascoltare storie raccontate da generazioni di
immigrati su un quartiere.
Tali indagini locative riuniscono gli strumenti analitici di GIS, la struttura e le capacità di
database geo-temporali e le interfacce dei dispositivi mobili GPS abilitati.
Mentre le critiche alle tecnologie GIS e GPS sottolineano giustamente il loro investimento e
dispiegamento da parte di infrastrutture militari e aziendali (Parks, 2005), queste stesse
tecnologie sono state anche riproposte in modi che destabilizzano i confini fisici e facilitano
le forme critiche di contro-mappatura, sovversione e hacktivismo.
Ad esempio, Ricardo Dominguez, fondatore della Electronic Disturbance Theatre, ha
sviluppato lo "strumento di immigrazione transfrontaliera", un telefono riciclato dotato di un
GPS ricevitore, mappe GIS e una bussola digitale per guidare gli immigrati verso riserve
d'acqua e per la sicurezza nel deserto tra Messico e California meridionale. Come Elizabeth
Losh spiega il progetto di Dominguez, "la sottoclasse dei migranti globali incapace di
permettersi i cosiddetti smartphone non sarebbe più "al di fuori di questa griglia di potere di
iper mappatura geografica "(" Transborder Immigrant Tool ") e la dura realtà del panorama
dei confini potrebbe essere ampliata digitalmente per promuovere una diversa forma di
politica ” (Losh, 2012: 169). In altre parole, come ha affermato Laura Kurgan nel suo stesso
lavoro sia utilizzando che sovvertendo le tecnologie digitali di localizzazione, è possibile
rivendicare, riutilizzare e politicizzare queste tecnologie di mappatura facendo leva sulle
"loro opacità, le loro assunzioni e gli obiettivi prefissati ”attraverso modalità creative e
attivistiche critiche. (Kurgan, 2013:14).

Una breve storia di GPS e GIS

La storia dei satelliti di telerilevamento risale agli anni '60 con il lancio dei primi satelliti spia
militari e la ricerca per costruire il Sistema di posizionamento globale (GPS). Completati nel
1993, i 24 satelliti e le cinque stazioni terrestri forniscono segnali che consentono ai ricevitori
di calcolare con precisione e potenzialmente indirizzare qualsiasi punto del pianeta in base a
latitudine, longitudine, altitudine e tempo. GIS - diversamente chiamato sistema di
informazione geografica o scienze - si riferisce agli strumenti computazionali e software per
l'analisi di dati geografici e la produzione di mappe basate su tali dati. GIS deriva da una rete
di interessi competitivi ed intersecati, che vanno dal tasso e interessi militari a quelli libertari
governativi e civili. Era solo a causa di questo interscambio corporativo-governativo che
sono nati gli strumenti e le sfide politiche di dati spaziali aperti che ora conosciamo. Oggi
applicazioni di mappatura basate sul web come Google Earth, OpenStreetMap e WorldMap
hanno portato gli strumenti analitici di GIS al grande pubblico e stanno cambiando il modo in
cui le persone creano, visualizzano, interpretano e accedono alle informazioni geografiche.
Le prime tecnologie basate sulla posizione sono state sviluppate negli anni '60 da una
varietà di interessi del governo concentrati sulla gestione del territorio. Uno dei primi grandi
programmi GIS era CGIS, il Canada Geographic Information System, sviluppato per il
Canada Land Inventory, iniziato nel 1962 (Tomlinson, 2012). Ma lo sviluppo dei sistemi GIS
su larga scala non è iniziato fino alla fine degli anni '70, con la creazione di MOSS (Map
Overlay and Statistical System) dagli US Fish and Wildlife Services. MOSS è stato
sviluppato dalla Federazione degli Stati delle Montagne Rocciose, un'organizzazione no
profit, ed è stato il primo GIS interattivo, basato su vettori, ampiamente diffuso (Reed, 2004).
Allo stesso modo, Army Corps of Engineers ha sviluppato GRASS (Geographic Resources
Analysis Support System) nel 1982. MOSS e GRASS sono stati i primi sistemi distribuiti su
larga scala utilizzati da una varietà di clienti in uffici diversi. Alla fine GRASS è stato reso
disponibile per la comunità accademica internazionale e aveva circa 6000 utenti all'inizio del
1990. La presenza di due sistemi ampiamente utilizzati (più altri) con diversi punti di forza ha
indotto gli utenti a voler scambiare dati tra i due.Il GRASS Interagency Steering Committee
(GIASC) e il gruppo di utenti GRASS si sono fusi per formare la fondazione di Open GRASS
(OGF). OGF ha riunito società private, agenzie governative,e utenti accademici per guidare
lo sviluppo di standard condivisi per software interoperabili. OGF alla fine divenne l'Open
Geospatial Consortium, l'organizzazione che noi conosciamo oggi (McKee, 2013). Gli
standard che ha creato erano per garantire la compatibilità tra le applicazioni anziché
generare dati aperti per il consumo pubblico.
Probabilmente il primo progetto di mappatura umanistica computerizzata è seguito poco
dopo lo sviluppo della tecnologia GIS. All'inizio degli anni '70, i linguisti Mario Alinei,
Wolfgang Viereck e Antonius Weijnen hanno condotto un progetto di ricerca per mappare i
modelli di utilizzo del linguaggio in Europa,l’ Atlante Linguarum Europae ("Atlante linguistico
dell'Europa"). L’ALE ha inviato lavoratori in 3000 località dal Portogallo alla Russia per
sondare i locali sulle parole usate per concetti particolari, con l'obiettivo di descrivere l'uso
della lingua indipendentemente da confini nazionali o categorie di lingua come "italiano" o
"spagnolo", il vocabolario che si usave nei dialetti regionali e in altre lingue parlate in quelle
nazioni. I risultati furono mappati usando un plotter computerizzato (Weijnen e Alinei, 1975)
e pubblicati come una serie di mappe stampate a partire dal 1983 (Alinei, 2008).
Il progetto è stato aggiornato ed è in corso. A parte l'ALE, tuttavia, la tecnologia di
mappatura non era ampiamente diffusa nelle discipline umanistiche negli anni '70 e '80 a
causa del costo e della natura esoterica del GIS; l'ALE potrebbe avvalersi di queste
tecnologie all'avanguardia perché è stato uno sforzo internazionale diffuso tra più università
che ha ricevuto finanziamenti dall'UNESCO.
Negli anni '90, mentre l'Open Geospatial Consortium stava crescendo, il campo del "web"
mapping "è emerso parallelamente allo sviluppo dei browser web. Questa transizione da
GIS dal desktop al web è stato profondo in vari modi, dal tecnico al sociale. Mentre c'erano
certamente molte sfide tecniche da superare per rendere il Web mapping disponibile al
pubblico, la più grande trasformazione è arrivata nella mentalità e nel lavoro pubblico degli
stessi mapmaker. Sistemi GIS basati su desktop sono stati principalmente utilizzati per
produrre mappe di stampa, mentre le mappe basate sul web erano destinate ad un pubblico
(potenzialmente) globale. Le mappe statiche sono state sostituite da dinamiche, in tempo
reale, mappe animate interattive e, a volte, anche ambienti 3D immersivi. I dati
erano fungibili e potevano essere manipolati da utenti che potevano modificare in modo
interattivo ciò che vedevano su una mappa, tramite opzioni come query spaziali, filtri,
interruttori,slider del tempo, panning e zoom. Lo sviluppo del web mapping è iniziato sul
serio nel 1994, quando Xerox PARC presentò un primo server cartografico alla prima
Conferenza mondiale Wide Web (Putz, 1994). La mappatura Web ha fatto un altro passo
significativo quando MapQuest pubblicò la sua prima mappa web nel 1996. ESRI rilasciò i
suoi primi prodotti web professionali GIS come Map Objects, ArcGIS e ArcIMS,
rispettivamente nel 1998, 1999 e 2000. ArcGIS (come lo conosciamo oggi) è stato rilasciato
per la prima volta come versione 8.0 nel 1999,e combinava altri due prodotti, ArcView e Arc/
Info. Sebbene questi primi strumenti fossero primitivi per gli standard moderni e deboli
rispetto a ciò che Google Maps avrebbe potuto fare nel 2005, essi hanno aperto le porte
all'interesse pubblico per le mappe basate sul Web che potevano essere unite ad altri tipi di
dati.
Con l'improvvisa visibilità dei dati geografici, gli standard dei dati spaziali sono diventati una
questione politica, non solo una questione di compatibilità. Nel 2000, OGC ha pubblicato il
suo primo standard di mappatura, Web Map Service e un altro nel 2003, Web Feature
Service. Quando Google ha acquistato Keyhole, Inc. e con esso il programma diventato
Google Earth,ha presentato il Keyhole Markup Language (KML) interno all'OGC per la
standardizzazione formale (Open Geospatial Consortium, 2008). Allo stesso tempo,la
comunità dei geo-sviluppatori ha iniziato a creare alternative al governo e alle imprese
che fornivano software e dati. OpenLayers, un'alternativa open source a Google Maps,
venne rilasciata nel 2006. OpenStreetMap, un'iniziativa di mappatura guidata da volontari,
ha iniziato lo stesso anno,a seguito di una frustrazione causata dal rifiuto del governo
britannico di rilasciare una versione aperta delle sue mappe Ordnance Survey
(OpenStreetMap, senza dati). Oggi, GeoServer (http://geoserver.org) è il server software
open source certificato dall'OGC per la condivisione di dati spaziali, mappe e
geo-visualizzazioni interoperabili e conformi agli standard a livello globale.
Altre piattaforme, come il sito della comunità ESRI, GeoCommons (http: // geocommons.
com), sono anche online negli ultimi anni per condividere apertamente i dati geografici.
Questa transizione alla mappatura web ha quindi spostato la dinamica di chi è stato in grado
di creare mappe. I governi, i militari, le corporazioni, i geografici professionisti, gli urbanisti e i
cartografi non erano più gli unici creatori di mappe ufficiali.
L'espansione sul Web, unita alla disponibilità di immagini satellitari, fornitori di dati e API di
mappatura da Google a OpenLayers, ha portato via l’aspetto che richiedeva molto tempo di
dover acquisire mappe di base e imparare software astrusi. Ha potenziato un’intera
generazione di mappatori che ora sono in grado di creare mappe Web con solo un po’ di
conoscenza della programmazione. Fino ad oggi, la spinta per lo scambio di dati spaziali
aperti continua a venire da molte direzioni.
Nonostante i cambiamenti nelle tecnologie, sembra opportuno che 30 anni dopo, alcuni dei
i programmi GIS originali sono ancora validi progetti open source che interagiscono con le
nuove tecnologie di mappatura web. GRASS (http://grass.osgeo.org) funziona su Windows,
Mac OS e Linux oggi, e ha ancora una solida comunità di utenti. Cosa erano una volta
gli strumenti del governo hanno trovato nuova vita come progetti open source, nello stesso
modo in cui noi riutilizziamo l software di mappatura web aziendale e i dati raccolti dai
satelliti spia ad autorizzare le organizzazioni della comunità e le organizzazioni no profit a
raccontare e creare le proprie storie le loro mappe. La standardizzazione che è iniziata come
un problema di compatibilità ha portato alla capacità di raccontare altre narrazioni e creare
contromappe.
La svolta spaziale nelle discipline umanistiche digitali

Quando Google ha rilasciato il suo ​Maps application programming interface​ (API) nell'estate
del 2005 (seguita dalla sua Earth API poco dopo), si è verificata una piccola rivoluzione.
Chiunque avesse competenze di programmazione di base poteva ora integrare la mappa del
mondo di Google e le immagini satellitari di accompagnamento nei singoli siti Web, creare e
contrassegnare le mappe utilizzando queste immagini e persino sviluppare nuovi software
utilizzando Google Maps. All'improvviso, il mondo esoterico di GIS fu aperto alle masse di
neo-geografi sul web e i mashup di mappe fiorirono quasi da un giorno all'altro. Il markup
geografico e temporale sono diventati campi di metadati indispensabili per una vasta gamma
di contenuti Web, spingendo Michael Jones, il capo tecnologo di Google, a emettere la
missione della sua azienda: "organizzare geograficamente le informazioni del mondo e
renderle universalmente accessibili e utili" (Jones, 2007).
Mentre Google ha a malapena inventato (figuriamoci organnizato) la rete geospaziale, è
notevole che il numero di progetti di mappatura digitale sia esploso da quando le tecnologie
di mappatura, i geodati e le immagini satellitari sono state messe nelle mani delle masse.
Lungi dall'essere non riconosciuto, come ha sostenuto Martyn Jessop in un articolo
provocatorio pubblicato nel 2007, la geo-rivoluzione è stata ripresa dalle discipline
umanistiche digitali in innumerevoli modi, nonostante - o forse a causa di - problemi
fondamentali che ha identificato per spiegare l’assunzione presumibilmente lenta dell'analisi
geografica e della visualizzazione nelle discipline umanistiche: la natura sfocata dei dati
delle discipline umanistiche; il fatto che la maggior parte degli umanisti lavora con fonti
testuali, visive e sonore che non si prestano ad astrazioni geometriche o matematiche; e i
persistenti silos disciplinari che hanno impedito serie collaborazioni tra umanisti e geografi,
urbanisti, architetti, archeologi, antropologi e altri che lavorano con dati spaziali.
Negli ultimi dieci anni, la svolta geospaziale nelle discipline umanistiche digitali è stata
catalizzata da una serie di cambiamenti convergenti istituzionali, tecnologici e intellettuali.
Questi includono gli sforzi delle principali biblioteche e musei, come (tra gli altri) la Newberry,
la Huntington Library, la University of Southern California, la University of Virginia e la New
York Public Library, nonché iniziative private come la David Rumsey Map Collection, per
geo-codificare atlanti storici e mappe, giornali e raccolte fotografiche. Allo stesso tempo, un
numero di piattaforme GIS storiche, come Social Explorer, sono online. Social Explorer
(www.socialexplorer.com) fornisce informazioni demografiche, dal reddito mediano
all'affiliazione religiosa, per gli Stati Uniti dal 1790 a vari livelli geografici, dallo stato e dalla
contea al tratto censuale, al gruppo blocco, al codice postale e al luogo del censimento.2
Un progetto analogo è A Vision of Britain through Time (www.visionofbritain.org.uk), che
consente agli utenti di scaricare report di censimento nel corso del diciannovesimo secolo e
ventesimo secolo, una vasta gamma di mappe storiche, dati geografici statistici e persino
scritti di viaggio con codifica geografica.
Una delle infrastrutture più grandi e di maggiore impatto per la costruzione della comunità
iniziative è stata l'Electronic Cultural Atlas Initiative (ECAI), uno sforzo internazionale che
è nato alla UC Berkeley nel 2001. L'ECAI ha creato una federazione di studiosi che lavora
su scienze umane GIS e divenne un portale per i dati geografici storico-culturali, in
particolare per lo sviluppo di dizionari geografici digitali (dizionari strutturati di luoghi
geografici). ECAI i progetti di mappatura erano piuttosto diversi, mappando le lingue nel
Pacifico, la cultura impatto della via della seta e della storia di Sydney, in Australia, tra le
altre cose. Esso ha inoltre fornito software per la visualizzazione di dati geografici nel tempo,
ad esempio "timemap" sebbene i programmi siano stati sostituiti da strumenti più aggiornati.
Tuttavia, questi sforzi hanno avuto un ruolo significativo nella maturazione del GIS storico, lo
sviluppo di metadati standard e dati geografici collegati, dando origine giornalisti a visione
globale come il Digital Gazetteer of the Song Dynasty di Ruth Monstern e Elijah Meeks
(​Http://songgis.ucmerced.edu​).
Progetti e sforzi simili erano in corso anche in altre discipline storiche. Iniziato nel 1993 e
completato nel 2007, il progetto The Valley of the Shadow di Edward Ayers
(http://valley.lib.virginia.edu) è un'indagine basata sul luogo di due comunità durante la
guerra civile americana, una settentrionale e una meridionale . Pur non essendo, a rigor di
termini, un progetto di mappatura, l'archivio presenta una moltitudine di lettere, diari,
documenti di soldati, articoli di giornali, documenti di censimento e altri documenti che
consentono query basate su contea, periodo di tempo e tipo di documento. Piuttosto che
presentare una visione globale con pretese all'oggettività, The Valley of the Shadow agisce
come una forma rudimentale di ciò che siamo arrivati ​a chiamare una "mappa spessa", una
mappa che espone una varietà di fonti che possono essere acquistate insieme per
raccontare un qualsiasi numero di storie più piccole. Altri progetti, come Atlantic Europe in
the Metal Ages al King's College di Londra (www.aemap.ac.uk), hanno utilizzato il GIS per
testare ipotesi specifiche, in questo caso se e come i celtici si sono evoluti dall'Indo-Europa
nell'Atlantico durante l’Età del bronzo, utilizzando un insieme di dati storici, linguistici e
archeologici.
L'ondata di progetti di digitalizzazione dei testi e markup su larga scala iniziati negli anni '90
hanno spianato la strada allo sviluppo di standard di geo-codifica attraverso Text Encoding
Initiative (TEI) e Geography Markup Language (GML). Mentre i dati dei luoghi possono
essere indicati a molti livelli (dai dati dei punti e l'indirizzo alla città o al paese), il markup più
granulare fornisce la posizione in termini di latitudine e longitudine in base a un sistema di
coordinate standard, solitamente World Geodetic System 84 (WGS: 84). Mentre i dati
umanistici a volte possono rientrare in un tale quadro di riferimento, altre volte questi dati
non lo fanno, specialmente quando consideriamo l'incertezza o la variabilità nella
documentazione storica, nelle geografie immaginative o speculative, i modi non occidentali
di concettualizzare lo spazio e il luogo o le esperienze soggettive di spazio che
semplicemente non si associano a sistemi di coordinate standard o proiezioni. Allo stesso
tempo, i sistemi di coordinate standard e le proiezioni consentono di condividere i dati su più
piattaforme, cosa che potenzialmente consente a più utenti e comunità di raccontare le
proprie storie creando le proprie mappe. Guidata da David Germano, la Tibetan and
Himalayan Digital Library (www.thlib.org) offre una piattaforma di pubblicazione, un sistema
di informazioni in rete e una biblioteca multilingue per accedere e analizzare una vasta
gamma di informazioni codificate spazialmente, tra cui testi, immagini, video, mappe storiche
e livelli di dati GIS, relativi all'altopiano tibetano e all'Himalaya meridionale. Facilita inoltre la
conoscenza partecipativa nelle comunità locali, consentendo ai "cittadini studiosi" di
documentare e raccontare le proprie storie, aderendo agli standard e facilitando
l'interoperabilità dei dati.
In archeologia e classici, la mappatura ha sfruttato la terza e la quarta dimensione attraverso
progetti di ricostruzione digitale. Il Digital Roman Forum
(http://dlib.etc.ucla.edu/projects/Forum), guidato da Bernard Frischer e Diane Favro tra il
1997 e il 2003 come parte del Laboratorio di Realtà Virtuale della UCLA, ha costruito modelli
digitali del Foro Romano basati su prove archeologiche e testuali di come appariva
nell'antichità. I modelli presentavano timestamp e dati geografici in tre dimensioni, che,
diversi anni dopo, potevano essere esportati e visualizzati in altri ambienti geograficamente
consapevoli, come Google Earth. Seguono altri progetti di modellazione multidimensionale,
tra cui Digital Karnak (http://dlib.etc.ucla.edu/projects/Karnak), un modello dell'enorme
complesso di templi di Karnak che consente agli spettatori di seguire lo sviluppo
architettonico, religioso e politico attraverso un dispositivo di scorrimento temporale e mappe
tematiche. Più recentemente, la Venice Time Machine
(http://partenariats.epfl.ch/page-92987-en.html), nata all'École Polytechnique Federal de
Lausanne (EPFL) e all'Università Ca 'Foscari di Venezia, è un tentativo di digitalizzare e
interpretare gli ampi archivi storici del governo della città. Tra gli attuali progetti che fanno
uso dell'archivio vi sono diverse iniziative di mappatura, tra cui un modello tridimensionale di
realtà virtuale della città nel corso della sua lunga storia e una mappa delle rotte di
navigazione e delle reti commerciali in periodi diversi.
Lungi dal semplicemente "ricreare" ambienti storici e rendere disponibili i dati storici al
grande pubblico, tuttavia, le discipline umanistiche digitali hanno anche sviluppato un ricco
vocabolario critico per comprendere la retorica della mappatura e della geo-visualizzazione.
A differenza degli approcci convenzionali alla mappatura, che tendono ad essere positivistici
e mimetici, le discipline umanistiche digitali hanno immaginato pratiche critiche di narrazione
geo-temporale, forme di controrapposizione e nozioni di "mappatura profonda" o "mappatura
spessa", che privilegiano la navigazione esperienziale, approcci basati sul tempo,
mappatura partecipativa e retorica alternativa della visualizzazione (Bodenhamer, 2010,
2014; vedere anche Presner et al., 2014). Mappe e modelli non sono mai rappresentazioni
statiche o riflessi accurati di una realtà passata; invece, funzionano come argomenti o
proposizioni che tradiscono uno stato di conoscenza. Ognuno di questi progetti è
un'istantanea di uno stato di conoscenza, un argomento proposizionale sotto forma di
geo-visualizzazioni dinamiche.

Mappatura delle discipline umanistiche

Prima dello scoppio dell'interesse per il GIS e le tecnologie di geo-visualizzazione nelle


discipline umanistiche, il significato delle dimensioni geografiche e spaziali della produzione
culturale non era stato ignorato dagli studiosi di discipline umanistiche. Dopotutto, alcune
delle teorie più significative della produzione culturale dello spazio sono state fatte da
umanisti, come il concetto di "mappatura cognitiva" di Fredric Jameson legato a Los
Angeles, l'idea di Michel de Certeau di "vita quotidiana" a New York, e Studi di David Harvey
sulla modernità del capitalismo a Parigi e Londra. Inoltre, basandosi sulla scrittura di Edward
Said, è stato fatto molto lavoro negli studi transnazionali e postcoloniali per esaminare gli
"strati spaziali" della produzione e del potere culturali. Basti pensare a studi come "l'Atlantico
nero di Paul Gilroy", gli "etnoscapi globali" di Arjun Appadurai, la "posizione della cultura" di
Homi Bhabha, lo studio antropologico di James Clifford sulle "rotte" e la richiesta di "studi di
mobilità" di Stephen Greenblatt su questioni di diaspora, esilio e sfollamento negli studi
letterari e linguistici, e la richiesta di rinnovata attenzione a psico-geografie, paesaggi
immaginari e pratiche di détournement radicati in idee situazioniste di impegno urbano e
dissonanza cognitiva.
Negli studi letterari, Atlus of the European Novel (1998) di Franco Moretti e Graphs, Maps,
Trees (2005) esplorano la "geografia della letteratura", in quanto entrambi i personaggi dei
viaggi assumono una sorta di mappatura letteraria e la mappatura dei testi letterari stessi
per far luce sulle forze di mercato, sulle topografie urbane e sulla crescita dello
stato-nazione. Più recentemente, Robert Tally ha sviluppato un approccio chiamato
"geocriticismo", derivato dal Geocriticism: Real and Fictional Spaces (2011) di Bernard
Westphal, che esplora il ruolo dello spazio e del posto nella finzione attraverso le cartografie
letterarie (ad esempio, Tally, 2009). E con una solida collaborazione di metodi attraverso
studi letterari e GIS, la mappatura ha iniziato a studiare nuovi aspetti della storia della
letteratura. "Ristampa, diffusione e autore della rete nei giornali antebellum" (2015) di Ryan
Cordell è uno studio sulla crescita dei lettori degli autori americani attraverso la mappatura
delle riviste che li hanno ristampati. Accosta queste mappe di pubblicazione con dati
demografici e la storia del sistema ferroviario americano, in sostanza eseguendo la richiesta
di Greenblatt per "studi sulla mobilità".
Anche lo studio della storia ha preso una svolta spaziale, proprio come GIS ha preso una
svolta storica. Questi approcci misti situano e indagano questioni storiche su piattaforme
spaziali, senza abbracciare acriticamente o liquidare cavallermente il GIS. Il progetto
T-RACES di Richard Marciano e David Theo Goldberg (http://salt.umd.edu/T-RACES), ad
esempio, riunisce la storia delle mappe redlining prodotte dalla Home Owners 'Loan
Corporation negli anni '30 con documenti d'archivio collegato al tratto censuale, al fine di
rivelare i modi complessi in cui sono stati creati spazi esclusivi in ​tutti gli Stati Uniti per
preservare l'omogeneità razziale. In T-RACES, un enorme archivio di storia razziale
americana è stato geograficamente e temporalmente in una piattaforma di visualizzazione e
visualizzazione storica costruita sul motore di Google Maps. Un altro progetto, Mapping the
Republic of Letters, sviluppato presso la Stanford University
(http://republicofletters.stanford.edu), visualizza le reti di corrispondenza attraverso le quali
gli intellettuali europei e americani hanno discusso di politica, filosofia e teoria del governo
nel corso del XVIII secolo.
d esempio, il pensatore italiano Francesco Algarotti si è scambiato lettere con americani
come Benjamin Franklin e Samuel Engs, e Voltaire ha scritto alla Czarina Caterina II di
Russia. Il progetto dimostra la portata internazionale di queste reti di corrispondenza,
qualcosa che è difficile da apprezzare se si considera il lavoro di uno di questi pensatori in
isolamento.
Per storici come Richard White, il direttore del progetto Spatial History di Stanford, la
mappatura, la modellizzazione e la visualizzazione sono metodi di ricerca per testare ipotesi,
scoprire modelli e indagare processi e relazioni storici.
Sostiene che l'analisi spaziale e la visualizzazione non riguardano la produzione di
illustrazioni o mappe per comunicare cose che hai scoperto con altri mezzi. È un mezzo per
fare ricerca; genera domande che altrimenti potrebbero passare inosservate, rivela relazioni
storiche che altrimenti potrebbero passare inosservate e mina, o fonda, storie su cui
costruiamo le nostre versioni del passato. (White, 2010)
Altri storici, tra cui Philip Ethington, hanno iniziato a concettualizzare e progettare nuovi
approcci cartografici alla storia che mettono in primo piano il luogo e la creazione del luogo
come modi per visualizzare e narrare le città in tempi profondi. Ethington (2007: 466)
sostiene che "la conoscenza del passato ... è letteralmente cartografica: una mappatura dei
luoghi della storia indicizzata alle coordinate dello spaziotempo". Le mappe funzionano,
sostiene, principalmente per giustapposizione e simultaneità, portando dati discreti insieme
per approfondire le storie stratificate influenzate in un determinato luogo. Insieme al testo
verbale, che è sintatticamente lineare e narratologico, la storia - come raccontata attraverso
“mappe fantasma” - può essere pensata come topoi per immaginare i molti passati di Los
Angeles (Ethington, 2011; Ethington e Toyosawa, 2014). Sperimentata come storia visiva e
cartografica a strati complessi, la storia di Ethington a Los Angeles, Ghost Metropolis,
dimostra come la storia “prende” e “fa” letteralmente posto, trasformando l'ambiente urbano,
culturale e sociale man mano che vari “regimi regionali” lasciano la loro impressione sul
paesaggio della città globale di Los Angeles.
Di concerto con questi sviluppi, si sono sviluppate nuove configurazioni istituzionali come le
"discipline umanistiche urbane", che alleano l'architettura, il design, la pianificazione urbana,
l'analisi computazionale, il GIS e le discipline umanistiche per indagare sulla complessità
delle città - come incorporate, vissute, costruite, costruite, spazi immaginati e rappresentati.
Come le discipline umanistiche digitali, queste configurazioni portano a diversi tipi di
domande di ricerca, in termini di scala, metodo, contenuto e output. Come possiamo iniziare
a mappare la storia culturale, sociale e architettonica delle megalopoli, dove attualmente
risiede circa il 10% della popolazione terrestre? Come possiamo rispondere alla grande
sfida di progettare e costruire una città più democratica? Per rispondere a tali domande, una
pluralità di prospettive e competenze, nonché partenariati oltre le mura dell'università con
organizzazioni non governative (ONG), consigli comunali e governi regionali, sviluppatori,
musei e innumerevoli circoscrizioni culturali e sociali sono, ovviamente, necessario. Questo
tipo di collaborazioni sta iniziando ad essere stabilito in molti luoghi, in particolare in "centri
di ricerca spaziale" come il Centro di analisi geografica di Harvard, il Progetto di storia
spaziale di Stanford (parte del suo Centro di analisi spaziale e testuale), il Laboratorio di
progettazione di informazioni territoriali della Columbia, Centro per le tecnologie
esperienziali dell'UCLA e collaborazioni multiistituzionali come il Centro virtuale per le
discipline umanistiche (​http://thepoliscenter.iupui.edu/index.php/spatialhumanities/project-1​).
Poiché sempre più progetti umanistici e tecnologici si sono trasformati e maturati, sono stati
sviluppati sofisticati strumenti di uso generale per la mappatura umanamente radicalmente
interdisciplinare. WorldMap (http://worldmap.harvard.edu), una piattaforma open source di
Harvard per l'esplorazione, la visualizzazione e la pubblicazione di informazioni geografiche,
consente agli utenti di assemblare raccolte tematiche di dati GIS in molti formati da
pubblicare sul Web. Costruito su Google Earth, HyperCities (http://hypercities.com) è uno
strumento di "mappatura spessa" per creare narrazioni geo-temporali su mappe storiche,
dati GIS e altri materiali con codifica geografica. L'ESRI ha recentemente rilasciato uno
strumento di mappatura narrativa, Story Maps (http://storymaps.esri.com), mentre
l'Università della Virginia ha pubblicato Neatline (http://neatline.org), uno strumento
interattivo per raccontare storie usando mappe, linee temporali, e risorse espositive
attraverso Omeka. Questi progetti, tra gli altri, si sforzano di rendere ciò che un tempo era
esoterico - creando mappe con vari tipi di dati spaziali - accessibile al grande pubblico,
abbracciando al contempo una nozione critica di mappatura come conoscenza
proposizionale e situata.
Ci sono ancora molte sfide da affrontare, non da ultimo la creazione di un GIS qualitativo
che approfondisca i metodi interpretativi umanistici consentendo la mappatura
multi-prospettica, l'ambiguità e l'incertezza e approcci differenziali che de-colonizzano
mappe, creazione di mappe, sistemi di coordinate e proiezioni standardizzate . Lo spettro
del positivismo e dell'oggettivismo si profila ancora in questo campo. Man mano che
emergono più rigore teorico e metodi sperimentali, è probabile che vedremo nuove forme di
"mappatura spessa" che si sviluppano verso una molteplicità di modalità per lo storytelling
partecipativo, la contro-mappatura e la creazione di significati specifici del sito. Lontano
dall'occhio apolloniano che guarda in basso da una visione trascendentale, la "mappatura
spessa" tradisce la contingenza dello sguardo, la fondatezza di ogni prospettiva e la
relazionalità incarnata inerente a qualsiasi indagine locativa.
Per immaginare tali alternative, forse una delle nuove direzioni più promettenti per il campo
è la mappatura immersiva attraverso ambienti di gioco basati sul mondo virtuale (come ad
es. Il Humanities Virtual Worlds Consortium, http://virtualworlds.etc.ucla.edu) . Come
modalità esperienziale e sperimentale per la costruzione, l'esplorazione e l'interazione con
modelli tridimensionali situati all'interno di una struttura GIS basata sul tempo, i ricercatori
pongono domande e testano ipotesi all'interno di ambienti dinamici incarnati da avatar
umani. Questa interazione consente di indagare le prospettive incarnate, sul campo in e su
spazi e paesaggi costruiti, in particolare per studiare eventi basati sul tempo (come orazioni,
sfilate o processioni funerarie attraverso il Foro Romano). Mentre i progressi sopra descritti
hanno portato a progetti innovativi, il campo continua a cambiare rapidamente man mano
che nuove tecnologie e nuovi archivi diventano disponibili. Molto lavoro resta ancora da fare
per contrassegnare e curare l'ambiente fisico in modo da aumentare la conoscenza,
approfondire la comunità e preservare la complessità delle memorie culturali attraverso la
mappatura.

Recupero di informazioni musicali

John Ashley Burgoyne, Ichiro Fujinaga e J. Stephen Downie

Music Information Recupal (MIR) è "uno sforzo di ricerca multidisciplinare che si impegna a
sviluppare schemi di ricerca innovativi basati sul contenuto, nuove interfacce e meccanismi
di distribuzione in rete in evoluzione nel tentativo di rendere il vasto magazzino di musica del
mondo accessibile a tutti" (Downie, 2004 ). I metodi di ricerca MIR sono quasi
invariabilmente computazionali, ma le particolari tecniche utilizzate variano ampiamente
quanto la musica stessa e i diversi ruoli che può svolgere nella propria vita. Il MIR è alla
base delle tecnologie che forniscono raccomandazioni personalizzate per la nuova musica
che si potrebbe desiderare di acquistare, software che stimano la chiave e il tempo delle
tracce per aiutare i DJ a mescolarsi senza problemi, scanner in grado di convertire la musica
stampata in partiture modificabili digitalmente e molte altre interfacce digitali per informazioni
musicali. Man mano che sempre più consumatori interagiscono con la musica in modo
digitale, l'importanza del MIR continuerà a crescere.
La ricerca MIR è una ricerca applicata e fortemente orientata ai compiti. A causa delle sue
basi computazionali, si possono classificare questi compiti in modo più naturale esaminando
il tipo di dati di input che comportano e il tipo di dati desiderati per l'output. I dati di input per
MIR sono sempre dati di musica digitale, che assumono principalmente una delle quattro
forme: immagini di musica stampata o scritta a mano; i cosiddetti formati simbolici, come lo
standard MIDI (Musical Instrument Digital Interface), che cercano di rappresentare gli spartiti
musicali in una forma interpretabile dalla macchina; audio digitale; e metadati, delle
categorie tradizionali associate ai cataloghi delle biblioteche o di forme più recenti come
blog, post sui social media, recensioni o altri testi online sulla musica. Lo spazio dei possibili
output è molto più ampio, ma ci sono tre categorie fondamentali: attività di recupero delle
informazioni, che cercano principalmente di restituire un brano musicale a un utente in base
a un tipo di query (ad esempio, raccomandando
nuova musica basata sugli acquisti musicali passati); compiti di classificazione o stima, che
cercano di assegnare una singola etichetta o valore ai dati di input (ad esempio, identificare
il compositore o stimare il tempo); e compiti di etichettatura sequenziale, che invece di
assegnare un singolo
etichettare i dati di input, cercare di etichettare i dati di input in più posizioni man mano che
si svolgono nel tempo (ad esempio, fornendo una sequenza di etichette di accordi che
corrispondono a un file audio).
Sebbene vi siano ampie sovrapposizioni e partecipazione ad importanti conferenze, le
preoccupazioni principali della MIR sono distinte da quelle della musicologia, compresa la
musicologia computazionale e la teoria musicale; cognizione musicale; e ingegneria del
suono, tra cui sintesi del suono e tecniche compositive. Domande musicologiche in
i generali sono più aperti e descrittivi delle domande del MIR - ad esempio, una descrizione
delle caratteristiche stilistiche della musica di Josquin (musicologia) rispetto a un sistema
automatizzato per prevedere se un brano musicale è di Josquin o di uno dei suoi
contemporanei (MIR ). La ricerca computazionale nella cognizione musicale tende a
concentrarsi sui modelli della mente umana, mentre il MIR preferisce i modelli con le migliori
prestazioni indipendentemente dalla loro plausibilità cognitiva (confronta lo studio del timbro
di Fujinaga [1998], che adotta un approccio MIR, con quello di McAdams [1999], che cerca
un'interpretazione cognitiva). La ricerca MIR sulle condivisioni audio con ingegneria del
suono pone l'accento sulla ricerca sull'elaborazione del segnale nella sintesi del suono, ma i
compiti del MIR tendono a concentrarsi sull'etichettatura o sul recupero piuttosto che sulla
creazione. Tuttavia, c'è un crescente interesse nel colmare le lacune tra MIR e questi campi,
come si può vedere dall'elenco dei relatori principali alle conferenze dell'International Society
for Music Information Retrieval (ISMIR): Nicholas Cook e Dmitri Tymoczko della teoria
musicale (2005 ; 2008); David Huron, Carol Krumhansl ed Emmanuel Bigand della musica
cognizione (2006 e 2011; 2010; 2012); e François Pachet di ingegneria del suono e
creatività computazionale (2013).
Questo capitolo inizia con uno schizzo della storia del MIR, incluso lo sviluppo della
conferenza ISMIR e lo scambio annuale di informazioni sul recupero delle informazioni
musicali (MIREX), in cui le più recenti tecniche del MIR sono condivise e confrontate.
Segue un riassunto più dettagliato delle più importanti branche della ricerca MIR,
organizzato dai quattro principali tipi di dati utilizzati dai ricercatori MIR: immagini, i cosiddetti
formati digitali simbolici, audio e metadati sulla musica. Il capitolo si conclude con una
discussione di alcune delle domande aperte nel MIR e delle possibili direzioni per lo sviluppo
nei prossimi cinque o dieci anni.

Una breve storia del MIR

In un certo senso, il MIR con dati simbolici ha la storia più lunga, una storia che risale molto
più indietro del recupero stesso delle informazioni sulla musica del moniker. Mentre i
moderni metodi statistici si svilupparono tra la fine del XIX e l'inizio del XX secolo, alcuni
studiosi li stavano già applicando alla musica. Senza computer disponibili per supportare la
loro ricerca, questi primi studiosi del MIR hanno tabulato manualmente le caratteristiche
musicali, direttamente dalle partiture musicali, e hanno cercato di specificare le
caratteristiche stilistiche basate su queste caratteristiche. Uno dei primi studi di questo tipo,
ad esempio, ha dimostrato che intervalli musicali più ampi si verificano meno
frequentemente nella musica popolare rispetto a intervalli melodici minori (Myers, 1907).
Alcuni primi lavori etnomusicologici usavano tali tabulazioni di caratteristiche musicali per
distinguere o descrivere gli stili delle culture musicali non occidentali, come la musica
tunisina (Hornbostel, 1906) o la musica dei nativi americani (Watt, 1924).
Man mano che i computer diventavano più ampiamente disponibili per i ricercatori negli anni
'60 e '70, l'interesse per l'analisi computerizzata della musica cresceva. Sono nati i termini
musicologia computazionale e reperimento di informazioni musicali: entrambi utilizzati per la
prima volta nei titoli dei documenti accademici a metà degli anni '60 (Kassler, 1966;
Logemann, 1967). Molti dei primi sforzi di ricerca si sono concentrati esclusivamente su
rappresentazioni ottimali per la codifica simbolica della musica per computer (Lincoln, 1972).
Altre preoccupazioni accademiche in questa era erano principalmente stilistiche e oggi
sarebbero considerate musicologia computazionale: intervalli orizzontali e verticali nelle
masse di Josquin (Mendel, 1969), per esempio, o la cosiddetta analisi stemmatica delle
relazioni tra fonti esistenti per la Missa di Josquin Beata Virgine (Hall, 1975). In questi
decenni iniziò anche il lavoro pionieristico sull'analisi dei dati audio musicali, compresa
un'analisi dettagliata del timbro dello strumento musicale (Slawson, 1968; Risset & Mathews,
1969; Gray, 1975); ricerca nel pitch tracking, iniziata nel campo del parlato e
successivamente applicata alla musica (Moorer, 1975; Askenfelt, 1976; Piszczalski & Galler,
1977); e il lavoro prescient di Chafe et al. (1985), che parlava dell'estrazione di intonazioni,
tasti, metro e tempo.
Tranne qualche punto positivo, come il lancio di Computing in Musicology, una periodica
ricerca attiva sulla compilazione di musicologia computazionale e i primi lavori sull'estrazione
del ritmo dall'audio (Schloss, 1985; Desain & Honing, 1989), c'è stata una pausa relativa
nella ricerca computazionale sulla musica negli anni '80. (La conoscenza della musica,
d'altro canto, è fiorita, compresa la fondazione di Music Perception, ancora oggi una delle
sue riviste più importanti.) Uno dei possibili motivi per cui la musicologia computazionale non
è cresciuta così rapidamente come previsto in questo periodo, soprattutto rispetto al
computer Analisi del testo aiutata, era una mancanza di grandi set di dati. Senza la
tecnologia di riconoscimento ottico della musica per convertire le immagini digitalizzate della
musica stampata in una codifica leggibile da una macchina, tutti i dati musicali dovevano
essere inseriti manualmente, il che era (ed è tuttora) ingombrante, costoso e soggetto a
errori (Pugin et al., 2007a ).
Negli anni '90, sono successe due cose che hanno aiutato il MIR a ricrescere. Uno era la
crescente quantità di musica che stava diventando facilmente disponibile come audio
digitale, che risolveva il problema della codifica. L'altro è stato l'aumento della potenza di
calcolo dei computer desktop che ha permesso ai ricercatori di analizzare facilmente la
musica. I primi articoli unicamente sul MIR, che introducevano la sempre popolare ricerca
basata sui ronzii, apparvero nella prima metà del decennio (Kageyama et al., 1993; Ghias et
al., 1995), seguiti da articoli sulla ricerca attraverso banche dati tramite contenuti audio
(Wold & Blum, 1996; McNab et al., 1996). Nell'agosto 1999 si è tenuto un "Workshop
esplorativo sul recupero delle informazioni musicali" nell'ambito della conferenza ACM SIGIR
(Association for Computing Machinery, Special Interest Group on Information Retrieval) a
Berkeley, California.
Quel settembre, un altro seminario di "Music Information Retrieval" si è tenuto a Londra
nell'ambito della conferenza annuale Digital Resources for the Humanities presso il King's
College.
Questi seminari hanno ispirato il primo simposio internazionale in assoluto per il recupero
delle informazioni sulla musica, tenutosi a Plymouth, nel Massachusetts, nell'ottobre 2000. Il
seminario si è trasformato in una conferenza annuale, nota come Conferenza ISMIR
(International Society of Music Information Retrieval) dall'incorporazione della Society nel
2008. Ad oggi, il procedimento ISMIR comprende circa 1500 articoli che coprono l'intera
gamma delle preoccupazioni del MIR e la conferenza è diventata la sede principale per la
diffusione di nuove ricerche nel settore. L'ISMIR è particolarmente importante perché non
esiste un unico giornale accademico che copra l'ampiezza della ricerca MIR
Man mano che l'ISMIR si affermava, e in particolare quando venivano definiti alcuni compiti
chiave, i ricercatori del MIR hanno cercato di accertare i punti di forza e le carenze relative
dei loro algoritmi in rigorose serie di condizioni di prova. Lo scambio di valutazione del
recupero delle informazioni musicali (MIREX) è stato sviluppato per soddisfare tale esigenza
e, come lo stesso ISMIR, MIREX ha contribuito notevolmente al crescente successo e
impatto della ricerca MIR (Downie, 2008; Downie et al., 2010; Cunningham et al ., 2012).
MIREX ha tenuto la sua prima serie di valutazioni nel 2005 (Downie et al., 2005). Funziona
su un ciclo annuale in cui i ricercatori che la pensano allo stesso modo si riuniscono per
affrontare uno specifico sotto-problema MIR come il rilevamento del tono o l'allineamento del
punteggio. Una volta che un gruppo si è riunito, creano un "compito" MIREX in base al quale
i partecipanti eseguiranno le loro valutazioni. Devono quindi costruire i tre componenti
principali che compongono ciascuna attività MIREX: (1) un insieme comune di dati da
analizzare; (2) una serie comune di query o procedure da eseguire sui dati; e (3) un insieme
comune di metriche e valutazioni da utilizzare per valutare i risultati di ciascun algoritmo.
L'applicazione di un algoritmo su un set di dati che fornisce un set di risultati è chiamato
"run" nel linguaggio MIREX. Le sessioni sono di solito completate alla fine dell'estate di ogni
anno, in tempo perché i partecipanti possano riflettere sui loro risultati in previsione dei loro
poster di presentazione durante la sessione speciale di MIREX tenutasi ad ogni conferenza
ISMIR. Dopo la sessione MIREX presso ISMIR, il ciclo inizia di nuovo.
Il modello MIREX prende a prestito spudoratamente dalla vecchia campagna di valutazione
della Conferenza di reperimento di testi (TREC). A differenza di TREC, tuttavia, MIREX
segue un paradigma di ricerca non intuitivo in cui gli algoritmi vengono portati ai dati
(memorizzati presso l'Università dell'Illinois) piuttosto che avere i set di dati distribuiti ai
ricercatori MIR. Il modello non intuitivo aiuta MIREX a evitare costosi e complicati
citato accordi di proprietà intellettuale che affliggono coloro che effettuano ricerche sui
materiali musicali digitali. Anche questo modello non intuitivo viene ora implementato per
consentire l'accesso algoritmico alla vasta raccolta di materiali testuali soggetti a diritti
d'autore trovati nel corpus HathiTrust (Kowalczyk et al., 2013).
Parallelamente alla ricerca MIR in generale, MIREX è cresciuto in modo significativo nel
corso degli anni. MIREX 2005 ha utilizzato 10 set di dati per generare 86 esecuzioni su nove
attività utilizzando algoritmi inviati da 82 partecipanti. MIREX 2013 ha distribuito un record di
37 set di dati che coprono 24 attività. MIREX 2013 ha visto la valutazione di oltre 300 serie
di algoritmi presentate da oltre 100 singoli ricercatori. Dal 2005, MIREX ha valutato più di
2000 corse. Oltre alla semplice crescita, MIREX ha svolto un ruolo nel portare avanti la
ricerca MIR. Ad esempio, nel 2007, il punteggio di precisione medio più alto nel task ACS
(Audio Cover Song Identification) è stato del 52%. Entro il MIREX 2009, il miglior punteggio
di precisione medio aveva raggiunto il 75%.

La pipeline MIR

Le attività MIR, per MIREX o altro, tendono a seguire una pipeline abbastanza standard,
illustrata nella Figura 15.1: estrazione delle caratteristiche per convertire i dati di input in una
rappresentazione intermedia utile, seguita dall'inferenza per convertire le funzionalità
nell'output desiderato. Se i dati di input sono particolarmente complessi (ad es. File audio di
alta qualità o immagini a colori ad alta risoluzione), la pipeline può talvolta includere una
sorta di pre-elaborazione per semplificare i dati prima dell'estrazione delle caratteristiche, ad
esempio convertendo l'audio stereo in mono o binarizzare un'immagine a colori in
rigorosamente in bianco e nero. I ricercatori del MIR possono concentrarsi su uno o tutti
questi passaggi nelle condutture dei compiti che li interessano.
L'apprendimento automatico, l'uso dei dati per ottimizzare automaticamente i parametri di un
algoritmo, è importante in tutta la pipeline MIR e una domanda importante per i ricercatori
MIR in ogni fase della pipeline è il giusto equilibrio da raggiungere tra l'apprendimento
automatico e la conoscenza umana esperta. In generale, il bilancio per l'estrazione di feature
è stato ribaltato a favore di conoscenze specialistiche e il bilancio per l'inferenza è stato
ribaltato a favore dell'apprendimento automatico. I ricercatori nella stima automatica degli
accordi dall'audio, ad esempio, sanno in anticipo che una caratteristica utile da estrarre
potrebbe essere la quantità di energia sonora presente in ciascuna classe di tonalità (Do, Do
Diesis, Re, ecc.), Ma quando inferiscono le etichette di accordi effettive da queste cosiddette
caratteristiche del vettore cromatico, possono preferire lasciare che una macchina decida
esattamente dove devono essere le soglie tra accordi particolari. Il taglio attraverso questa
tendenza generale è il fatto che l'apprendimento automatico è fattibile solo quando ci sono
grandi quantità di dati disponibili. Pertanto, i primi lavori nel MIR tendevano a favorire la
conoscenza di esperti a tutti i livelli della pipeline, mentre data la quantità di dati disponibili
oggi, vi è una tendenza crescente nel MIR a preferire l'apprendimento automatico quando
possibile (Humphrey et al., 2013).

(Figura 15.1 nel documento originale)

Figura 15.1: La pipeline per un'attività MIR tipica. Dopo una fase di pre-elaborazione
opzionale, le funzioni vengono estratte dall'input musicale e utilizzate per inferire il miglior
output: di solito un elemento musicale stesso (recupero di informazioni), un pezzo
sconosciuto di metadati come il nome dell'artista (classificazione o stima), oppure una
sequenza di etichette, come una trascrizione di accordi. I ricercatori interessati a un
determinato compito possono concentrare la propria energia su uno dei tre diamanti nella
pipeline.

Che sia appreso da una macchina o messo a punto da un esperto umano, ogni fase della
pipeline deve anche funzionare entro i vincoli e le possibilità naturali dei dati di input. Di
conseguenza, ci sono una serie di compiti canonici MIR che hanno preso forma e
probabilmente rimarranno stabili per qualche tempo. Data una vasta raccolta di immagini di
spartiti musicali, ad esempio, il compito naturale è quello di provare a convertire quelle
immagini in fedeli rappresentazioni simboliche dello stesso spartito, un processo noto come
riconoscimento musicale ottico (OMR). Anche l'estrazione di una partitura simbolica è un
compito naturale anche per i dati audio, sebbene rimanga una delle grandi sfide di
ingegneria aperta nel settore; Il MIR con dati audio tende a concentrarsi su rappresentazioni
intermedie come il rilevamento dei tasti, la stima degli accordi, il tracciamento delle battute o
la stima del tempo. La Tabella 15.1 elenca i compiti MIR classici, organizzati per tipi di input
e output. Il resto di questa sezione discute ogni blocco della tabella in modo più dettagliato.

Dati Immagine

i è una variazione relativamente piccola possibile nelle condotte MIR che derivano dall'input
dell'immagine, in parte perché lo spazio delle uscite concepibili è così limitato. È difficile
immaginare un caso d'uso pratico in cui le immagini delle partiture musicali sarebbero la
query piuttosto che la risposta a un sistema di recupero delle informazioni. Perfino compiti di
classificazione o stima sono concepibili solo nelle applicazioni di nicchia, come ad esempio
identificare lo scrivano che era responsabile di una determinata pagina di un manoscritto
(Bruder et al., 2003). L'output MIR canonico per un'immagine di una partitura musicale è una
rappresentazione simbolica di quella stessa partitura, un processo noto come
riconoscimento musicale ottico (OMR), per analogia con il riconoscimento ottico dei caratteri
(OCR) nel dominio del testo. L'OMR è di particolare interesse come accompagnamento a
grandi progetti di digitalizzazione musicale presso biblioteche e istituzioni archivistiche, in
quanto può creare un catalogo leggibile meccanicamente del contenuto digitalizzato in un
formato simbolico che si presta facilmente alla ricerca e alla musicologia computazionale
(Hankinson et al ., 2012).
La pipeline OMR include in genere una notevole quantità di pre-elaborazione prima
dell'estrazione delle caratteristiche, tra cui l'analisi dell'immagine del documento per
identificare le aree della pagina contenenti musica anziché testo o decorazione, binarizzare
l'immagine in bianco e nero, rimuovere le linee del personale e identificare i collegamenti
componenti di pixel neri (Rebelo et al., 2012). L'estrazione e l'inferenza delle caratteristiche
variano ampiamente, a seconda del materiale di origine. Molto lavoro è dedicato alla
notazione musicale comune (così come a numerosi prodotti commerciali), ma altri gruppi di
ricerca si concentrano esplicitamente sulla musica stampata e sui manoscritti musicali, per i
quali è improbabile che ci sia mai un interesse commerciale sufficiente a produrre un
progetto realizzabile. I formati di output comuni includono MusicXML, Music Encoding
Initiative (MEI) e i formati di sistemi di notazione musicale commerciale come Finale o
Sibelius.
I recenti sviluppi stanno incoraggiando un maggior numero di OMR a svolgersi online.
Audiveris ha lanciato un servizio OMR online per la notazione musicale comune e il progetto
SIMSSA si sta adoperando per un servizio simile per musiche precedenti (Hankinson et al.,
2012).

(Tabella nel documento originale, pag. 17)


Dati Simbolici

Contrariamente ai dati di immagine, i dati simbolici si prestano naturalmente a una gamma


più ampia di possibili output. Gran parte della ricerca musicologica computazionale e
tradizionale si basa sul punteggio e molti strumenti MIR per i dati simbolici possono essere
visti come potenziali strumenti di supporto per i ricercatori musicologi.
Uno degli usi canonici per i dati simbolici è come una query per il recupero di informazioni:
identificare un brano musicale basato su alcune note di uno dei suoi temi più memorabili.
Molto prima dell'avvento dei computer, dizionari di temi musicali come Barlow e Morgenstern
(1948) includevano indici basati su schemi melodici. Themefinder è uno dei primi e forse
ancora il più noto motore di ricerca computerizzato su larga scala per temi musicali (Sapp et
al., 2004) e le interfacce per la ricerca basata sulla melodia stanno diventando una
componente quasi standard dei database musicali online, per esempio, il corpus Peachnote
e il Global Chant Database. MIREX offre anche attività per attività correlate come la query
per tocco, per cui gli utenti cercano di recuperare una melodia da un database tramite il suo
ritmo e tenta di imitare il giudizio umano sulla somiglianza melodica, che può migliorare la
qualità dei risultati di ricerca quando gli utenti "le query sono imperfette.
Le attività di classificazione e stima sono comuni anche per i dati simbolici. Questa categoria
di output tende a corrispondere ai collegamenti con la musicologia computazionale. L'analisi
di stile, come accennato in precedenza, è stata a lungo una preoccupazione della
musicologia computazionale e il problema opposto è quello di identificare il compositore di
un brano musicale sconosciuto.
MIREX ha anche incluso compiti per identificare il genere di pezzi all'interno di corpora
simbolici (McKay e Fujinaga, 2005), e recentemente ha aggiunto un compito per scoprire
temi e sezioni ripetute (Collins et al., 2013).
Gli output sequenziali etichettati per i dati simbolici sono di due tipi, uno orientato
all'esecuzione musicale e l'altro all'analisi musicale. Il flusso di performance musicali
comprende un ampio corpus di ricerche per trovare i modi in cui i computer possono
riprodurre partiture simboliche in modo meno meccanico, in particolare, i tempi espressivi
(Kirke & Miranda, 2013). L'altro flusso si concentra su strumenti musicologici, come l'analisi
armonica automatizzata (Temperley, 2001) o l'ortografia del pitch per gestire le ambiguità di
equivalenti enarmonici in formati come il MIDI che non registrano la distinzione naturalmente
(Chew, 2014).

Audio

L'audio ha dominato la ricerca MIR negli ultimi due decenni. In parte, ciò è dovuto al fatto
che non esiste un output o una pipeline "naturale" per l'audio; quasi tutto è possibile. L'audio
digitale è onnipresente e, nonostante le sfide legali legate alla gestione di materiale protetto
da copyright, per la maggior parte dei gruppi di ricerca è relativamente facile acquisire audio
digitale in grande quantità.
Come i dati delle immagini, i dati audio tendono ad essere troppo grandi e complessi per
essere utilizzati direttamente per l'estrazione delle funzionalità. È tipico un qualche tipo di
pre-elaborazione, tra cui tecniche come il collasso delle registrazioni stereo o multicanale su
mono, la riduzione della frequenza di campionamento e la suddivisione dell'audio in brevi
frame sovrapposti da cui è possibile estrarre le funzionalità in modo indipendente. Il risultato
è una raccolta di sequenze parallele di valori di funzionalità diversi, che vengono quindi
utilizzati per l'inferenza.
L'attività canonica di recupero delle informazioni audio è l'interrogazione per ronzio, in base
alla quale gli utenti ronzano una melodia in un microfono e chiedono a un computer di
identificare il brano musicale che stanno tentando di eseguire. Sebbene forse meno
popolare di quanto non fosse prima, l'interrogazione per ronzio fa parte della ricerca MIR
dalla metà degli anni '90 e ha avuto
alcune implementazioni commerciali di successo, tra cui il servizio musicale SoundHound
(Dannenberg et al., 2007). La query col ronzio è un caso specifico di fingerprinting audio,
che cerca di contrassegnare frammenti audio di qualsiasi tipo in modo tale da poter lavorare
efficacemente per recuperare musica da un database, con applicazioni che vanno
dall'identificazione della musica riprodotta nei dintorni a garantire conformità al copyright
(Chandrasekhar et al., 2011). Esistono anche molte applicazioni per l'impronta digitale
fuzzier, che identifica l'audio che è semplicemente simile a una query piuttosto che
esattamente la stessa. La previsione della somiglianza audio presenta sfide sia cognitive
che computazionali, ma ha anche molte applicazioni, tra cui sistemi di raccomandazione
musicale, sistemi di generazione di playlist e identificazione di cover-song (Flexer et al.,
2012).
L'audio si presta a simili compiti di classificazione e stima al dominio simbolico e una serie di
compiti di MIREX su artista, compositore, genere e classificazione dell'umore è ormai
standard da diversi anni. Oltre a questi compiti, ci sono un certo numero di compiti di
supporto musicologico che sono rilevanti per l'audio perché cercano di ricreare alcune delle
informazioni più utili che sono evidenti da una partitura musicale ma non da un file audio:
ricerca dei tasti, tempo stima (utile soprattutto per i DJ) e stima del contatore. Man mano che
i social media che circondano la musica diventano più importanti, la previsione dei tag è
diventata un'attività di classificazione particolarmente interessante: cercare di indovinare
come gli utenti etichetterebbero un brano musicale dato una libera scelta di descrittori da
usare, come i tag utilizzati per Last.fm servizio musicale (Turnbull et al., 2008; Bertin -
Mahieux et al., 2011a).
Le attività di etichettatura delle sequenze sono per molti aspetti il ​Santo Graal delle attività
MIR per i dati audio. La sfida più grande sarebbe quella di rendere una trascrizione diretta
dall'audio ad una partitura simbolica, ma non ci sono sistemi (fino ad oggi) in grado di
svolgere questo compito in modo completamente riuscito (Benetos et al., 2013). In molti
casi, tuttavia, non è necessaria una trascrizione completa e sono sufficienti compiti un po
'più semplici. In un ambiente di prestazioni, ad esempio, il punteggio seguente, in base al
quale una macchina segue un punteggio simbolico nel tempo con un'esecuzione dal vivo, è
spesso sufficiente per sincronizzare gli eventi di prestazione e diversi di questi sistemi sono
stati distribuiti con successo (Cont, 2011). Per altre applicazioni, è necessario solo un
aspetto specifico della partitura, come la melodia (Salamon, 2013) o una trascrizione di
accordi (McVicar et al., 2014).
Le prestazioni per questi tipi di attività stanno aumentando rapidamente e possono
eventualmente confondere la distinzione tra lavoro con dati simbolici e dati audio.
Metadati

I dati di immagine, simbolici e audio appartengono tutti direttamente alla musica stessa, il
cosiddetto recupero di informazioni musicali basato sul contenuto. È anche possibile
lavorare con metadati sulla musica, come titoli, artisti, testi o blog musicali e giornalismo,
esclusivamente o in tandem con funzionalità basate sui contenuti. L'etichettatura delle
sequenze non è possibile solo dai metadati, ma lo sono diverse importanti attività di
recupero e classificazione delle informazioni. Uno degli usi più efficaci dei metadati è stato
per la raccomandazione musicale (Celma, 2010), ma questi tipi di "caratteristiche culturali" o
"metadati della comunità" si sono dimostrati utili anche per la classificazione dei generi
(Whitman, 2005; McKay et al., 2010 ) e il raggruppamento di artisti (Schedl et al., 2011) tra
le altre attività.

Il futuro del MIR

Relativamente pochi dei classici problemi MIR sono veramente risolti e prevediamo che una
considerevole energia di ricerca sarà dedicata al miglioramento dello stato dell'arte nei
compiti chiave per un po 'di tempo a venire. Vediamo anche altre quattro aree generali in cui
il MIR potrebbe sviluppare e rafforzare le sue connessioni con settori correlati come la
musicologia computazionale e la cognizione musicale nei prossimi anni. Queste aree chiave
sono (1) possibilità di output di livello superiore, come accordi piuttosto che frequenze
fondamentali; (2) social media e crowdsourcing come fonti di dati; (3) big data; e (4)
interfacce utente multivalenti.

Uscita di alto livello

Il MIR era nato dalla musicologia computazionale, ma quando l'audio digitale divenne più
ampiamente disponibile negli anni '90, l'interesse si allontanò dai dati simbolici che
tradizionalmente erano stati fonte di preoccupazione per i musicologi e si concentrò invece
sull'audio. Questa tendenza continua a tormentare il campo oggi: circa il 95% delle attività
MIREX coinvolge l'elaborazione del segnale audio, con solo una manciata che tratta in modo
univoco di dati simbolici. In concomitanza con questo pregiudizio, il MIR ha anche
tradizionalmente enfatizzato compiti di "basso livello", quelli che sono necessari per
elaborare l'audio ma che non sono particolarmente interessanti dal punto di vista musicale in
sé stessi, rispetto a compiti di "alto livello" che sarebbero di maggiore interesse musicologico
e culturale. Le attività MIREX Audio Onset Detection, Multiple Fundamental Frequency
Stimation e Audio Beat Tracking, ad esempio, sarebbero di basso livello, in contrasto con
attività di livello superiore come la stima degli accordi audio, la scoperta di temi e sezioni
ripetute e la segmentazione strutturale. Queste tendenze hanno ostacolato la collaborazione
tra musicologi e ricercatori del MIR (Cook, 2005). Non solo i molti compiti MIR di basso
livello non sono interessanti dal punto di vista musicale, ma la musicologia ha anche insistito
su un livello più elevato di accuratezza per i compiti di alto livello che gli algoritmi precedenti
erano in grado di fornire (sebbene si veda Pugin et al., 2007b, per un esempio di come può
essere possibile avviare in modo abbastanza redditizio uno strumento MIR altrimenti debole
in alcuni contesti). Tuttavia, rimane un forte interesse a colmare il divario tra musicologia
computazionale e MIR (Volk & Honingh, 2012) e, man mano che le prestazioni di compiti
audio di alto livello migliorano, potremmo rientrare in un'epoca d'oro della musicologia
computazionale, in collaborazione con MIR.
Il rilascio di numerosi nuovi strumenti e set di dati può anche ravvivare l'interesse per il MIR
con dati simbolici. Il toolkit music21, un tentativo di affrontare alcune carenze percepite del
toolkit Humdrum, sta vedendo un'adozione più ampia (Cuthbert & Ariza, 2010). Il progetto
McGill Billboard ha pubblicato oltre 1000 trascrizioni di accordi esperti di musica popolare
americana e strumenti per l'analisi di questi dati (Burgoyne et al., 2011; De Haas &
Burgoyne, 2012). Il progetto ELVIS (Electronic Locator of Vertical Interval Successions) ha
raccolto e pubblicato un ampio set di dati di spartiti simbolici di musica antica, insieme a
nuovi strumenti per analizzare le relazioni contrappuntistiche con la musica21. Lungi dal
soppiantare la musicologia tradizionale, questi progetti stanno aprendo ricche vene di
indagine che sarebbero state inimmaginabili anche 15 anni fa.

Social Media e Crowdsourcing

A causa del suo interesse per i metadati, il MIR ha abbracciato i social media sin dall'inizio, e
data la costante necessità di più dati e ubiquità della musica digitale, il MIR è stato uno dei
primi ad adottare il crowdsourcing per la raccolta di dati dal pubblico. Prevediamo che
queste tendenze continueranno e addirittura accelereranno nel prossimo futuro. L'attenzione
della ricerca si è recentemente rivolta verso il mining di microblog come Twitter (Schedl et
al., 2011; Weerkamp et al., 2013) e l'uso dei giochi come strumento per incoraggiare il
crowdsourcing continua (Aljanaki et al., 2013). Il crowdsourcing e i social media offrono
anche particolari vantaggi per migliorare le collaborazioni con musicologia e cognizione
musicale, perché riflettono come la musica viene consumata "in natura" e come le persone
descrivono la musica con parole proprie (cfr. Studi sul linguaggio e diari musicali nella
cognizione musicale : Bernays & Traube, 2011; Van Zijl & Sloboda, 2011).

Grandi dati

Forse sorprendentemente, data la forte influenza dell'apprendimento automatico nel MIR,


pochi set di dati utilizzati finora nel MIR sono veramente "grandi". Una notevole eccezione è
il Million Song Dataset, che ha espressamente cercato di sfidare il MIR a lavorare su scala
commerciale e è stato anche utilizzato per indagare su questioni musicologiche
sull'evoluzione della musica pop (Bertin-Mahieux et al., 2011b). Il progetto SALAMI
(Structural Analysis of Large Amounts of Music) ha cercato di avviare le annotazioni umane
con i supercomputer per costruire un set di dati su una scala simile (Smith et al., 2011). Il
corpus Peachnote ha reso disponibile un numero senza precedenti di punteggi per l'analisi
simbolica (Viro, 2011). Molti dati dei social media possono anche rientrare nella categoria
dei big data. I big data hanno implicazioni sia per il MIR stesso - più dati consentono di fare
più affidamento sull'apprendimento automatico per l'estrazione di funzionalità (Humphrey et
al., 2013) - sia sui tipi di domande a cui può rispondere. Proprio come il caso di Moretti
(2005) per i metodi di big data in letteratura, le macchine possono consumare più musica di
quanto una persona possa fare in una vita, e recenti studi hanno iniziato a tracciare
cambiamenti di stile che sarebbero stati impossibili da esaminare in modo approfondito
usando i tradizionali metodi (Serrà et al., 2012; Burgoyne et al., 2013; Zivic et al., 2013).
Questi recenti studi mostrano anche le sfide interpretative della ricerca sui big data nel MIR,
in particolare nel comunicare tali risultati tra le discipline e nell'utilizzare le tecniche
statistiche in modo appropriato e responsabile (Huron, 2013). Prevediamo che il numero di
tecniche metodologiche e comunicative per i big data nel MIR evolverà rapidamente nei
prossimi anni.

Interfacce utente multivalenti

Per la maggior parte, i ricercatori hanno studiato ciascuno dei compiti MIR classici
indipendentemente da altri compiti. Ciò sta cambiando, tuttavia, in risposta a una crescente
preoccupazione all'interno della comunità MIR per la relativa disattenzione del MIR nei
confronti degli utenti e dell'esperienza dell'utente.
Sebbene il reclamo non sia nuovo (Wiering, 2007), recentemente è aumentato di urgenza
(Lee & Cunningham, 2013). Una risposta è stata lo sviluppo di interfacce utente multivalenti
che integrano più tecnologie MIR in un'unica interfaccia. Il progetto SALAMI, ad esempio, ha
combinato molteplici approcci alla somiglianza musicale e all'analisi strutturale per ideare
un'interfaccia unica per sfogliare l'output di molti algoritmi di segmentazione popolari su un
ampio database di 350.000 brani (oltre due anni di audio continuo) (Bainbridge et al ., 2012).
Il progetto SIMSSA sta tentando un'impresa simile per una vasta gamma di tecnologie OMR
e sta cercando di integrare il crowdsourcing per migliorare la qualità dei dati e fornire nuovo
materiale di formazione per l'apprendimento automatico (Hankinson et al., 2012). Il progetto
Songle integra il crowdsourcing con una vasta gamma di diverse attività MIR audio: stima
del misuratore, tracciamento del battito, estrazione del misuratore, stima degli accordi,
estrazione della melodia e segmentazione (Goto et al., 2011; Figura 15.2). Tutti questi
progetti sottolineano l'uso effettivo da parte di persone reali, una tendenza che prevediamo
di continuare; Lo stesso MIREX è attualmente in fase di discussione per integrare la
valutazione dell'interfaccia utente come parte permanente della sua batteria.

(Figura 15.2 nel documento originale)


Figura 15.2 Uno screenshot di Songle, un servizio web del National Institute of Advanced
Industrial Science and Technology (AIST). Songle svolge automaticamente una serie di
attività tipiche di etichettatura di sequenze MIR - rilevamento battiti, stima degli accordi,
estrazione di melodie e segmentazione strutturale - e fornisce un'interfaccia attraente per gli
utenti per visualizzare e modificare i risultati (Goto et al., 2011). Fonte: ​http://songle.jp​.

Conclusione

Non appena i computer sono diventati parte dell'infrastruttura accademica, i ricercatori si


sono interessati a usarli per studiare musica. Nel corso di alcuni decenni, i computer sono
migliorati nel rispondere alle domande di ricerca e nel soddisfare le esigenze dimostrate.
Gli ultimi due decenni hanno visto una crescita particolarmente forte nel campo del recupero
di informazioni musicali (MIR). I ricercatori del MIR lavorano su dati musicali in tutte le sue
forme - immagini, dati simbolici, audio e metadati - e rispondono a molte classi di domande,
dal classico recupero di informazioni alla semplice stima o classificazione, fino alla
complessa etichettatura delle sequenze. La maggior parte dei servizi di musica digitale ora
integra un qualche tipo di tecnologia MIR e l'ubiquità e l'importanza della musica digitale
nella cultura contemporanea suggeriscono che il campo continuerà a crescere.
Quando i testi di studio sono file audio: Strumenti digitali per studi
sonori in discipline umanistiche digitali.
Tanya. E. Clement

Nel 2010, il Council on Library and Information Resources (CLIR) e la Library of Congress
(LC) hanno pubblicato The State of Recorded Sound Preservation negli Stati Uniti:
un'eredità nazionale a rischio nell'era digitale, il che suggerisce che se non lo facciamo
utilizzare archivi sonori, le nostre istituzioni per i beni culturali non preserveranno né
creeranno l'accesso ad essi.
Il rapporto conclude che gli utenti desiderano un accesso illimitato e migliori strumenti di
scoperta per "ascolto profondo" o "ascolto di contenuti, in nota, prestazioni, umore, trama e
tecnologia", ma manca un senso generale di ciò che ciò significa in un contesto digitale
(CLIR e LC, 2010: 157). Nelle discipline umanistiche digitali (DH), la produzione di
infrastrutture, risorse e strumenti è stata principalmente incentrata sull'esame,
l'insegnamento, la pubblicazione e la diffusione di manufatti culturali testuali e visivi. Allo
stesso tempo, i silenziosi studi sonori circostanti non sono semplicemente un riflesso di DH;
il silenzio riflette un pregiudizio alla radice dell'indagine umanistica in generale. Questo
pregiudizio è dovuto in parte alle restrizioni sul copyright ma anche alle difficoltà di accesso,
archiviazione e condivisione dei formati audio, che comportano la mancanza di modelli per
la ricerca, la scrittura e l'insegnamento con l'audio. È un tipico problema di DH: senza una
migliore comprensione di ciò che comporta un ascolto "profondo" o "vicino", non possiamo
produrre strumenti che permettano, migliorino o smantellino e mettano in discussione tali
attività; tuttavia, poiché ci mancano i modelli che proliferano di lavoro con testo e immagini,
facciamo fatica a immaginare come descrivere l'accesso al suono e la ricerca o
l'insegnamento con il suono che potremmo sperare di coinvolgere.

Accesso: suoni, suoni, ovunque ci sono suoni

egli archivi di tutto il mondo, ci sono milioni di ore di importanti registrazioni sonore risalenti
al diciannovesimo secolo e fino ai giorni nostri. Solo negli Stati Uniti, ad esempio, l'American
Folk Life Center della LC ha nelle sue volte 200.000 ore di registrazioni, tra cui ricche
collezioni provenienti da tutti gli Stati Uniti. The Rodgers e
Hammerstein Archives of Recorded Sound of the New York Public Library ha oltre 700.000
registrazioni tra cui musical di Broadway, musica classica e popolare, discorsi presidenziali,
drammi radiofonici e speciali televisivi. StoryCorps ha 30.000 ore di 50.000 storie orali create
nell'ultimo decennio da almeno 80.000 partecipanti di una vasta gamma di comunità. Inoltre,
molte raccolte sono state digitalizzate e sono liberamente accessibili online. Al momento del
lancio, il progetto National Jukebox della LC ha reso disponibili 10.000 registrazioni fatte
dalla Victor Talking Machine Company tra il 1901 e il 1925 dalle collezioni del LC Packard
Campus per la conservazione dell'audiovisivo.
PennSound all'Università della Pennsylvania ha 30.000 file audio online tra cui spettacoli di
poesie, interviste e conferenze con e di autori di spicco di Guillame Apollinaire (1913) a
Gertrude Stein (1934–1935), Ezra Pound (1939) e William Carlos Williams ( 1942),
attraverso i poeti beat e la lingua poeti, ai poeti di oggi. Inoltre, nell'Internet Archive
(https://archive.org) sono presenti oltre un milione di registrazioni audio, tra cui trasmissioni
radiofoniche storiche, eventi presidenziali pubblici e privati, nonché registrazioni di storia
musicale e orale. Come per le raccolte fisiche, esiste un numero ancora maggiore di
registrazioni in cache più piccole nelle biblioteche e negli archivi di tutto il mondo, e in molti
casi questi sono gli unici testi di studio per cercare di comprendere le tradizioni orali presenti
e passate delle nostre culture: ascoltare, considerare e insegnare voci sia passate che
presenti. È vero che la digitalizzazione è essenziale per una solida eredità che continua a
deteriorarsi sui formati legacy (cilindri di cera, dischi di alluminio e nastri elettromagnetici)
che diventeranno illeggibili da macchine legacy sempre più rare (fonografi e lettori
bobina-bobina), ma la conservazione e l'accesso non può essere risolto solo attraverso la
digitalizzazione.
Anche in un momento di diluvio di dati in cui le raccolte audio vengono digitalizzate
costantemente, i professionisti del patrimonio culturale, gli studiosi e gli insegnanti
continuano a sperimentare un accesso limitato all'audio. Spesso, le modalità di accesso alle
raccolte sonore includono funzionalità di base come la pressione di "play" e "stop", e talvolta
la giustapposizione di audio con trascrizioni e metadati testuali associati offre alcuni mezzi
gratuiti e open-source per fare ciò che John Unsworth chiama i "primitivi" dell'indagine
accademica sulle scienze umane - "scoprire, annotare, confrontare, fare riferimento,
campionare, illustrare e rappresentare-
ing "(Unsworth, 2000). Ad esempio, Avalon Media System in Indiana e Northwestern e Oral
History Metadata Synchronization project (OHMS) dell'Università del Kentucky sono sistemi
di gestione dei contenuti gratuiti e open-source progettati specificamente per audio e video
che migliorano l'accesso per gli utenti finali. Ambienti progettati che funzionano bene anche
con le infrastrutture di repository. A differenza di un CMS come Omeka o Wordpress, questi
sistemi includono la sincronizzazione audio con le trascrizioni.
Scalar, una piattaforma di pubblicazione accademica multimediale open source sviluppata in
collaborazione con Alliance for Networking Visual Culture e i creatori della rivista Vectors,
fornisce i mezzi per giustapporre il testo con oggetti multimediali, incluso consentire diversi
percorsi interpretativi e visualizzazioni di tali percorsi. Infine, il Pop Up Archive si concentra
sulla creazione di trascrizioni attraverso tecnologie di sintesi vocale, lavorando
principalmente con le registrazioni broadcast. Questi strumenti forniscono un mezzo per
collegare un singolo evento audio o video con trascrizioni al fine di facilitare primitive
accademiche con testo o metadati testuali o trascrizioni che accompagnano l'evento
multimediale.
Che non ci siano mezzi più grandi (o diversi) per facilitare l'accesso e l'analisi con il suono
stesso è sorprendente, dal momento che le prestazioni del computer - in termini di velocità,
capacità di archiviazione e progressi nell'apprendimento automatico e nella visualizzazione -
sono aumentate al punto in cui si trovano ora del tutto possibile automatizzare alcuni aspetti
di come scopriamo l'audio. Il popolarissimo Digging into Data Challenge, supportato da
agenzie di finanziamento che rappresentano Canada, Paesi Bassi, Regno Unito e Stati Uniti,
testimonia l'ampia gamma di prospettive e metodologie che i progetti digitali possono
comprendere. Mentre la maggior parte dei progetti analizza immagini e testo, altri forniscono
nuovi metodi per la scoperta con file audio come l'analisi strutturale di grandi quantità di
musica (SALAMI) e i progetti ELVIS (Electronic Locator of Vertical Interval Successions),
entrambi che cercano di analizzare la musica, o il set di dati Mining a Year of Speech e
Harvesting Speech per la ricerca linguistica sul Web, che cercano di analizzare l'uso del
linguaggio naturale.
Tuttavia, lo sviluppo di software per l'accesso e l'analisi delle funzioni sonore è
sottosviluppato. Alcuni software open source funzionano con diversi aspetti del file audio
stesso, incluso SoundCloud per la condivisione di clip audio con annotazioni; il progetto
Stories Matter presso la Concordia University per segmentare o tagliare l'audio e creare
playlist; Audacity per visualizzare e modificare l'audio; e Praat per la visualizzazione e
l'annotazione di funzionalità audio per query e analisi statistiche. In questo momento,
tuttavia, anche se
abbiamo digitalizzato così tanti artefatti audio significativi dal punto di vista culturale e
sviluppato sistemi sempre più sofisticati per l'analisi del suono, gli studiosi interessati a testi
di parole parlate prodotti in spettacoli di poesie, discorsi e incontri di narrazione hanno
pochissimi mezzi per usare o capire come usare i bassi o strumenti audio ad alte prestazioni
che consentirebbero il riconoscimento di pattern su più file o un'intera raccolta. Di
conseguenza, i manufatti sonori rimangono quasi completamente inaccessibili per le nuove
forme di analisi e istruzione nell'era digitale. Eppure è anche la nostra incapacità di farlo
concepire ed esprimere ciò che vogliamo fare con il suono - ciò che Jerome McGann (2001)
chiama "immaginare ciò che non sai" - che ci impedisce di sfruttare le risorse computazionali
esistenti e inibisce profondamente lo sviluppo tecnico e teorico del DH negli studi del suono.

Analisi: fai questo, non fare quest’altro; Non riesci a leggere i suoni?

Gli umanisti provenienti da una vasta gamma di settori, inclusi (ma non limitati a) studi folk,
storici, letterari, musicali e di performance, linguistica e comunicazione, studi storici e
culturali, propongono una serie di prospettive e teorie sullo studio del suono. Il poeta e
studioso Charles Bernstein, che definisce l'ermeneutica del suono "ascolto ravvicinato",
sostiene che questo modo di interpretare dovrebbe comprendere un focus sul "suono come
materiale, dove il suono non è né arbitrario né secondario ma costitutivo" del significato
(Bernstein, 1998: 4) . Jonathan Sterne definisce gli "studi del suono" come l'uso del suono
per porre "grandi domande sui momenti culturali, le crisi e i problemi del [tempo]"; lui e altri
sostengono che sono necessarie nuove critiche culturali per combattere le nozioni
preconcette sulla "litania audiovisiva" di luoghi comuni che hanno prevalso e limitato la
nostra comprensione del suono negli studi culturali (Sterne, 2012a: 3; Chow e Steintrager,
2011). Sterne
sostiene che esiste la nozione prevalente che il visual presenti in qualche modo una "vista"
esterna o oggettiva su un evento o oggetto mentre l'auditory è un'immersione soggettiva
incarnata; o che l'udito riguarda l'emozione e la temporalità mentre il vedere riguarda
l'intelletto e la spazialità (Sterne, 2012a: 9). Infine, mentre Walter J. Ong una volta annunciò
che le tecnologie di registrazione hanno inaugurato una nuova era nello studio della "voce,
disattivato da sceneggiatura e stampa" (Ong, 1967: 88), altri hanno sostenuto che "c'è
qualcosa nel discorso che sfida la teoria ”(Gunn, 2008: 343). Certamente, le teorie sulla
natura dello studio del suono che sono inquadrate nel contesto delle tecnologie e delle
metodologie di produzione, riproduzione e rappresentazione formerebbero una congiunzione
particolarmente fruttuosa di studi culturali e sonori per la discussione nelle discipline
umanistiche digitali.
In primo luogo, il lavoro nel campo del suono e gli studi sui nuovi media dimostrano che le
storie sociotecniche costituiscono un aspetto essenziale dell'esame critico del suono. Come
ci ricorda la consumata frase Marshall McLuhan: il mezzo è il messaggio nell'era dei mass
media (McLuhan, 1965). Le teorie basate sugli studi del grammofono, del fonografo, del
nastro magnetico e dell'audio digitale riflettono questa prospettiva. Friedrich Kittler, per
esempio, afferma che il grammofono, come registro dello "spettro del rumore" e del "non
articolato", provoca indagine: "sovverte sia la letteratura che la musica (perché riproduce il
reale inimmaginabile su cui entrambi sono basati) "(Kittler, 1999: 22). Inoltre, Lisa Gitelman
colloca il fonografo all'interno di una storia di scrittura e lettura in relazione al parlare, non
"secondo le pratiche o la mercificazione di notazione musicale, composizione ed
esecuzione" (Gitelman, 2006: 25). Invece, questa tecnologia parlante, come dispositivo di
iscrizione ampiamente esposto alle fiere pubbliche, solleva dubbi su come le masse
“partecipano insieme alla messa in atto della gerarchia culturale” (35). Da un'altra
prospettiva, il lavoro di Alexander G. Weheliye (2005) cerca di collocare il fonografo in un
continuum di registrazione e riproduzione del suono che raggiunge l'onnipresente Sony
Walkman e coincide con (e ci aiuta a riconsiderare) la produzione culturale afro-diaspora. Il
lavoro sulle tecnologie del suono viene ulteriormente ampliato con lo sguardo di Kristen
Haring sulla cultura hobbistica generata (e di genere) attorno alle radioamatori (2008) e alla
storia culturale delle registrazioni magnetiche di Jentery Sayers (2011). Infine, il lavoro di
Jonathan Sterne è fondamentale per stabilire critiche culturali sociotecniche di telefonia,
fonografia e radio in The Audible Past: Cultural Origins of Sound Reproduction (2003),
mentre nel suo libro successivo, MP3 (2012b), chiede "studi di formato "Per studiare l'audio
digitale in questo contesto. Altri studi significativi si concentrano su storie di auralità (Smith
2001, 2006; Moten, 2003; Mills, 2010), paesaggi sonori (Thompson, 2002; Toop, 2010;
LaBelle, 2010;), modernità etnografiche e acustotemologie (Hirschkind, 2006; Ochoa ,
2006).
In secondo luogo, gran parte della conversazione sul suono nello studio letterario si è
concentrata sulla poetica moderna e sperimentale e su come un maggiore accesso alle
registrazioni registrate che rappresentano l'archivio sonoro di un poeta o una comunità di
poeti influisce sull'interpretazione delle dimensioni estetiche di una poesia (Morris, 1998;
Perloff e Dworkin, 2009). Poiché la capacità di registrare facilmente registrazioni live iniziò a
prosperare negli anni '70, anche l'opportunità di ripensare il modo in cui si potevano studiare
le poesie. Michael Davidson osserva in una prima considerazione del suono e
dell'interpretazione che ci sono una serie di argomenti da riconsiderare. Davidson afferma
che "il poeta" sente "tanto quanto" pensa "(o per esprimerlo in modo più preciso ... sente il
suo pensiero)" una poesia attraverso la performance. Di conseguenza, "ciò che ogni poeta"
ha in mente "sarà difficilmente risolto ascoltando una lettura più che leggendo una pagina. Il
"testo" è un fatto più complesso di così, ed è reso ancora più complesso dalla
documentazione orale "(Davidson, 1981). Come tale, l'accesso alla versione sonora diventa
un altro artefatto all'interno della costellazione di artefatti che ci consentono di studiare il
"testo" di una poesia e tutte le sue versioni.
Oltre o accanto a nuove domande relative all'intenzionalità, alla performance e alla natura
del "testo", l'accesso alla poesia sperimentale suonata si presta a conversazioni in studi
letterari sulla natura costruita del linguaggio in generale. Certamente, le strutture delle
poesie audio di Henri Chopin e dei brani eseguiti da John Cage sono state a lungo al centro
delle conversazioni su "assalti tecnologici non rappresentativi sulla parola" (McCaffery, 1998:
158). In particolare, McCaffery è interessato al "nuovo lessico non ematico" rappresentato
da brani sonori d'avanguardia che chiedono all'ascoltatore di andare "oltre le complessità
sonore" al fine di mettere in discussione "la struttura culturale del fonema e delle sillabe
stesse" (160, 162). Katherine Hayles considera le registrazioni sperimentali che lavorano per
decostruire la natura del mezzo di registrazione stesso. Guarda l'attenzione di Samuel
Beckett sulla registrazione su nastro come una prima rappresentazione di sé nella sua opera
teatrale in un atto di Krapp's Last Tape e sul lavoro di "nastro sfogliante" di William S.
Burroughs (strofinandolo contro la testa a velocità diverse), registrando la sua voce
tenendosi il microfono alla gola o collegando snippet radiofonici, si era registrato, il che può
essere considerato un altro esempio del suo "metodo di taglio" basato sul testo (Hayles,
1998: 90).
In terzo luogo, le teorie del linguaggio che riguardano le registrazioni sonore si rivolgono
spesso a prospettive teoriche sulla "voce" e al ruolo delle caratteristiche sonore nelle teorie
sulla costruzione dell'identità e sulla creazione di significato con il suono. Roland Barthes
identifica due aspetti della voce nella musica vocale che contribuiscono al significato: la
fenomenica o gli elementi strutturati di un brano, come il discorso o la melodia (“tutto
nell'esecuzione che è al servizio della comunicazione, della rappresentazione,
dell'espressione "), E il genoma o l'aspetto materiale o corporale della voce (il" volume della
voce cantante e parlante, lo spazio in cui germogliano i significati ") (Barthes, 1978: 182).
Sostenendo che il "grano" della voce è la sua "anima" piuttosto che il suo "corpo", Barthes
afferma che l'ermeneutica dell'ascolto ravvicinato richiede un concerto del fenomenico (l
'"anima") con il genovago (il "Corpo") per comunicare un significato.
Mentre Barthes etichetta la caratteristica vocale sonora inespressiva, Michael Chion afferma
che queste caratteristiche hanno un significato, ma che è la nostra mancanza di un sistema
descrittivo che preclude la nostra capacità di ascoltare e parlare criticamente di queste
caratteristiche. Chion si avvicina allo studio del suono considerando un'ermeneutica
dell'ascolto sotto forma di ascolto causale, semantico e ridotto (Chion, 2012), un tripartito
che sembra correlato ai tre distinti tipi di ascolto di Roland Barthes nel suo saggio “Listening”
(Barthes, 1985 ). Nell'ascolto causale, l'ascoltatore cerca di scoprire di più sulla fonte del
suono, se la fonte è una tuba, un uomo o una bambina, mentre nell'ascolto semantico si
ascolta per "interpretare un messaggio" (50). Chion descrive l'ascolto dei tratti sonori di un
suono "indipendente dalla causa del suono o dalla comprensione del suo significato" come
un ascolto ridotto (Chion, 2012: 51). Tale ascolto preclude la descrizione, sostiene, per due
motivi.
Innanzitutto, la "fissità" delle caratteristiche sonore attraverso la registrazione è necessaria
per un ascolto ravvicinato, poiché per percepire i tratti sonori è necessario ascoltare
ripetutamente. Chion, tuttavia, respinge i suoni fissi come "oggetti veri e propri" e come "dati
fisici" che, secondo lui, non rappresentano
inviato ciò che è stato effettivamente parlato o sentito in tempo reale. In secondo luogo, il
nostro "linguaggio corrente di tutti i giorni e la terminologia musicale specializzata sono
totalmente inadeguati per descrivere i tratti sonori" (Chion, 2012: 51).
Tuttavia, questo argomento, secondo cui la voce è significativa solo nel contesto del
discorso che trasmette un messaggio, è una posizione teorica logocentrica che è stata
prontamente contestata. Adriana Cavarero, che cerca di "comprendere il discorso dalla
prospettiva della voce anziché dalla prospettiva del linguaggio", vuole "estrarre il discorso
stesso dalla micidiale morsa del logocentrismo" (Caravero, 2012: 530.531). Sostenendo che
la "voce" intesa da questa prospettiva privilegia il discorso articolato e una voce "unica"
disincarnata, Caravero afferma che "il logocentrismo nega radicalmente alla voce un
significato proprio che non è sempre già destinato al discorso" (529). Caravero critica il
punto di vista di Chion (2012), McLuhan (1988) e Ong (1967), che allo stesso tempo
essenzializzano la voce come "presenza", disincarnano e mitizzano (oltre che misticizzano)
l'oralità. Riflettendo studiosi letterari che studiano la poesia sperimentale per capire dove
l'avanguardia si oppone e commenta le norme linguistiche costruite culturalmente, Caravero
afferma che una posizione molto più produttiva è di comprendere il discorso come "il punto
di tensione tra l'unicità della voce e del sistema del linguaggio ”(Caravero, 2012: 530). Allo
stesso modo, Mladen Dolar sostiene che "Non è che il nostro vocabolario sia scarso e che la
sua deficienza debba essere sanata: di fronte alla voce, le parole strutturalmente falliscono"
(Dolar, 2012: 539). Intrattenendo la nozione di "linguistica delle non-voci" tra cui tosse,
singhiozzo, borbottio, urla, risate e canto, Dolar colloca questi suoni al di fuori della struttura
fonemica ma non al di fuori della struttura linguistica (Dolar, 2012: 552). Alla ricerca di
possibilità di studio in aspetti della voce come accento, intonazione e timbro, Dolar pone la
domanda al centro di tutte queste domande: "come possiamo perseguire questa dimensione
della voce?" (Dolar, 2012: 544) .
Infine, altre ricerche culturali sul suono si sono concentrate sulle intersezioni tra produzione
sonora e gioco critico. Pink Noises (2010) di Tara Rodgers, ad esempio, include una storia
di donne che hanno lavorato in modo creativo e critico con il suono elettronico per giocare
con il tempo, lo spazio e il linguaggio al fine di mettere in discussione i contesti culturali e
sociali in cui le donne fanno e hanno fatto musica elettronica. Il progetto SoundBox del
Franklin Humanities Institute della Duke University sta pubblicando una raccolta di
"provocazioni" digitali sul suono che sono sia critiche che ludiche. Il progetto chiede: "E se
fosse possibile argomentare sul suono usando il suono stesso?" (SoundBox, 2013) Queste
provocazioni includono lo sviluppo di Kenneth David Stewart di una "chitarra elettrica di
ispirazione sonora", un progetto critico che fornisce "un critica culturale della storia
dell'elaborazione del segnale incorporando quella storia nello strumento ”(Mueller, 2013),
nonché paesaggi sonori sperimentali basati su registrazioni sul campo, sonificazioni di testi
e fotografie e pezzi riflettenti che usano il suono per commentare altri manufatti culturali .
Il gioco critico comprende anche collegamenti tra la sound art contemporanea sperimentale
e i videogiochi mentre vengono messi in atto nella creazione di giochi digitali basati
sull'audio. Gli esempi includono il lavoro di Aaron Oldenburg (2013) e AudioGames.net,
un'iniziativa gestita da Richard van Tol e Sander Huiberts, che include un archivio di giochi
basati su audio e non vedenti, descrizioni, recensioni e articoli e un forum attivo. Esempi di
giochi audio ben noti e pluripremiati includono Square Waves, in cui il "Seeing Player" deve
collaborare con il "Hearing Player" a cui è concesso solo il capo-
cellulari; Swamp, uno sparatutto in prima persona online cooperativo in cui il giocatore è
orientato con paesaggi sonori che rappresentano impostazioni diverse; Terraformers, che
mette in scena una colonia spaziale utilizzando registrazioni binaurali 3D; e Papa Sangre II,
che utilizza una tecnologia simile per guidare il giocatore attraverso la terra dei morti.

Conclusione: suoni futuri in DH

Il gran numero di raccolte di suoni analogici e digitali indica che registrazioni musicali e
radiofoniche e testi parlati tra cui letture di poesie e spettacoli teatrali, storie orali e
registrazioni sul campo, discorsi presidenziali e telefonate o storie raccontate da anziani di
ieri e di oggi le comunità indigene sono importanti artefatti culturali che devono essere resi
più accessibili per lo studio. Il lavoro brevemente descritto sopra suggerisce anche che gli
studi sul suono hanno molto da offrire teorie, modelli, strumenti e pedagogie sul DH che
sono stati sviluppati principalmente nello studio del testo e delle immagini e viceversa. Come
mostra questo capitolo, le tecnologie che registrano, trasmettono, riproducono e trasmettono
la voce - come il telegrafo, la radio, il telefono e il fonografo - sono state sviluppate all'interno
di una storia sociotecnica in cui l'obiettivo e il processo per perseguire il "significato" del
suono sono entrambi fortemente contestati. Il significato dei dibattiti su come i testi parlati
potrebbero essere studiati (in termini di caratteristiche sonore o contenuto linguistico) è ben
espresso da Sterne, che pone particolare enfasi su una sezione intitolata "Voci" nel Sound
Studies Reader, che afferma che include brani di che la preoccupazione principale è la "più
elementare delle facoltà umane" o "cosa significa essere umani" (Sterne, 2012a: 11). Certo,
scoprire le convergenze in teorie apparentemente divergenti (tecnologiche vs. umanistiche)
potrebbe fornire un quadro per pensare attraverso come costruire infrastrutture di
informazione che facilitino gli studi culturali con raccolte audio digitali. Alcuni progetti DH
hanno iniziato a riflettere sulle implicazioni dello sviluppo delle infrastrutture per lo studio
dell'audio nelle discipline umanistiche. Lo sperimentatore del SALAMI Stephen Downie, ad
esempio, identifica 10 principali problemi di ricerca che devono essere affrontati durante lo
sviluppo di sistemi di recupero di informazioni musicali, tra cui la determinazione di
procedure efficaci e tecniche di valutazione per (1) indicizzazione, (2) query di recupero, (3)
progettazione dell'interfaccia utente per accesso e analisi, (4) compressione audio per
un'elaborazione efficiente, (5) rilevamento di funzionalità audio che produce analisi
produttive, (6) algoritmi di apprendimento automatico, (7) tecniche di classificazione, (8)
misure di sicurezza per materiali sensibili, (9) accessibilità procedure per una serie di
comunità di utenti e (10) sufficiente sviluppo dell'infrastruttura di elaborazione e
archiviazione per tecniche ad alta intensità di dati (Downie, 2008; Downie et al., 2010).
Inoltre, il progetto HiPSTAS (Tecnologie del suono ad alte prestazioni per accesso e borsa
di studio) della School of Information presso l'Università del Texas ad Austin e dell'Illinois
Illinois Informatics Institute presso l'Università dell'Illinois, Urbana-Champaign tenta di
affrontare la mancanza di infrastrutture per un migliore accesso al suono in parte
introducendo gli umanisti in ARLO, un'applicazione che è stata sviluppata per eseguire la
visualizzazione spettrale, la corrispondenza, la classificazione e il clustering su larga scala
raccolte di chiamate di uccelli. L'implementazione di ARLO per HiPSTAS su un sistema di
supercomputer presso il Texas Advanced Computing Center ha prodotto tre risultati
significativi per gli usi futuri dei big data audio nelle discipline umanistiche: (1) una
valutazione dei requisiti degli utenti per l'analisi computazionale su larga scala delle raccolte
di parole parlate di vivo interesse per le discipline umanistiche; (2) una valutazione delle
infrastrutture necessarie per l'accesso a breve termine (sandbox) e a lungo termine
(sostenibile) e la distribuzione di risorse di supercalcolo per la visualizzazione e l'estrazione
di grandi raccolte audio per gli utenti delle discipline umanistiche; e (3) risultati preliminari del
progetto utilizzando queste risorse di supercalcolo per rilevare la ripetizione e trovare
caratteristiche sonore di interesse come applausi e risate (Clement et al., 2014).
Infine, una nuova collaborazione presso la School of Information presso l'Università del
Maryland, College Park, mira a recuperare i dati temporali riguardanti quando è stata
effettuata una registrazione basata sull'analisi di tracce catturate per errore di piccole
variazioni (firme di frequenza della rete elettrica) nell'alimentazione elettrica al momento
della registrazione e del loro confronto con le informazioni sulla provenienza note (Su et al.,
2013; Oard et al., 2014). Certamente, capire come interpretiamo "la voce" è produttivo
nell'aiutarci a considerare come modellare queste attività con sistemi computazionali, ma ci
sono molte aree di nuova indagine che potrebbero essere produttive per le discipline
umanistiche digitali in generale. Alcuni includono lo studio critico della trasduzione
tecnologica, della riproduzione e della trasmissione del suono; di ambienti sonori (compresi i
clic e i ronzii contestualizzati delle tecnologie di registrazione, gli allarmi auto di una notte di
città, o gli applausi, il pianto del bambino, la tosse, il cane che abbaia, il riso, il ronzio di
acustemologie di spazi sonori e spazi di registrazione); oltre a modellare criticamente l'atto
dell'audizione (come l'ascolto, l'udito o la sordità); e critica estetica, arti sonore e voci (sia
come linguistiche che para-linguistiche). Inoltre, l'indagine del CLIR sullo stato delle raccolte
audio nelle biblioteche accademiche (Smith et al., 2004) e il piano nazionale di
conservazione della registrazione della Library of Congress (Nelson-Strauss et al., 2012)
citano la riforma della legislazione sul copyright, iniziative organizzative per la conservazione
condivisa reti e miglioramenti nei processi di scoperta e catalogazione come le aree in cui
sono più necessarie la ricerca e lo sviluppo per aumentare l'accesso. Al fine di alleviare gli
arretrati di raccolte audio non descritte, chiedono "nuove tecnologie per l'acquisizione audio
e l'estrazione automatica di metadati" (Smith et al., 2004: 11) con un "focus sullo sviluppo, il
test e il miglioramento di approcci basati sulla scienza per tutte le aree che incidono sulla
conservazione dell'audio ”(Nelson-Strauss et al., 2012: 15). L'apparente necessità di ulteriori
indagini sullo sviluppo delle infrastrutture per l'accesso e la scoperta, nonché la
conservazione e la sostenibilità negli studi sonori dovrebbe colpire un accordo risonante
nelle discipline umanistiche digitali e gli studiosi del DH esperti in studi sonori sono ben
preparati per affrontare queste sfide.

Crowdsourcing nelle discipline umanistiche digitali


Melissa Terras

Poiché le tecnologie Web 2.0 hanno cambiato il World Wide Web da un'esperienza di sola
lettura a un'esperienza digitale co-creativa, è emersa una gamma di piattaforme commerciali
e non commerciali per consentire agli utenti online di contribuire alle discussioni e utilizzare
le loro conoscenze, esperienze e tempo per creare contenuti online . Accanto al diffuso
successo di risorse prodotte in collaborazione come Wikipedia, si è verificato un movimento
nei settori della cultura e del patrimonio per sperimentare il crowdsourcing: lo sfruttamento di
attività e comportamenti online per aiutare iniziative su larga scala come taggare,
commentare, classificare, recensire, correggere il testo e la creazione e il caricamento di
contenuti in modo metodico e basato su attività (Holley, 2010) - per migliorare la qualità e
ampliare l'accesso alle raccolte online. Basandosi su questo, all'interno delle discipline
umanistiche digitali ci sono stati tentativi di crowdsourcing di compiti più complessi
tradizionalmente ritenuti svolti da studiosi accademici, come l'accurata trascrizione di
materiale manoscritto.
Questo capitolo ha lo scopo di esaminare la crescita e l'adozione del crowdsourcing per la
cultura e il patrimonio, e più specificamente all'interno delle discipline umanistiche digitali.
Solleva questioni di impegno pubblico e chiede in che modo l'uso della tecnologia per
coinvolgere e coinvolgere un pubblico più ampio con compiti che sono stati la competenza
tradizionale degli accademici può ampliare la portata e l'apprezzamento dell'indagine
umanistica. Infine, si chiede cosa significhi questa attività rivolta al pubblico sempre più
comune per le stesse discipline umanistiche digitali, poiché il successo di questi progetti
dimostra l'efficacia della costruzione di progetti e il coinvolgimento di un vasto pubblico
online.

Crowdsourcing: un’introduzione

Il crowdsourcing - la pratica di utilizzare i contributi di una grande comunità online per


intraprendere un compito specifico, creare contenuti o raccogliere idee - è il prodotto di un
cambiamento culturale critico nelle tecnologie di Internet. La prima generazione del World
Wide Web era stata dominata da siti Web statici, facilitati da motori di ricerca che
consentivano solo comportamenti di ricerca di informazioni. Tuttavia, lo sviluppo di
piattaforme online che ha permesso e incoraggiato un dialogo a due vie piuttosto che una
mentalità di trasmissione ha favorito la partecipazione pubblica, la co-creazione di
conoscenza e la costruzione di comunità, in una fase che viene comunemente definita "Web
2.0" (O'Reilly, 2005; Flew, 2008).
Nel 2005, un articolo sulla rivista Wired ha discusso di come le aziende stessero iniziando a
utilizzare queste nuove piattaforme per esternalizzare il lavoro agli individui, coniando il
termine "crowdsourcing" come un portmanteau di "outsourcing" e "folla":

I progressi tecnologici in tutto, dal software di progettazione del prodotto alle videocamere digitali,
stanno abbattendo le barriere di costo che una volta separavano i dilettanti dai professionisti.
Hobbisti, part-time e dilettanti hanno improvvisamente un mercato per i loro sforzi, poiché le aziende
intelligenti in settori così diversi come la farmaceutica e la televisione scoprono modi per attingere al
talento latente della folla. Il lavoro non è sempre gratuito, ma costa molto meno del pagamento dei
dipendenti tradizionali. Non è in outsourcing; è crowdsourcing. (Howe, 2006a)

Il termine è stato prontamente adottato online per riferirsi a

l'atto di una società o istituzione che assume una funzione una volta svolta dai dipendenti e la
esternalizza a una rete indefinita (e generalmente ampia) di persone sotto forma di una chiamata
aperta. Ciò può assumere la forma di peer-production (quando il lavoro viene svolto in modo
collaborativo), ma spesso viene anche intrapreso da singoli individui. Il prerequisito cruciale è l'uso del
formato di chiamata aperto e la grande rete di potenziali lavoratori. (Howe, 2006b)

Within a week of the term being coined, 182,000 other websites were using it (Howe, 2006c)
and it rapidly became the word used to describe a wide range of online activities from
contributing to online encyclopedias such as Wikipedia, to tagging images on imagesharing
websites such as Flickr, to writing comments on blogs, to proofreading out-of-copyright texts
on Project Gutenberg, or contributing to open-source software (an analagous term to
crowdsourcing, citizen science, has also been used where the small-scale tasks carried out
online contribute to scientific projects; Silvertown, 2009).
It is important to note here that the use of distributed (generally volunteer) labor to undertake
small portions of much larger tasks, gather information, contribute to a larger project, or
solve problems, is not new. There is a long history of scientific prizes, architectural
competitions, genealogical research, scientific observation and recording, and linguistic
study (to name but a few applications) that have relied on the contribution of large numbers
of individuals to undertake a centrally managed task, or solve a complex problem (see
Finnegan, 2005, for an overview). For example, the Mass-Observation Project was a social
research organization in the United Kingdom between 1937 and the 1960s, which relied on a
network of 500 volunteer correspondents to record everyday life in Britain, including
conversation, culture, and behavior (Hubble, 2006). The difference between these projects
and the modern phenomenon of crowdsourcing identified by Howe is, of course, the use of
the Internet, the World Wide Web, and interactive web platforms as the mechanism for
distributing information, collecting responses, building solutions, and communicating around
a specified task or topic. There was an intermediary phase, however, between offline
volunteer labor
and the post-2006 “crowdsourcing” swell, where volunteer labor was used in conjunction
with computers and online mechanisms to collect data. Brumfield (2013a) identifies at least
seven genealogy projects, such as FreeBirths, Marriages and Deaths (FreeBMD,
http://freebmd.org.uk), FreeRegisters (FreeREG, http://www.freereg.org.uk), and
FreeCensus (FreeCEN, http://www.freecen.org.uk), that emerged in the 1990s:

da una tradizione (almeno) centenaria di creazione di indici di stampa per fonti manoscritte che furono
poi pubblicate. Una volta che il web è diventato online, l'idea di pubblicarli sul web [invece] è diventata
ovvia. Ma gli strumenti utilizzati per creare questi erano fogli di calcolo che le persone avrebbero
usato sui loro computer di casa. Quindi inserivano per posta CD-ROM o floppy disk e li spedivano per
essere pubblicati online. (Brumfield, 2013a)

Il recente fenomeno del crowdsourcing, o scienza dei cittadini, può quindi essere visto come
una continuazione dell'uso delle piattaforme e delle reti di comunicazione disponibili per
distribuire compiti tra un gran numero di persone interessate, lavorando verso un obiettivo
comune.
Quali tipi di attività legate al web sono ora descritti come "crowdsourcing"? Daren Brabham
(2013: 45) propone una tipologia utile, esaminando i progetti principalmente commerciali che
esistono nello spazio del crowdsourcing, suggerendo che ci sono due tipi di
problemi che possono essere risolti al meglio con questo approccio: problemi di gestione
delle informazioni e problemi di ideazione. Si verificano problemi di gestione delle
informazioni in cui le informazioni devono essere localizzate, create, assemblate, ordinate o
analizzate. Brabham suggerisce che le tecniche di scoperta e gestione delle conoscenze
possono essere utilizzate per la gestione delle informazioni in crowdsourcing, in quanto sono
ideali per la raccolta di fonti o la segnalazione di problemi: un esempio di questo sarebbe
SeeClickFix (http://en.seeclickfix.com), che incoraggia
persone per "segnalare problemi di vicinato e vederli risolti" (SeeClickFix, 2013). Un
approccio di crowdsourcing alternativo alla gestione delle informazioni è ciò che Brahbam
chiama "tasking di intelligenza umana distribuita": quando "è noto un corpus di dati e il
problema non è produrre progetti, trovare informazioni o sviluppare soluzioni, ma elaborare i
dati" (Brabham, 2013: 50). Nella meno creativa e intellettualmente esigente delle tecniche di
crowdsourcing, gli utenti possono essere incoraggiati a intraprendere "micro-task" ripetitivi,
spesso per compensazioni monetarie, se il compito è per un'entità commerciale. Un
esempio di ciò potrebbe essere il Turk meccanico di Amazon (https://www.mturk.com), che
"offre alle aziende e agli sviluppatori l'accesso a una forza lavoro scalabile su richiesta. I
lavoratori scelgono tra migliaia di compiti e lavorano ogni volta che è conveniente ”(Amazon
Mechanical Turk, 2014) - sebbene Amazon Turk sia stato criticato per il suo modello di
business“ non etico ”, con gran parte dei suoi lavoratori che vivono nei paesi in via di
sviluppo, lavorando su compiti per pochissimo pagamento (Cushing, 2013).
Il secondo tipo di attività che Brabham ha identificato come adatto al crowdsourcing consiste
in problemi di ideazione: dove devono essere proposte soluzioni creative, empiricamente
vere, o una questione di gusti o di sostegno del mercato (Brabham, 2013: 48–51).
Brabham suggerisce che il crowdsourcing è comunemente usato come una forma di "ricerca
di trasmissioni" per individuare persone che possono fornire la risposta a problemi specifici o
fornire la soluzione a una sfida, a volte con premi pecuniari. Un esempio di piattaforma
online che utilizza questo approccio è InnoCentive.com, che è principalmente orientato
verso la comunità scientifica per generare idee o raggiungere soluzioni, per la ricerca e lo
sviluppo, a volte con premi finanziari molto elevati: al momento della stesura, c'erano tre
premi del valore di $ 100.000 in offerta. Brabham suggerisce che una soluzione alternativa
di crowdsourcing ai problemi dell'ideazione è la "produzione creativa controllata dai pari"
(Brabham, 2013: 49), in cui una fase creativa viene aperta a un pubblico online, che
presenta un gran numero di proposte e i meccanismi di voto sono quindi mettere in atto per
aiutare a ordinare le proposte, nella speranza di identificare suggerimenti superiori. Un
esempio di questo approccio potrebbe essere Threadless.com, una comunità creativa che
progetta, ordina, crea e fornisce un meccanismo per acquistare vari articoli di moda (il sito
Web è iniziato con magliette, ma da allora si è ampliato per offrire altri prodotti).
Dalla sua introduzione nel 2006, il termine "crowdsourcing" è ora utilizzato per coprire una
vasta gamma di attività in un gran numero di settori:

Le aziende, le organizzazioni senza scopo di lucro e le agenzie governative integrano regolarmente le


energie creative delle comunità online nelle operazioni quotidiane e molte organizzazioni sono state
interamente costruite da questi accordi. (Brabham, 2013: xv)

La tipologia generale di Brabham è uno strumento utile, in quanto fornisce un quadro in cui
pensare sia al tipo di problema che viene affrontato dalla piattaforma online, sia allo
specifico meccanismo di crowdsourcing utilizzato per proporre una soluzione.
Data la prevalenza dell'uso del crowdsourcing nelle comunità online per una serie di attività
sia commerciali che no profit, non sorprende che siano emerse varie implementazioni di
attività di crowdsourcing nel settore culturale e del patrimonio in generale e nelle discipline
umanistiche digitali in particolare.

La crescita del crowdsourcing in ambito culturale e applicazioni del patrimonio

Ci sono molti aspetti del crowdsourcing che sono utili a coloro che lavorano nella storia,
nella cultura e nel patrimonio, in particolare all'interno di gallerie, biblioteche, archivi e musei
(GLAM), che hanno una lunga storia di partecipazione con membri del pubblico e
generalmente hanno scopi istituzionali promuovere le loro collezioni e coinvolgere il più
vasto pubblico possibile. Tuttavia, "Il crowdsourcing è un concetto che è stato inventato e
definito nel mondo degli affari ed è importante rifarlo e riflettere su ciò che cambia quando lo
portiamo nel patrimonio culturale" (Owens, 2012a). La differenza più ovvia è che il
pagamento a coloro che svolgono compiti non è generalmente un'opzione per le istituzioni
ospitanti, ma anche che "un approccio chiaramente etico per invitare il pubblico ad aiutare
nella raccolta, descrizione, presentazione e uso della documentazione culturale" deve
essere identificato e perseguito. Owens (2012a) delinea una serie di differenze tra il modello
di crowdsourcing di massa sfruttato dal settore commerciale e l'uso del lavoro volontario
online nelle organizzazioni culturali e del patrimonio, sottolineando che "molti dei progetti
che finiscono per rientrare nella categoria del crowdsourcing in biblioteche, archivi e musei
non hanno coinvolto folle grandi e grandi e hanno ben poco a che fare con il lavoro in
outsourcing ”. I progetti di crowdsourcing sul patrimonio non riguardano le masse anonime di
persone, ma si tratta di invitare la partecipazione di coloro che sono interessati e impegnati,
e in generale coinvolgere una piccola coorte di appassionati a utilizzare gli strumenti digitali
per contribuire (allo stesso modo in cui potrebbero essersi offerti volontari offline per
organizzare e aggiungere valore alle raccolte in passato). Il lavoro non è "lavoro", ma un
modo significativo in cui gli individui possono interagire, esplorare e comprendere la
documentazione storica. Spesso sono individui altamente motivati ​e qualificati che si offrono
di aiutare, piuttosto che quelli che possono essere descritti con il termine dispregiativo
"dilettanti". Owens (2012a) suggerisce che il crowdsourcing in questo settore è quindi una
complessa interazione tra la comprensione delle potenzialità del calcolo umano , adottando
strumenti e software come impalcature per aiutare questo processo e comprendendo la
motivazione umana.
Non esiste una storia cronologica della crescita del crowdsourcing nella cultura e nel
patrimonio, ma il primo progetto su larga scala che ha adottato questo modello di interazione
con gli utenti è stato l'Australian Newspaper Digitization Program
(http://www.nla.gov.au/content/ programma di digitalizzazione di giornali), che nell'agosto
2008 ha chiesto al pubblico di correggere il testo OCR (riconoscimento ottico dei caratteri) di
8,4 milioni di articoli generati dai loro quotidiani australiani storici digitalizzati. Si è trattato di
un progetto di eccezionale successo, e nel luglio 2015 oltre 166 milioni di singole linee di
articoli di giornale erano state revisionate e corrette dal lavoro volontario. Le trascrizioni
risultanti possono aiutare gli altri non solo nella lettura, ma anche nella ricerca di testo
nell'archivio digitalizzato. Dopo il successo di questo progetto e l'ascesa del crowdsourcing
commerciale, altri progetti hanno iniziato ad adottare tecniche di crowdsourcing per aiutare a
digitalizzare, ordinare e correggere i materiali del patrimonio. Nel 2009, uno dei primi progetti
scientifici di cittadini basati su dati storici, è stato lanciato il North American Bird Phenology
Program (www.pwrc.usgs.gov/bpp) per trascrivere 6 milioni di osservazioni sulla carta di
migrazione raccolte da una rete di volontari " che ha registrato le informazioni relative alle
date del primo arrivo, alla massima abbondanza e alle date di partenza degli uccelli migratori
in tutto il Nord America ”tra il 1880 e il 1970 (Programma di fenologia degli uccelli
nordamericani, senza data).
Al momento della stesura di questo documento, oltre un milione di carte sono state trascritte
da volontari, consentendo di effettuare una serie di ricerche scientifiche sui dati risultanti.
Il crowdsourcing nel settore del patrimonio ha iniziato ad aumentare di velocità intorno al
2010 con l'avvio di una serie di progetti che chiedevano al pubblico vari tipi di aiuto tramite
un'interfaccia online. Uno dei più riusciti di questi è un'altra combinazione di crowdsourcing
storico e scienza dei cittadini, chiamata Old Weather (www.oldweather.org), che invita il
pubblico a trascrivere osservazioni meteorologiche annotate nei giornali di bordo delle navi
risalenti alla metà del XIX secolo secolo ai giorni nostri, al fine di "contribuire alle proiezioni
dei modelli climatici e ... migliorare la nostra conoscenza delle condizioni ambientali passate"
(Old Weather, 2013a). Old Weather è stato lanciato nell'ottobre 2010 come parte del portale
Zooniverse (www.zooniverse.org) di 15 diversi progetti di scienze dei cittadini (che erano
iniziati con il famoso strumento di classificazione delle gallerie, Galaxy Zoo
(www.galaxyzoo.org), nel 2009). Il progetto Old Weather è una collaborazione di una vasta
gamma di istituzioni archivistiche e scientifiche e musei e università sia nel Regno Unito che
negli Stati Uniti (Old Weather, 2013b), mostrando come una piattaforma digitale comune può
riunire informazioni fisicamente disperse per l'analisi da parte degli utenti . Al momento della
scrittura, sono stati trascritti oltre 34.000 registri e sette viaggi (tre volte, da utenti diversi, per
garantire il controllo di qualità, il che significa che oltre 1.000.000 di pagine singole sono
state trascritte dagli utenti; Brohan, 2012), e i dati risultanti sono ora utilizzato da scienziati e
storici per comprendere sia i modelli climatici che la storia navale (con il loro blog
regolarmente aggiornato con i risultati: http://blog.oldweather.org).
Una serie di altri importanti progetti di crowdsourcing avviati nel periodo 2010-2011, che
mostrano l'ampiezza e la portata dell'applicazione dello sforzo online al patrimonio culturale.
Questi includono (ma non sono limitati a): trascrivere Bentham, che viene discusso in
maggior dettaglio di seguito; lo strumento del Victoria and Albert Museum per convincere gli
utenti a migliorare il ritaglio delle loro foto nella collezione
(http://collections.vam.ac.uk/crowdsourcing); il progetto "Remember Me" del Museo
dell'Olocausto degli Stati Uniti, che mira a identificare i bambini nelle fotografie scattate dagli
operatori umanitari durante le conseguenze immediate della seconda guerra mondiale, per
facilitare le connessioni tra i sopravvissuti (http://rememberme.ushmm.org); Il progetto
“What’s on the Menu?” della Biblioteca Pubblica di New York (http://menus.nypl.org), in cui
gli utenti possono trascrivere la loro collezione di menu di ristoranti storici;
e il progetto DigitalKoot della Biblioteca nazionale finlandese
(www.digitalkoot.fi/index_en.html), che ha permesso agli utenti di giocare con giochi che
hanno contribuito a migliorare i metadati della loro Biblioteca di giornali storici. La gamma e
la diffusione di siti Web che rientrano nell'ambito del crowdsourcing nel settore culturale e
del patrimonio continua ad aumentare e ora è un metodo relativamente consolidato, seppure
in evoluzione, utilizzato per gallerie, biblioteche, archivi e musei. Un elenco di progetti di
crowdsourcing no profit nelle istituzioni GLAM è disponibile su
www.digitalglam.org/crowdsourcing/projects. Considerando questa attività alla luce della
tipologia di Brabham, sopra, è chiaro che la maggior parte dei progetti rientra nella categoria
di "gestione delle informazioni" (Brabham, 2013), in cui un'organizzazione (o progetto
collaborativo tra una serie di organizzazioni) incarica la folla di aiutare a raccogliere,
organizzare e raccogliere informazioni in una fonte o un formato comuni.
Qual è la relazione tra questi progetti e coloro che lavorano nelle discipline umanistiche
digitali?
Ovviamente, molti progetti di crowdsourcing dipendono dall'avere informazioni - o cose - per
commentare, trascrivere, analizzare o ordinare, e quindi le istituzioni GLAM, che sono
custodi di tale materiale storico, spesso collaborano con ricercatori universitari che
hanno interesse a utilizzare tecniche digitali per rispondere alle loro discipline umanistiche o
alla domanda di ricerca basata sul patrimonio. Spesso c'è molta condivisione di competenze
e infrastrutture tecniche tra diversi progetti e istituzioni: ad esempio, la piattaforma Galaxy
Zoo che è alla base di Old Weather viene utilizzata anche da Ancient Lives
(http://ancientlives.org) per aiutare la trascrizione di papiri in crowdsourcing, e Operation War
Diary (http://www.operationwardiary.org) per aiutare a trascrivere i diari delle unità della
prima guerra mondiale. Inoltre, coloro che lavorano nelle discipline umanistiche digitali
possono spesso consigliare e assistere i colleghi nelle istituzioni partner e nei dipartimenti
accademici: Transcribe Bentham è una collaborazione tra
I servizi bibliotecari dell'University College di Londra (comprese le collezioni speciali
dell'UCL), il progetto Bentham (con sede presso la Facoltà di giurisprudenza), l'UCL Center
for Digital Humanities, la British Library e l'Università di London Computing Centre, con il
ruolo del Digital Humanities Center essere di fornire orientamento e consulenza con attività
online, buone pratiche e impegno pubblico. Un altro esempio di collaborazione può essere
visto in eventi come CITSCribe Hackathon nel dicembre 2013, che “ha riunito oltre 30
programmatori e ricercatori delle aree di ricerca sulla biodiversità e discipline umanistiche
digitali per una settimana per consentire ulteriormente la partecipazione pubblica alla
trascrizione del campione di biodiversità etichette "(iDigBio, 2013).
Il crowdsourcing nelle discipline umanistiche digitali può anche essere utilizzato per ordinare
e migliorare set di dati incompleti, come un corpus di 493 spettacoli non shakespeariani
scritti tra il 1576 e il 1642 in cui 32.000 parole parzialmente trascritte sono state corrette
dagli studenti nel corso di un periodo di otto settimane utilizzando uno strumento online
(http://annolex.at.northwestern.edu; vedi Mueller, 2014), che indica come possiamo usare il
crowdsourcing per coinvolgere gli studenti di discipline umanistiche nella raccolta e nella
cura di corpora rilevanti per la più ampia comunità di discipline umanistiche. Gli studiosi di
discipline umanistiche digitali sono ben posizionati per la ricerca, l'ambito e la teoria delle
attività di crowdsourcing in un settore più ampio: ad esempio il progetto Modeling
Crowdsourcing for Cultural Heritage (http://cdh.uva.nl/projects-2013-2014/mocca html) con
sede presso il Center for Digital Humanities and Creative Research Industries Amsterdam,
entrambi presso l'Università di Amsterdam, mira a determinare un modello completo per
"determinare quali tipi e metodi di crowdsourcing sono rilevanti per quali scopi specifici"
(Amsterdam Center for Digital Studi umanistici, 2013).
Come vedremo di seguito, studiosi e centri di studi umanistici digitali stanno studiando e
costruendo nuove piattaforme per attività di crowdsourcing, in particolare nella trascrizione di
testi storici. Inoltre, gli accademici di discipline umanistiche digitali possono aiutare con
suggerimenti su cosa possiamo fare con le informazioni di crowdsourcing una volta raccolte;
ora ci stiamo muovendo
in una fase successiva del crowdsourcing, dove è necessaria la comprensione delle
tecniche di data mining e visualizzazione per interrogare il volume di dati raccolti dal lavoro
volontario.
Infine, c'è l'inizio di un corpus di letteratura sull'area più ampia del crowdsourcing, sia nelle
discipline umanistiche digitali che nel settore GLAM, e nel loro insieme questi possono
informare coloro che stanno pensando di intraprendere un progetto di crowdsourcing per
un'area correlata. Va sottolineato che spesso è difficile fare una distinzione tra ciò che
dovrebbe essere etichettato come un progetto "settore GLAM" e ciò che dovrebbe essere
etichettato come "discipline umanistiche digitali" nell'area del crowdsourcing, poiché molti
progetti utilizzano il crowdsourcing non solo per ordinare o etichettare o formattare le
informazioni storiche, ma per fornire le materie prime e le metodologie per creare e
comprendere nuove informazioni sul nostro passato, sulla nostra eredità culturale o sulla
nostra società.
In seguito al successo del programma di digitalizzazione dei quotidiani australiani che ha
gestito, Holley (2010) ha portato alla luce i temi del "crowdsourcing: come e perché
dovrebbero farlo le biblioteche", in una discussione fondamentale che la successiva ricerca
e l'implementazione del progetto hanno beneficiato . Holley propone che ci sono molti
potenziali vantaggi nell'utilizzare il crowdsourcing in un contesto bibliotecario (che possiamo
anche estrapolare per coprire coloro che lavorano nel settore GLAM e nelle discipline
umanistiche digitali). I vantaggi del crowdsourcing notato sono che può aiutare a:
raggiungere obiettivi che l'istituzione non avrebbe le risorse (temporali, finanziarie o di
personale) per raggiungere se stessa; raggiungere questi obiettivi più rapidamente rispetto a
lavorare da soli; costruire nuovi gruppi di utenti e comunità; coinvolgere attivamente la
comunità con l'istituzione e i suoi sistemi
e collezioni; utilizzare conoscenze, competenze e interessi esterni; migliorare la qualità dei
dati, che migliora le successive esperienze di ricerca dell'utente; aggiungere valore ai dati;
migliorare ed espandere i modi in cui i dati possono essere scoperti; ottenere una visione
delle opinioni e dei desideri degli utenti costruendo una relazione con la folla; mostrare la
pertinenza e
importanza dell'istituzione (e delle sue collezioni) per l'alto livello di interesse pubblico nel
progetto; creare fiducia e incoraggiare la lealtà verso l'istituzione; e incoraggiare un senso di
proprietà pubblica e responsabilità nei confronti delle collezioni di beni culturali (Holley,
2010).
Holley chiede anche qual è il profilo normale di un volontario di crowdsourcing nel settore
culturale, del patrimonio e delle discipline umanistiche, sottolineando che anche dai primi
progetti pilota emerge lo stesso trucco: sebbene possa esserci un gran numero di volontari
che inizialmente si iscrivono, la maggioranza del lavoro viene svolto da una piccola coorte di
superutenti, che realizzano quantità di lavoro significativamente maggiori rispetto a chiunque
altro. Tendono a impegnarsi nel progetto a lungo termine, apprezzano che si tratta di
un'esperienza di apprendimento, che dà loro uno scopo ed è personalmente gratificante,
forse perché sono interessati a esso o lo vedono come una buona causa. I volontari spesso
parlano di diventare dipendenti dalle attività e la quantità di lavoro intrapreso spesso supera
le aspettative del progetto. Holley (2010) sostiene che "i fattori che motivano i volontari
digitali non sono in realtà diversi da quelli che motivano chiunque a fare qualsiasi cosa",
affermando che l'interesse, la passione, una causa degna, che restituiscono alla comunità,
aiutano a raggiungere un obiettivo di gruppo, e contribuire alla scoperta di nuove
informazioni in un'area importante sono spesso ragioni per cui i volontari contribuiscono. Le
osservazioni e le indagini sui volontari da parte dei responsabili del sito hanno rilevato varie
tecniche che possono migliorare la motivazione degli utenti, come l'aggiunta
più contenuti regolarmente, aumentando le sfide, creando un cameratismo, costruendo
relazioni con il progetto, riconoscendo l'aiuto del volontario, fornendo premi e rendendo
trasparenti gli obiettivi e i progressi. Il processo di ricompensa e riconoscimento è spesso
collegato ai rapporti sullo stato di avanzamento, con i nomi dei volontari, i risultati migliori
classificati in tabelle pubblicamente disponibili e regali promozionali.
Holley fornisce vari suggerimenti che hanno fornito indicazioni per una varietà di progetti di
crowdsourcing e che vale la pena seguire da coloro che stanno prendendo in
considerazione l'utilizzo di questo metodo.
Il progetto dovrebbe avere un obiettivo chiaro che presenta una grande sfida, riferire
regolarmente sui progressi e mostrare i risultati. Il sistema dovrebbe essere facile e
divertente, affidabile e rapido, intuitivo e fornire opzioni agli utenti in modo che possano
scegliere su cosa lavorare (in una certa misura). I volontari dovrebbero essere riconosciuti,
premiati, supportati dal team di progetto e fidati. Il contenuto dovrebbe essere interessante,
nuovo, incentrato sulla storia o sulla scienza e dovrebbe essercene molto (Holley, 2010). Il
documento di Holley è stato scritto poco prima che molti dei progetti di cui sopra venissero in
corso, sottolineando il potenziale per le istituzioni e sfidando le strutture istituzionali ad
essere abbastanza coraggiose da tentare di coinvolgere le persone in questo modo. Entro il
2012, con vari progetti in pieno svolgimento, rapporti e documenti hanno iniziato a comparire
sulle sfumature del crowdsourcing in questo settore, anche se “c'è relativamente poca
letteratura accademica che si occupa della sua applicazione e dei risultati per consentire a
qualsiasi giudizio fermo di esprimere il suo potenziale produrre conoscenze
accademicamente credibili ”(Dunn e
Siepi, 2012: 4). Ridge (2012) esplora le "domande frequenti sul crowdsourcing nel
patrimonio culturale", rilevando varie idee sbagliate e apprensioni che circondano
l'argomento. Ridge concorda con Owens (2012b) che la definizione del settore di
crowdsourcing è problematica, suggerendo invece che dovrebbe essere definita come

una forma emergente di impegno con il patrimonio culturale che contribuisce a un obiettivo o area di
ricerca condivisi e significativi, chiedendo al pubblico di svolgere compiti che non possono essere
svolti automaticamente, in un ambiente in cui compiti, obiettivi (o entrambi) forniscono premi intrinseci
per la partecipazione. (Ridge, 2012)

Ridge attira l'attenzione sull'importanza delle relazioni costruite tra individui e organizzazioni
e che i progetti dovrebbero tenere conto delle motivazioni per la partecipazione. Il
nervosismo istituzionale attorno al crowdsourcing è causato dalle preoccupazioni che
informazioni dannose o intenzionalmente cattive saranno fornite da utenti difficili e ostruttivi,
anche se Ridge sostiene che ciò accade raramente e che un buon progetto di
crowdsourcing dovrebbe avere meccanismi integrati per evidenziare dati o utenti
problematici, e convalida il contenuto creato dai suoi utenti. Ridge ritorna di nuovo all'etica
dell'uso del lavoro volontario, alleggerendo le paure sul tipo di sfruttamento visto nello
sfruttamento del settore commerciale spiegando che

Musei, gallerie, biblioteche, archivi e progetti accademici sono nella fortunata posizione di avere un
lavoro interessante che coinvolge un elemento di bene sociale, e hanno anche un lavoro
estremamente vario, dai microtask ai progetti di ricerca co-curati. Il crowdsourcing è
parte di una lunga tradizione di volontariato e partecipazione altruistica. (Ridge, 2012)

In un ulteriore post del 2013, Ridge evidenzia anche i vantaggi dell'impegno digitale
attraverso il crowdsourcing, suggerendo che le piattaforme digitali possono consentire alle
istituzioni più piccole di interagire con gli utenti così come le istituzioni di grandi dimensioni,
possono generare nuove relazioni con diverse organizzazioni al fine di lavorare insieme
attorno a un argomento simile in un progetto collaborativo e può fornire un grande potenziale
per la partecipazione e il coinvolgimento del pubblico (Ridge, 2013). In effetti, Owens
(2012b) suggerisce che il nostro modo di pensare al crowdsourcing nella cultura e nel
patrimonio è il modo sbagliato: piuttosto che pensare al prodotto finale e ai dati migliori che i
volontari ci stanno aiutando a creare, le istituzioni dovrebbero concentrarsi sul fatto che il
crowdsourcing segna un adempimento della missione di mettere online le collezioni digitali:

Quello che fa il crowdsourcing, che la maggior parte delle piattaforme di raccolta digitale non riesce a
fare, offre a qualcuno l'opportunità di fare qualcosa di più che consumare informazioni ... Lungi
dall'essere uno strumento che ci consente in definitiva di fornire contenuti agli utenti finali, il
crowdsourcing è il migliore modo per coinvolgere effettivamente i nostri utenti nella ragione
fondamentale per cui queste raccolte digitali esistono in primo luogo ... Nella migliore delle ipotesi, il
crowdsourcing non consiste nel convincere qualcuno a lavorare per te, ma nell'offrire ai tuoi utenti
l'opportunità di partecipare al pubblico memoria. (Owens, 2012b)

Le lezioni apprese da questi progetti basati su musei e biblioteche sono importanti punti di
partenza per coloro che sono nelle discipline umanistiche digitali che desiderano
intraprendere il crowdsourcing.

Вам также может понравиться