martedì, 21 Novembre 2017

Appunti in tema d'interfaccia

Scritto da  il 10 Ottobre 2010

Premessa

Oggi, nel cuore della cosiddetta “èra della tecnica” (Heidegger), laddove s’impone un mondo di mezzi e non di fini, diviene dominante il discorso delle interfacce. Ovvero si ha vieppiù a che fare nel quotidiano con l’uso di strumenti che consistono nella mediazione del rapporto sociale e di quello con la realtà; ritenendo di poter sostenere che il rapporto umano, col mondo o con la realtà esterna è sempre stato “interfacciato”; che se è così oggi, allora nel passato non può essere stato altrimenti; che è vero “naturalmente” ciò che si scopre essere tecnicamente “possibile” oggi.
È una vecchia storia che trova il suo compimento: si celebra così il primato dell’artefazione e della  “rappresentazione”; si ha materialmente ma non radicalmente (nel senso cioè della fine anche del secondo) avverata la caduta di barriere fra mondo vero e mondo apparente.
Ciò che è possibile oggi dunque rivela ciò che è sempre stato vero senza che noi lo sapessimo e dunque si può dire che ciò che è possibile è reale, ciò che appare è vero, ciò che è è anche virtuale, nel senso che è e non è: non lo è per sé stesso, reale, ma lo è. Lo sfondamento tecnico di quel muro è avvenuto nell’industria, che ha prodotto artifici visivi, audio-tattili, e dispositivi che consentono l’accesso a prestazioni, manipolazioni, procedimenti  sorprendenti, laddove il valore nuovo emergente è alla fine la cosiddetta iper-realtà, ciò che per sdoppiarlo in modo tale da essere scambiabile con esso è “reale più del reale”
[2]: realtà insomma eguale ad effetto realistico.
Ma donde traggono origine questi concetti che così s’impongono, quasi in omaggio alla filosofia nietzscheana del “sospetto” e quasi a completamento di ogni pensiero o psicologia della percezione? La risposta è: da una cultura tecnica della emulazione e del “doppio”, che è molto legata al cinema; da ciò che le macchine digitali ovvero post-meccanicistiche, le macchine del superamento della cosiddetta “prima cibernetica”, hanno vieppiù dimostrato, quale èra nuova, essere pensabile a proposito dell’apprendimento.
Per far cadere il muro della chiara differenza tra reale e apparente, reale e realistico, si sarebbe dovuto forgiare un mondo nuovo, una dimensione nuova nella quale poter entrare e meglio nella quale chiunque sarebbe potuto entrare; dando vita ad un progetto, detto “delle interfacce”. L’interfaccia, se da una parte è dispositivo perché così essa nasce, dall’altra è e non è la qualificazione di questo o quel dispositivo, perché essa così ne definisce funzione ed efficacia come definisce più in generale qualsivoglia rapporto collaborativo unitario e di mediazione fra uomo e macchina.


Significati di “interfaccia”

“Interfaccia” (Interface), in termini astratti e formali, è ciò che media, attivandolo, il rapporto fra due unità o entità fisiche diverse; oppure, più essenzialmente, ciò che serve a connettere fra di loro, consentendo il funzionamento di un sistema, entità con diversa funzione. In generale l’interfaccia s’inscrive dunque nel mondo della comunicazione. Anzi evolvendo - e cioè affinandosi, umanizzandosi - ne caratterizza lo sviluppo.
Dal punto di vista della tecnica - siamo agli inizi degli anni settanta - la parola indica fisicamente la superficie intermedia tra due fasi di un sistema o tra due corpi o spazi. Quando prende la strada informatica, laddove assume sviluppi determinanti, essa viene a significare ciò che collega fra loro componenti diversi di un sistema - come per esempio la tastiera o il monitor con il computer, oppure (contestualmente) due sistemi operativi o programmi applicativi (Program-to-Program Interface) - rendendo possibili in generale passaggi e scambi d’informazioni; ovvero ciò che converte i segnali provenienti da un’unità fisica rendendoli comprensibili ed utilizzabili da altra unità fisica.
Restando nel mondo degli elaboratori digitali e mettendosi dalla parte della CPU (Central Process Unit), l’unità centrale di controllo che presiede agli scambi dei dati, è interfaccia tutto ciò che collega il computer propriamente detto con il mondo “esterno”: con il sistema operativo, con i programmi, con i vari dispositivi “periferici” (tastiera, mouse, monitor, stampante, disco rigido, floppy disk, registratori a nastri o tastiere musicali, ecc.), strumenti che solitamente hanno funzionalità di ordine diverso rispetto a quello del computer.
Seguendo questa impostazione, nella nozione di realtà “esterna” può essere fatto rientrare anche l’essere umano, ovvero l’utente (o come si preferisce dire utilizzatore: User) quale unità fisica o quale “sistema” a sua volta, che ha attitudine ad interagire con altri sistemi, così con l’ambiente o con la società, come con le macchine.
Con riguardo a quest’ultimo aspetto, si è imposto da circa venti anni il problema cosiddetto dell’“interfaccia utente”. Una prospettiva merceologica indirizzata all’uomo, attenta al design, all’indagine psicologica ed allo sviluppo in tale direzione del software; che per essere orientata alla sensibilità dell’utente, integra di fatto, prima ancora che rovesciarla nella definizione, quella precedentemente espressa.
In tal senso, con attinenza ai computer digitali, una spiegazione “volgare” della parola “interfaccia” è che si ha, nel rapporto fra l’uomo e la macchina, come un faccia a faccia (face-to-face) (o anche, se vogliamo, che uomo e macchina sono due facce di un sistema più ampio, che li trascende  ecosì li riunisce), e la necessità di stabilire canali o modi di comunicazione, che va mediata e facilitata, e che investe molto il campo visivo (il monitor e la realtà in esso specchiata e/o rappresentata). L’interfaccia, in tale contesto culturale, è il “luogo dell’attività di comunicazione tra macchina e utilizzatore in cui si svolge un dialogo riferito all’attività che tramite quella macchina si deve svolgere”
[3].
Da questo punto di vista il concetto d’interfaccia è integrabile considerando che il termine indica tutto ciò che consente un qualche controllo o intervento umano nei processi di elaborazione dei dati. Il monitor prima, la rappresentazione spaziale dei comandi e l’iconizzazione ma anche i pannelli di controllo (control panels) poi, indicano questa strada.
Nasce, in relazione all’interfaccia utente (user interface), una generale prospettiva antropologica; la quale può trovare sostegno, pur muovendoci sempre di più nella storia della commercializzazione degli oggetti quali essi siano, e della evoluzione della merce, in motivi di ordine filosofico e psicologico. Ad esempio quello in cui si sostiene che nella esistenza dell’uomo ogni rapporto percettivo o di cognizione con la realtà, ogni fatto di comunicazione, sin dalla nascita, è mediato: da sillabe, immagini, linguaggi, oggetti significativi, modelli o “mappe” della realtà.
Questo principio, che è stato espresso dalla scienza psicologica
[4], può essere integrato da una valutazione espressa nell’ambito (teorico) del cosiddetto “progetto delle interfacce”, secondo la quale (il che sembra riecheggiare o ripetere certa teoria della memoria) il sapere “è sempre una questione di luoghi e di orientamento (mappe, tabelle, menu, browser)[5]”. Secondo la quale cioè ciò che può apparire come accessorio del sapere ne è invece elemento costitutivo.
In questo modo l’interfaccia che è chiamata a fungere da mappa rispetto al funzionamento del computer appare come manifestazione o esplicitazione di una necessità naturale.
Sempre sul piano filosofico, oltre alla teoria della mediazione e a quella della “mappa”, s’incontra quella della “finestra sul mondo”: l’interfaccia “non è un semplice oblò sui meccanismi, rivolto verso l’oggetto macchina, ma è una finestra che ci descrive il mondo esterno
[6]. Si tratta, per definizione, del cosiddetto Window-on-a-World (WoW) ideato, nell’ambito della computer grafica, da Ivan Sutherland nel 1965, laddove la finestra in verità non contraddice il muro che impedisce di vedere la realtà e meglio la linea di confine fra essa e il suo contrario od opposto; ma mostra, nella costanza di quell’impedimento, una realtà consistente in immagini.
Sembra di poter dire quindi che in un’epoca nella quale l’interfaccia ha costituito motivo esclusivamente tecnico, se ne è inserita un’altra (quella della interfaccia utente) nella quale la cultura umanistica si è accostata al mondo delle macchine.
Indicativo a questo proposito è l’atteggiamento della psicologia, disciplina nel cui ambito si è assistito prima, in concomitanza con le origini della “Intelligenza Artificiale” (IA), alla crisi del comportamentismo ed all’avvento del cognitivismo
[7] poi, con il superamento del postulato della IA per cui l’uomo e la macchina elaborano in modo analogo informazioni e manipolano simboli, alla nascita della psicologia “dei processi cognitivi” ed in tale ambito del connessionismo, ovvero dello studio di modelli basati sull’uso di reti neurali, insieme di unità che interagendo danno luogo ad un processo cognitivo[8].
Il senso di questi sviluppi scientifici è che per la psicologia l’interfaccia, vista essenzialmente dalla parte dell’uomo, fa capo a quei processi (per la macchina si parla di Processing, ovvero di “elaborazione”) che nella psiche fanno séguito all’acquisizione di stimoli esterni.
La psicologia dei processi cognitivi, a differenza dell’Intelligenza Artificiale, di cui riconosce i limiti, non considera l’attività di elaborazione umana dei dati come un’attività che debba necessariamente svolgersi sempre allo stesso modo o che debba condurre in costanza di tempi a risultati di risposta. Per cui essa prende in considerazione la percezione, l’apprendimento, la ritenzione in memoria, il rapporto con le immagini, tutto ciò che attiene allo stato interno umano, cercando di umanizzare in questi termini il vecchio discorso (Cartesio, Lamettrie) sull’homme-machine. Considera uomo e macchina come sistemi diversi ma fa tesoro, in ciò, degl’insegnamenti tratti dall’osservazione del funzionamento dei computer.
Il valore della psicologia non può nascondere però l’ampiezza di quella che si profila più decisamente come antropologia dell’interfaccia. La quale non è un dato statico ma una realtà in continua trasformazione, ed appare più vasta di quanto non lo sia la scienza e tecnica del computer o dell’informazione automatica. Il discorso sull’interfaccia si presenta infatti come un discorso generale, attinente tanto alla nascita ed affermazione delle macchine digitali, quanto (difficile dire se più o meno) alla mutazione avvenuta nella seconda metà del nostro secolo nei prodotti dell’industria, nella merce e negli oggetti d’uso.
Di una trasformazione già in atto si era reso conto (siamo nella prima metà del nostro secolo) il design industriale; al quale va riconosciuto il merito storico di avere percepito la necessità di ripensare l’oggetto in senso umano, accostando arte e tecnica, e di avere avviato - non abbandonandolo - quel procedimento che ha condotto alla vera e propria progettazione delle interfacce.
Per questa disciplina, attenta al rapporto con l’oggetto-merce prima ancora che a quello con la macchina, l’interfaccia utente non è mai stata un argomento di secondaria importanza e addirittura a suo modo di vedere - come è stato scritto - la sua stessa comprensione “ruota intorno al significato della parola”
[9].  
Per il design industriale interfaccia è non un oggetto ma uno spazio in cui si articola l’interazione “fra corpo umano, utensile e artefatto”, ovvero è in tal modo che essa “trasforma la semplice esistenza fisica (Vorhandenheit), nel senso di Heidegger, in disponibilità (Zuhandenheit)
[10]. “Traduce cioè l’oggetto in prodotto, rivelandosi fattore costitutivo dell’oggetto medesimo”.
Il design così si sofferma su due punti essenziali in relazione all’interfaccia utente: l’idea di spazio unifica stato visivo e stato mentale; coglie bene il senso e la dimensione psichica di un menu di scelta o di un desktop. Il principio di disponibilità costituisce il necessario completamento di quello, assai più tradizionale, di utilità. Svela, meglio, l’altro lato della utilità.
Questo indirizzo è confluito, in corrispondenza con l’introduzione del desktop di Macintosh, nel cosiddetto “progetto delle interfacce”, nel quale si è concretizzata la necessità di unificare, con riferimento allo interfacing, oltre a quella del design la cultura tecnica, quella merceologica e l’ergonomica.
Secondo tale prospettiva, interfaccia è ciò che deve saper consentire alla persona umana un utilizzo intuitivo ed inequivoco degli oggetti prodotti dall’industria - gli “artefatti” -: porte girevoli, elettrodomestici, tanto quanto computer. E deve più in generale, tutelando l’utente, promuovere la familiarità con oggetti e macchine.
Questo genere di disciplina originariamente poteva lasciar pensare ad un astratto indirizzo umanitario, o moralistico; ma oggi esso si sta rivelando, anche con l’ausilio importante del diritto positivo dell’informatica, come un vincolo per la fabbricazione e per l’immissione delle macchine sul mercato.


Hardware e Interfaccia: alcune descrizioni

Nel mondo dei computer digitali un’interfaccia può essere sia un dispositivo fisico sia un programma. Il che è sostenibile innanzitutto sotto un profilo cooperativo, perché in un sistema informatico i due aspetti, lo hardware ed il software, sono inscindibili.
Verità, questa, constatabile in più modi: ad esempio l’obiettivo, in un sistema, è lo scambio efficace delle informazioni e sotto questo profilo nessuna unità periferica può lavorare senza un suo driver, ovvero senza un programma, cosiddetto “pilota”, che regoli detto scambio. Reciprocamente, nessun software ha ragione di essere senza un supporto fisico con determinate caratteristiche di fabbricazione.
Più in generale la gestione della memoria e la gestione così della macchina, ha bisogno di specifici circuiti integrati, ovvero di chips dedicati. Quando ad esempio si parla comunemente di memoria si allude ad una tipologia di chips (RAM) i quali, a differenza dei ROM, memorizzano in modo temporaneo.
Oppure si può prendere in considerazione il fatto che l’evoluzione dell’interfaccia utente consiste nella sempre maggiore intensificazione ed approfondimento della interazione fra uomo e computer. Laddove software e hardware condividono questo compito.
Cooperazione e condivisione dei compiti d’interfaccia sono un dato in evoluzione: la semplificazione della procedura di setup dei prodotti è aumentata e in tale contesto non da oggi la fase delle procedure manuali per l’installazione dei drivers può ritenersi in qualche misura in via di ridimensionamento, poiché alcuni sistemi operativi riconoscono e configurano automaticamente (disponendo del relativo software; e questo profilo fra qualche anno farà sorridere) le periferiche.
Il ridimensionamento dell’èra per così dire del puro driver è testimoniato anche dalla standardizzazione del cosiddetto Plug-and-Play (PNP), una tecnologia di adattatori (introdotta da Compaq, Microsoft, Intel e Phoenix) che fa sì ad esempio che una scheda d’interfaccia, una volta inserita, venga automaticamente riconosciuta dal BIOS del sistema
[11] (si parla così di BIOS Plug-and-Play) e dunque possa subito funzionare, o entrare in azione.
In prosecuzione di questo indirizzo, in occasione della Windows Hardware Engineering Conference (WinHEC
[12]) svoltasi a San Francisco nell’aprile 1997, Compaq, Intel e Microsoft hanno annunciato lo sviluppo di Device Bay, una specifica orientata ai dispositivi periferici e tesa a migliorare il modo d’installazione e aggiornamento dei PC.
Con Device Bay gli utenti possono collegare al PC una qualsiasi periferica, come un lettore per compact disc o per DVD (Digital Versatile Disc, assai più potente e disponibile del CD), senza dover aprire, riavviare o spegnere la macchina
[13].
Sul piano della cooperazione fra hardware e software, l’obiettivo del trasferimento dati è inseparabile da quello della velocità di trasmissione dei medesimi, ovvero della quantità d’informazioni trasmesse e recepite in una unità di tempo (in tal senso si adopera la locuzione data transfer-rate, saggio di trasferimento dei dati, misurabile in bit-per-second).
In ordine a tale obiettivo, vige la distinzione generale tra interfacce seriali e interfacce parallele, a seconda che esse consentano l’invio e/o la ricezione di segnali in successione (ad esempio quelle che collegano elaboratori fra loro attraverso linee telefoniche, tradizionalmente meno veloci) oppure a blocchi (ad esempio per inviare segnali alle stampanti).
Su questo piano vengono subito in considerazione le cosiddette “porte” (termine che traduce l’inglese ports) di I/O (ovvero di input/output), attacchi mediante i quali il computer viene materialmente collegato al mondo esterno, ovvero mediante i quali l’unità centrale del sistema viene connessa con le unità “periferiche” (con prese, dotate di un certo numero di contatti, meglio poli aghiformi di attacco, denominati “pin”).
Le porte di I/O si suddividono in COM (Computer Output Microfilming: porte seriali, riservate ad esempio al mouse, o al modem) e LPT (porte parallele, riservate ad esempio alla stampante), ciascuna delle quali, nell’ambito di un sistema, è identificata con un numero.
Sulla velocità di transito dell’informazione incidono i cosiddetti controllers e i cosiddetti “adattatori” (adapters).
Per quanto riguarda i primi, va ricordata la tecnologia DMA (Direct Memory Access: “accesso diretto alla memoria”). Si tratta di un chip speciale che consente il passaggio diretto delle informazioni (da un dispositivo di memorizzazione di massa o da un adattatore alla memoria) senza che queste passino per il processore.
Con la stessa filosofia lavorano i cache controllers, riservati alla cosiddetta memoria cache. Essi debbono garantire la memorizzazione dei dati più frequentemente utilizzati: quando il processore si riferisce ad un indirizzo di memoria, se la cache ha già salvato il contenuto di quelle locazioni l’informazione aggira il normale accesso alla memoria passando direttamente - anche qui con intuibile guadagno nella velocità - dalla cache al processore.
Fra gli adattatori, un posto particolare occupano (si pensi in quanto agli effetti all’importanza della risoluzione del display), i video adapters
[14] ovvero gli adattatori per le schede video.
La storia di questi dispositivi è legata molto a IBM, società che nel 1981 introdusse Color/Graphic Adapter (CGA: che in modalità grafica aveva una risoluzione di 640 per 200 pixel a due colori o di 320 per 200 pixel a quattro); nel 1984 Enhanced Graphics Adapter (Adattatore Grafico Avanzato: EGA, che aveva un risoluzione orizzontale di 640 pixel e verticale di 350 pixel, con possibilità di visualizzare simultaneamente 16 colori scelti tra una tavolozza di 64); nel 1987 - insieme alla linea di computer PS/2 - Video Graphics Array (VGA: con risoluzione di 640 pixel orizzontali per 480 verticali, e con la possibilità di visualizzare un massimo di 256 colori simultaneamente, scelti da una tavolozza di 262.114).
Una versione più recente e migliorata di questo standard (oggi di grande diffusione) è SuperVGA, definito dalla Video Electronics Standards Association (Associazione di standardizzazione della videoelettronica - VESA). Gli adattatori SuperVGA possono visualizzare almeno 800 pixel orizzontalmente e 600 verticalmente (lo standard raccomandato da VESA) e sino a 1600 orizzontalmente e 1200 verticalmente, con 16, 256, 32.767 o 16.777.216 colori simultaneamente.
Nel 1991 IBM ha introdotto XGA, acronimo di Extended Graphics Array. XGA (disponibile solamente come scheda di espansione per architettura micro channel) supporta una risoluzione di 1024 pixel orizzontali per 768 verticali, con 256 colori, come anche una modalità VGA di 640 per 480 pixel con 65.536 colori.
XGA è stato ottimizzato per essere utilizzato con interfaccia utente grafica e, invece di implementare una funzione molto efficiente di disegno delle linee, è un dispositivo di trasferimento di bit a blocchi, progettato per spostare blocchi di bit, come le finestre e le finestre di dialogo.
Sempre nell’ottica della velocità del trasferimento dati ma su un piano diverso lavorano le interfacce per le cosiddette “memorie di massa”, ovvero dischi rigidi, floppy disk, nastri magnetici, CD-ROM, ecc.
Lo standard ESDI, acronimo di Enhanced Small Device Interface, consente ad esempio (per gli Hard Disks di grandi dimensioni) una velocità di trasferimento dati da 10 a 20 Megabyte per secondo (MBps).
IDE, acronimo di Integrated Drive Electronics Interface, è un’interfaccia utilizzabile per dischi da 40 MB a 1.2 Gigabytes
[15]. Nella versione originale, del 1986, essa supportava un transfer-rate di circa 3,3 MBps. Una sua versione più recente, EIDE (Enhanced IDE, sviluppato da Western Digital), raggiunge una velocità di trasferimento dati di circa 16 MBps.
SCSI, acronimo di Small Computer System interface
[16] è un’interfaccia parallela dotata di una velocità di trasferimento dati che raggiunge i 40 MBps., usata per collegare un personal a dispositivi di memorizzazione di massa, come anche a scanner e stampanti, utilizzando una sola porta [17].
Come si può desumere dalla sequenza degli esempi, la parola interfaccia indica in un modo generico la funzione che un dispositivo svolge in relazione al suo ufficio specifico. Ad esempio un connettore consente il transito di dati sotto forma di impulsi elettrici ed in ciò esso interfaccia; un adattatore viene inserito solitamente per migliorare le prestazioni del computer ed in ciò esso interfaccia. Di qui - poiché interfacciare significa fare questo o fare quello - l’ampiezza del discorso: bisognerà poi approfondire, per capire di che cosa esattamente si tratta quando si dice interfacciare, la funzione specifica e le prestazioni del singolo dispositivo.
Materialmente dunque lo hardware d’interfaccia può identificarsi con le porte, i connettori, gli adattatori, oppure, per connessioni ed attacchi nelle aree locali di rete, con i multiplex, gli Attachment Units Interfaces (AUI) o i modem.
Però un adattatore o una scheda, per la funzione cui adempiono, interfacciano in un modo o con finalità diverse rispetto ad una porta; un connettore interfaccia in un modo diverso rispetto ad un monitor. Laddove questa osservazione s’integra con l’altra secondo la quale il senso stesso ditali diverse funzionalità d’interfacciamento risiede nella necessaria concatenazione fra di esse: ad esempio un adattatore per CD-ROM dev’essere collegato ad una porta, ecc. laddove, in tutte queste concatenazioni si materializza buona parte della intelligenza di un sistema.
Man mano che evolve lo hardware d’interfaccia, viene a trasformarsi anche il suo concetto, soprattutto in questo senso: taluni dispositivi o unità che una volta non entravano nella considerazione come interfacce, vi sono entrati con l’emergere della figura dell’utente.
In altre parole: le periferiche sono interfaccia. Così una stampante o un plotter (periferiche di stampa) interfacciano il sistema con l’utente. Lo stesso può dirsi dei dispositivi di input, come la keyboard, il mouse, il joystick, il microfono, la penna ottica, sino allo handwriting, ovvero scrittura manuale (che attengono ai comandi e costituiscono in ciò, per la comunicazione utente-macchina, un aspetto essenziale; e questo con guadagno sensibile per l’interazione) e di quelli di output (monitor, stampante, ecc.).
Queste considerazioni, come anche i cenni fatti sulla ottimizzazione di XGA, mostrano che il problema della interazione con l’utente entra di fatto e di diritto anche nel tema dello hardware d’interfaccia. Che nello hardware in certo modo sono impressi aspetti di neoumanesimo.
Ad esempio una scheda MIDI (Musical Instruments Digital Interface) che mettendo in comunicazione computer, sintetizzatore e strumenti musicali consente di registrare direttamente sul computer brani musicali durante l’esecuzione, al pari di un microfono o di una telecamera, nasce con propositi umanistici, per legare maggiormente l’utente al sistema, per umanizzare la macchina. Il che significa che il discorso sull’interfaccia utente, per solito intrapreso e condotto in chiave di software, non è limitabile a tale aspetto.


Il “progetto” delle interfacce


La sensibilità per l’interazione uomo-macchina, ed il cosiddetto “progetto” delle interfacce con la relativa letteratura[18], nascono ed evolvono in accordo con la crescita storica del “dialogo” umano con gli oggetti d’uso.
Ciò significa innanzitutto, volendo rispondere con un pizzico di arbitrio alla suggestiva ma vera domanda “Di chi è l’interfaccia?”
[19], che il problema riguarda l’uomo, nella qualità di acquirente e utente, prima ancora che la macchina. Laddove interfacciare significa umanizzare, condurre a dimensione umana, psicologica, anche sorprendente o accattivante; e a dimensione sociale ovvero umanamente comunicativa.
Su questo terreno, il “progetto” si pone in relazione al fatto che è aumentato notevolmente l’uso (sociale) degli oggetti materiali e strumentali, è cresciuto in altre parole il tenore culturale, formativo dell’oggetto; il quale è tanto più comunicativo quanto più esso è prodotto dell’industria, o anche: quanto più esso è merce.
La merce con gli addentellati psicosociologici che ad essa si confanno a datare dalla rivoluzione industriale, è divenuta negli ultimi anni per così dire più “intelligente”, perché si è venuta a depositare in essa una sempre più affinata tecnologia, la quale ha condotto oggetti e strumenti a una crescente dialogicità, ovvero capacità di rapportarsi alla volontà umana.
Di più essa, e con essa l’oggetto, può essere presa in considerazione metodicamente come un “serbatoio di sapere, di know-how” mentre l’interfaccia chiamata a governare il rapporto merce-uomo diviene così lo “strumento educativo, intelligente, attraverso il quale utilizzatore e strumento, partner attivi, crescono insieme”
[20].
Con il passaggio dall’èra meccanica a quella elettronica e dalla cultura della monofunzionalità a quella della multifunzionalità, sono sorte “nuove tipologie di oggetti”
[21].
Una radio non è una semplice radio ma un’apparecchiatura alla quale si può domandare di essere radio o di registrare un nastro o di far ascoltare un CD-Audio. Il valore della funzionalità si è come relativizzato ed in questo modo una radio è tale solo in parte e solo eventualmente. Parimenti ora una tastiera musicale può non essere una tastiera musicale ma, per la tecnologia che vi è racchiusa, una workstation.
In tale contesto si è accresciuta, con la diffusione della tecnologia digitale, la distanza fra la parvenza, l’aspetto esteriore, dell’oggetto (di vecchia familiarità) ed il suo senso funzionale, restando del vecchio oggetto il solo guscio e mutando profondamente invece il contenuto tecnico. Da ciò è risultato quello che è stato definito (da Anceschi) “disagio tipologico”: al quale disagio appunto l’interfaccia è chiamata a dare sollievo.
Corollario e leader significativo di questa nuova quanto non più sorprendente linea di tendenza può essere ritenuto il computer, che ha perso molto lo status di strumento di laboratorio, gestibile da pochi uomini in camice bianco, guadagnando in quello di merce; sia come macchina specifica ed identificabile empiricamente (il personal che ho sul mio tavolo di lavoro) sia come materializzazione in forme molteplici di una nuova tecnologia.
Da una parte chips di computer “oggi si trovano nei freni dotati di Abs, nei fax, negli ascensori, nelle pompe di benzina, [...] e persino nei biglietti d’auguri parlanti”
[22]. Ovvero un computer può “nascondersi” (quasi mimetizzarsi) in una macchina fotografica come in un videoregistratore. Dall’altra se è vero che il word processor succede alla macchina da scrivere, è anche vero che la natura e le possibilità sono profondamente stravolte: con l’avvento del personal computer la macchina per scrivere è stata relegata al ruolo d’immagine mentale; perché le due ère, della macchina “semplice” e di quella “meccanica”, possono ritenersi tramontate.
In questo quadro storico-tecnologico, per apprezzare il senso del “progetto” delle interfacce bisogna considerare - secondo il sillogismo espresso a suo tempo da Stefano E. Marzano - che: (1) la qualità degli oggetti d’uso, per saper questi svolgere un numero sempre maggiore di funzioni o funzioni sempre più sofisticate, è legata alla loro complessità; che (2) maggiore è la complessità, maggiore è il bisogno di un’interfaccia; che infine (3) la qualità degli oggetti dipende necessariamente - per conseguenza - dalla qualità dell’interfaccia
[23].
Il “progetto” originariamente riguardava il design industriale - scandiva storicamente cioè il passaggio dall’ingegneria al design
[24]-, e prendeva in considerazione oggetti d’uso come un’autovettura, la porta scorrevole di una sala d’attesa aeroportuale, un elettrodomestico, oggetti nei quali, a fronte della molteplicità delle funzioni, si poteva notare la poca chiarezza o la scarsa intelligibilità del set dei bottoni e comandi.
Questi ed altri oggetti proprio in quella fase erano ancora, secondo schemi mentali consolidati, avvolti nella esteriorità e solamente da utilizzare. Erano considerati cioè, secondo una concezione volgarmente strumentale della tecnica, corpi estranei, votati sic et simpliciter alla distanza rispetto alla sensibilità dell’individuo. Ma allo stesso tempo essi erano in grado di fornire prestazioni più articolate rispetto alle performances tradizionali, per cui quella visione meramente strumentale dell’oggetto, nel porsi di problemi d’intelligibilità dei comandi, aveva già in sé i sintomi della sua crisi.
Oggi, con l’evoluzione della tecnica e della progettazione, il problema attiene molto alle applicazioni dell’elettronica e si può inquadrare in un’epoca nella quale l’evoluzione strumentale rende tutto oggettivo. In tale contesto l’oggetto, come liberandosi del suo classicismo materialistico (della sua pura proverbiale esteriorità), molto a causa della grande capacità di simulazione del computer digitale per cui tutto al cospetto della possibilità di manipolazione si oggettivizza, sembra essersi smaterializzato ed avere allo stesso tempo esteso il suo dominio, giungendo alla condizione di object (virtuale, universale) e divenendo così (laddove object non definisce un oggetto definito) qualcosa come una “categoria” aristotelica; un’epoca in cui l’oggetto è macchina (non la macchina di Diderot o di Carnot ma piuttosto quella di Von Neuman) e la macchina oggetto; un’epoca in cui il prodotto industriale e la merce, proprio per essere cresciuta la loro complessità, sono meno estranei o lontani rispetto alla normale sensibilità, alla cultura e all’estetica - di cui alla fine debbono erodere molti margini di autonomia e libertà.
In questo contesto, il progetto delle interfacce, per un bisogno crescente d’intelligenza ed intuitività nella interazione, viene a trasfondersi in una ideologia e strategia Human Computer Interaction (HCI
[25]) se si considera il suo orientamento al rapporto attivo fra essere umano e computer, o anche, come sul dirsi, Human Centred, o User Friendly, se si considera quanto esso focalizzi le sue attenzioni sull’utente, avvenendo (secondo lo schema della psicologia cognitiva) il rapporto d’interazione fra uomo e macchina - e questo anche se da parte di taluno si sostiene che il cervello umano non elabora - sul piano comune del poter elaborare (o processare) dati in proprio.
Entro tale prospettiva, per far sì che sistemi (volendo considerare l’uomo a sua volta come sistema) di ordine o natura diversi possano comunicare o dialogare fra loro, il progetto risponde al bisogno di fornire all’uomo familiarità, collaborazione e non-equivocità nel rapporto d’uso con i nuovi media.
In questo quadro il software, soprattutto con la nuova visività, appare dotato sempre più, segnatamente nel modo grafica, di una specularità umana. Insistendo sul software si approfondisce cioè la psiche umana, si comunica in modo iconico e si parla, sul piano degli obiettivi, di comprensibilità e di trasparenza nell’approccio con la macchina.


La “affordance”

L’obiettivo strategico elementare nella progettazione delle interfacce è quello di mettere l’utente nella condizione di saper-poter usare una macchina, un dispositivo, intuitivamente ovvero - detto in termini pratici - senza leggere il libretto o manuale delle istruzioni: (“Un sistema ben progettato - recita una massima - deve essere utilizzabile senza alcuna necessità di manuale d’uso”
[26]). Buona cosa è trovare sul corpo stesso della macchina o - se si tratta di un computer - contestualmente ad un programma, nel corso dell’uso che se ne fa, tutte le informazioni necessarie per l’utilizzo. Gli helps (o helps on-line), consultabili a video, hanno appunto questo significato; ulteriore significativa disgregazione del supporto in carta, ulteriore virtualizzazione di un rapporto vitale di apprendimento.
Meglio sarebbe ancora però non avere bisogno degli helps. Ma l’azzeramento degli aiuti, se da una parte è l’obiettivo finale di qualsiasi progetto d’interfaccia, dall’altro si sa che è tendenzialmente irraggiungibile. Resta allora l’obiettivo di trasferire quanto più possibile nell’interfaccia stessa ciò che fornisce solitamente il contenuto agli helps, ovvero di porre l’utente nella condizione di operare nel rapporto con la macchina in modo naturale, senza incomprensioni, deviazioni dell’attenzione ed oscurità.
Sotto quest’ultimo profilo, nel gioco fra progresso tecnico e psicologia umana che ne è nato, è emerso il significativo concetto di affordance. La parola è stata introdotta da Gibson ed è traducibile grosso modo con “invito a...”, segno o denotazione della capacità di fare subito qualcosa senza difficoltà (ovvero di raggiungere una località della Finlandia senza faticare o spendere denaro per il viaggio), per cui un dispositivo deve poter suggerire con immediatezza, per sua natura, per la sua forma o per una sua qualche caratteristica fisica (un attimo prima di essere utilizzato) quello cui serve o che sa fare.
Ovvero, secondo colui che ne ha applicato il concetto al disegno industriale, Donald Norman, l’affordance consiste negli “inviti forniti dagli oggetti, che trasmettono messaggi circa i loro possibili usi, azioni e funzioni. Una piastra liscia invita a spingere, un contenitore vuoto a riempirlo, e così via”.
La definizione, riguardando le forme fisiche, sembra attagliarsi molto al design classico, attento piuttosto all’oggetto fisico esteriormente considerato; ma poiché con l’affermazione ed evoluzione del computer ciò che era materiale è divenuto immateriale (come si diceva, l’oggetto è divenuto object, laddove si ha indeterminatezza e astrazione), la definizione riguarda anche la sfera virtuale dell’informatica.
Nell’interfaccia utente grafica l’affordance può essere individuata nella efficacia, sul piano percettivo e in generale psicologico, delle icone, le quali nel loro valore rappresentativo debbono alludere ad una possibilità, debbono lasciare intravedere ciò che sarà possibile fare, debbono meglio avvertire sugli effetti di un’azione prima che questa sia intrapresa: l’icona raffigurante un dischetto (in un programma di scrittura) sta ad indicare che “ciccando” su di essa si registrerà sul disco quanto è stato scritto; quella raffigurante un cestino sta ad indicare che cliccando su quell’icona si cestinerà un file, un programma (in modo anche confortevole), insomma un qualsiasi oggetto; quella raffigurante un uscio semiaperto denota l’uscita dal programma; quella raffigurante un foglio bianco la possibilità di creare un nuovo file di scrittura; e via dicendo.
Ma l’“invito a...” può essere accostato, quale appunto invito ad entrare, traducibile peraltro in ogni momento ad un compelle intrare, alla tentazione, all’attrattiva sessuale, nella quale si simboleggia (secondo una vecchia equivalenza tracciata da Diderot) la curiosità scientifica in generale (nel che si dà semplicemente sviluppo ad un’attitudine istituzionale della virtualità).
A voler esprimere una opinione sull’affordance nell’ambito delle interfacce desktop, non si può dire che il grado d’intuitività delle icone sia sempre soddisfacente. Alle volte ci si trova al cospetto per così dire di mero layout: gli oggetti sono muti, semplicemente disposti nel display in un ordine parzialmente estraneo al loro senso, il che provoca nell’utente un po’ il senso di disagio che si provava nella interfaccia command-driven di fronte al prompt del Dos.
Spesso allora si preferisce lavorare con i menu e lo si farebbe anche più spesso di quanto non avvenga qualora si dovessero utilizzare tutte le funzioni dei programmi. Ciò potrebbe non essere dovuto solo al fatto che l’interazione voglia che si formi un linguaggio comune fra utente e programmi, vuole cioè che l’utente apprenda. Questo aspetto della cosa potrebbe non bastare ad esempio a spiegare il fatto che con la versione 6.0 di Word per Windows le icone sono state corredate di tips (oggi diffusissimi) e cioè di messaggi telegrafici che spiegano per ciascuna di esse la funzione raffigurata, i quali si accendono (con effetto visivo tra il flash e il fumetto) ogniqualvolta con il puntatore si passi su un’icona, per poi svanire.
L’affordance richiama molto da vicino dunque quei principi di intuitività e trasparenza dell’interfaccia di cui si parla molto, e può essere un mezzo atto non solo a misurare il livello di validità raggiunto, al di là delle dichiarazioni formali, nell’applicazione di quei principi, ma anche a mostrarne i limiti connaturati.


L’ interfaccia utente

Il problema dell’interfaccia utente è, anche, un problema di controllo dell’utente sulla macchina. E storicamente si è assistito su questo piano - ma si tratta per la verità di un processo tuttora in corso - ad un progressivo travaso di know-how e competenze dal tecnico al software e all’utente finale.
Per i primi grandi elaboratori (penso a ENIAC) l’interfaccia utente era il tecnico operatore. Essi avevano bisogno cioè, per essere utilizzati, per fare cose che oggi possono fare hardware e software, dell’intervento di tecnici specializzati.
La macchina era poco “flessibile” ed era notevole la distanza fra il computer e il cosiddetto utente “finale”, espressione significativa soprattutto in quel caso, coniata per dire l’utente puro, non tecnico e cioè distinguere dall’utenza la funzione intermediaria svolta dall’operatore
[27].
I primi segni della possibile attenuazione del dualismo tecnico-utente finale è identificabile nell’era delle schede perforate, ovvero della cosiddetta interfaccia “scrittura-lettura”, laddove il controllo da parte dell’utente era successivo e cioè non avveniva prima di avere la stampa dei risultati di elaborazione.
In tale epoca si ebbe un fatto di notevole importanza: l’avvento del time-sharing, espressione che designa la capacità della macchina di ripartire il suo tempo di lavoro per l’espletamento - in apparente contemporaneità - di più operazioni. Questa nuova possibilità consentì di suddividere l’attività di elaborazione dei dati fra più terminali, inizialmente sprovvisti di monitor, che erano messi così nella condizione di operare contemporaneamente.
Ma la svolta decisiva per la nascita del moderno utente è legata al monitor.
Dopo la fase dei videoterminali (VDU), dopo i terminali cosiddetti “non programmabili” nei quali buona parte delle funzioni d’interfaccia utente erano controllate dal processore host, con PC-DOS l’interfaccia utente si è incamminata verso la personalizzazione: è stata costituita da monitor e tastiera e poi sempre più direttamente coadiuvata da software specifico.
Il monitor in fondo più di altri dispositivi e tecnologie è valso ad avvicinare l’uomo alla macchina. A creare fra i due sistemi uno spazio d’interazione complessivamente nuovo. La sua caratteristica di grande mediatore si può spiegare con il fatto che esso è andato ad incidere sull’organo di senso più frequentemente usato dall’uomo, e cioè la vista. La quale è anche, per questo, canale primario delle conoscenze (determinante per l’epoca cosiddetta gutenberghiana, fortemente cooperativo nella successiva).
Con il monitor dunque s’instaura la figura dell’utente per come noi oggi siamo soliti pensarla. Ma questo è vero soprattutto perché in esso può ravvisarsi anche il punto di partenza per approfondimenti e progressi significativi, definiti spesso “rivoluzioni”, e sul terreno della interazione e comunicazione e su quello delle scienze positive dell’uomo. Nato il monitor non ha esitato a crescere ed affinarsi ad esempio l’arte dei comandi.
Sotto questo profilo, in chiave di bilancio, si può suddividere l’interfaccia utente in modo “carattere” (command-driven), menu (menu-driven) e grafica.
Il modo carattere, detto anche “modo testo”, è il più vecchio e ripete nelle azioni di input dell’operatore la sensibilità propria del mondo del type-writing. In esso il computer visualizza sullo schermo caratteri presi da una determinato set predefinito dal costruttore. Con questa condizione all’utente spetta il compito di formulare i comandi scrivendoli su un rigo del display situato di solito nella parte alta dello schermo, la cosiddetta command-line.
Più recente è il modo menu, che si ha quando al semplice utilizzo della tastiera si sostituisce per l’utente una scelta da effettuare nell’ambito di una lista (visualizzata) di operazioni eseguibili.
L’interfaccia grafica infine è la più avanzata. Essa si ha quando per dare i comandi si adopera un dispositivo di puntamento che viene spostato entro la dimensione spaziale rappresentata dallo schermo.
Il regime evolutivo che lega queste tre tecniche dei comandi oltre che di successione nel tempo, è tale per cui il successivo non preclude il precedente, ma ne prevede la possibilità a certe condizioni. In altre parole, con il passaggio dal primo al secondo tipo d’interfaccia, l’uso della tastiera (che peraltro evolve: si pensi ai tasti funzionali e alle “macro”) non viene accantonato ma coesiste come possibilità con il menu; con il passaggio dal secondo al terzo tipo d’interfaccia, tastiera e menu sopravvivono, per così dire, nel modo grafica. Per cui ancora nel modo grafica rientrano (anche contestualmente) il keyboard-based menu (nato prima del 1978) e i menu Popup e Pulldown (che risalgono ai primi anni ottanta).
L’evoluzione nel modo di trasmettere input di comando alla macchina e l’attivazione di file di comando (con estensione “.com”) ed eseguibili (con estensione “.exe”) può essere osservata anche in relazione a un software denominato “interprete dei comandi” (command interpreter), che è quella parte del sistema operativo che dà il “prompt” in segno di attesa dei comandi, si incarica di interpretarli e di eseguirli inviando istruzioni al kernel (il “nucleo”, ovvero la parte più profonda di un sistema operativo, che rimane sempre residente in memoria e gestisce le operazioni basilari: la memoria del sistema, il file system e le operazioni su disco).
Inizialmente l’interprete dei comandi non mostrava grande accondiscendenza nei riguardi dell’utente, il quale doveva occuparsi personalmente e direttamente delle richieste del sistema operativo; finché esso non si è tradotto in un software denominato Shell, volto a sollevare l’utente da certi oneri e dunque a far sì che fosse il sistema a lavorare di più per lui.
Una manifestazione di questo nuovo indirizzo si è avuta con l’apparizione (nella versione 5.0 del sistema DOS) di un programma come “Dosshell” che, sostituendo la linea di comando con un menu a tendina e finestre di dialogo, consentiva di eseguire operazioni mediante l’uso del mouse (un allegro braccio secolare), passando dal modo testo a quello grafica, caricando più di una applicazione in memoria contemporaneamente e passando dall’una all’altra.
Con l’introduzione di questo modo visivo e di meccanismi opzionali per l’utente, si avvia quel procedimento (si pensi ad approdi come Program Manager di Windows, Finder di Macintosh, C e Boume di Unix, sino alle interfacce grafiche di ricerca) di evoluzione dell’interprete dei comandi sul quale s’innesta ogni progresso nel dialogo fra uomo e computer, ora stabilizzatosi nel modo grafica.


L’interfaccia grafica

Il ricorso a elementi grafici per la realizzazione di un’interfaccia utente fu definito per la prima volta nelle sue linee fondamentali al Palo Alto Research Center (Parc) della Xerox Corporation all’inizio degli anni settanta. Lì il desktop fece il suo esordio con la Workstation 8010, conosciuta comunemente come “Star”.
Dopo il 1979, in séguito alla visita significativa di Steve Jobs della Apple Computer a Parc, si giunse allo sviluppo dell’interfaccia del computer Apple Lisa (1983), e alla fine alla serie di computer Apple Macintosh.
L’insuccesso di questi primi tentativi e la susseguente affermazione invece dell’idea soprattutto in Microsoft Windows (ma dopo i primi tempi quell’idea è stata posta a fondamento di sistemi quali Macintosh System 7 e OS/2; ed inoltre: contemporaneamente all’uscita di Windows, Digital Research sviluppò l’interfaccia “GEM”), si spiegano con il fatto che sino ai primi anni ottanta l’hardware necessario per mettere in opera questo tipo d’interfaccia era superiore alle possibilità della maggior parte degli utenti; che in altri termini quei primi sistemi si concretizzavano in macchine “proprietarie” e che non vi era disponibilità di microprocessori adeguati e compatibili.
In séguito, dopo che questa condizione sfavorevole fu superata, tale è stato il tenore evolutivo dell’hardware in generale e del software d’interfaccia, che Paul Bonner, confrontando a distanza di qualche tempo Visicalc con Excel, si domandava se la prima - contrariamente alle certezze iniziali - potesse davvero considerarsi interfaccia utente.
Sul piano dell’evidenza e della visività, di cui costituisce un suggello, l’interfaccia grafica è l’interfaccia utente disegnata o meglio dipinta, è cioè il farsi immagine rappresentativa delle possibilità di azione previste dal programma ed esperibili da parte dell’utente. È dunque presumibilmente il disegno, anzi l’immagine espressiva, quasi una scena che viene ad animarsi, il cuore e la vera caratteristica dell’interfaccia grafica. E lo è in concomitanza con il fatto che questa animazione scenica si associa alla sensazione inconfessata dell’utente di stare dentro il computer, grazie ai dispositivi di puntamento. La freccia del puntatore (indispensabile complemento dell’interfaccia grafica) infatti può essere vestita: può essere un cavallo rosso, che si muove nello schermo, oppure un gatto; dunque non è detto che una freccia non sia un braccio, che si accorda con l’azione o movimento della mano (senso della “manipolazione”), ovvero che non sia la personalità stessa dell’utente. Viene così a strutturarsi più decisamente, consistendo la cosa in una più intensa cattura della sua sensibilità, il rapporto fra l’uomo e il mezzo tecnico, che non è semplicemente mezzo, nel senso tradizionale della parola.
L’interfaccia grafica del tipo desktop alla quale in questo modo si accenna, è il frutto di una scelta, operata a favore del secondo fra due paradigmi d’interazione uomo-macchina: l’uno consistente nella comunicazione in linguaggio naturale (Natural Language Processing), l’altro nella manipolazione diretta (Direct Manipulation, locuzione ideata da Schneiderman nel 1982)
[28].
Si tratta in verità di due modi d’interfacciarsi con il computer, dei quali il primo non richiede l’uso classico dei comandi manuali, mentre il secondo abbraccia possibilità d’intervento o azione manuale dell’utente, che vanno dalla battitura dei comandi (input da tastiera) allo spostamento manuale di un dispositivo di puntamento.
Il Natural Language Processing (NPL), ovverosia l’implementazione di forme comunicative uomo-macchina immediate (Optical Character Recognition - OCR -, Pen Computing, Speech Recognition, ecc.), ha sempre incontrato difficoltà attuative. Si è sostenuto anche che le soluzioni parziali o settoriali che ne sono state date (il pensiero va alla Speech Recognition) destano la perplessità sulla loro reale rispondenza alle aspettative dei progetti
[29].
Il profilo problematico è costituito dal fatto che un linguaggio naturale non ha e non vuole grandi prescrizioni, che l’uditore ignora la “conoscenza del mondo” insita in chi parla e che l’uso della lingua vuole in chi recepisce i messaggi sottintesi rappresentazionali.
Ovvero, come è stato indicato con scetticismo frenante dalla più autorevole linguistica (Chomsky), le espressioni del linguaggio naturale sono così ricche e complicate che esse non possono essere racchiuse in descrizioni regolari o “a stato finito”. Il che fra l’altro ha condotto una intera generazione di linguisti anche computazionali a non credere nella tecnologia finite-state.
Il concetto sembra essere ora più o meno il seguente: la scelta fra azionamento di comandi, di qualsiasi tipo (dai manuali a quelli di desktop) e spontaneo riconoscimento era tale, nei termini di un aut-aut più vent’anni fa che non oggi. Il senso della scelta si è ridotto a questo: le cose si sono bloccate in presenza di un indirizzo (quello appunto del Linguaggio Naturale) d’indole sostanzialmente sperimentale.
Sembra dunque che lo NPL, pur in presenza da anni di segni di ripresa, sia comunque destinato ad una filosofia sperimentale e di laboratorio, ed ancorato alla Intelligenza Artificiale, alla impostazione ed alle possibilità realizzative di tale indirizzo.
Si può anche credere allora non in un suo tramonto ma nella migliore definizione del suo ruolo, sostanzialmente di serbatoio sperimentale. Detto ciò inoltre non bisogna trascurare mai il fatto che l’obiettivo del mondo virtuale resta la riproduzione di condizioni naturali di interazione fra uomo e macchina e che la comunicazione naturale s’inscrive in tale obiettivo.
Dal canto suo, il paradigma della manipolazione diretta, affermatosi con l’interfaccia grafica, dice invece che è più facile dare istruzioni ad un computer se si possono selezionare elementi od oggetti sullo schermo, inserendoli in un contesto, trascinandoli da un contesto ad altro, ecc., sostituendo al linguaggio naturale azioni; ovvero se si può interagire in generale su immagini (simboliche, denotative, allusive); di quanto non lo sia dialogare con il computer.
A tale paradigma possono essere rimproverati alcuni inconvenienti, per tutti quello che nell’interfaccia manipolativa la “visività” costituisce la virtù ma anche il limite (il visibile è possibile” e “il possibile è visibile”
[30]), mentre il linguaggio naturale presenta una flessibilità maggiore, con la “possibilità di parlare anche di ciò che non è visibile ma che, con l’atto stesso di parlarne, diventa presente”[31].
Per apprezzare in modo storico l’interfaccia grafica, si può rammentare anche il senso di quello che Gates ha chiamato il “secondo passo di Microsoft”. Il primo era stato l’introduzione del processore a 16 bit; il secondo sarebbe stato, appunto, “lo sviluppo di un sistema operativo con interfaccia grafica”. Il secondo passo seguiva sempre dunque necessariamente l’iter del (1) potenziamento delle macchine, con riferimento al trasferimento dei dati, e s’innestava anche nel cammino tracciato da IBM con l’accettazione delle (2) “compatibilità” (ovvero della conformità di un componente hardware o software a uno standard, indipendentemente da chi sia il produttore originale). In questo contesto storico della Tecnica veniva ad inserirsi - forse in un modo naturale - l’obiettivo di una (3) interfaccia disegnata, non già scritta, che fosse la più familiare possibile per l’uomo.
Era il 1983 - l’anno in cui nell’Applefest di Boston Dan Bricklin metteva in risalto, con inerenza al passaggio dal mainframe al personal computer, l’importanza dell’interfaccia utente
[32]- ed il problema, sotto il profilo tecnologico e commerciale, consisteva - nel passaggio dal modo carattere (che ha contraddistinto le varie edizioni di MS-DOS) a quello grafico - nell’accentuazione del dominio del campo visivo - il che avrebbe portato presto alla nascita dei primi applicativi specifici: Word ed Excel.
Tutto questo non significava ad esempio che il modo carattere non si protraesse sia pure a tutto schermo anche in Windows; e significava che l’evoluzione si soffermava sull’aspetto della visività, congeniale, forse, non tanto all’uomo “gutenberghiano” (cioè all’antropologia commisurata all’invenzione della stampa a caratteri mobili) di cui ha parlato McLuhan, quanto al “campo retinico”, prossimo piuttosto ad una sensibilità cinematografica e televisiva.
“Per comprendere la notevole differenza - scrive ancora Gates - tra un programma per computer basato sui caratteri e uno grafico, immaginiamo di giocare a scacchi, a dama, al gioco giapponese Go o a Monopoli sullo schermo di un computer. Con un sistema basato sui caratteri, dobbiamo immettere a tastiera le nostre mosse componendo frasi come “Muovi il pezzo sulla casella li alla casella 19” o altre un po’ più criptiche come “Pedone in C3”. In un sistema grafico, invece, possiamo vedere il piano di gioco sullo schermo e muovere i pezzi selezionandoli e trascinandoli sulle loro nuove posizioni”
[33].
Il passaggio dunque - congiuntamente al profilo strategico della separazione o meno fra hardware e software - può essere descritto sotto il profilo tecnico come il potenziamento della macchina e della memoria e come un travaso di potenzialità: dalla scrittura, agita dall’utente, all’immagine, predisposta per l’utente.
Oggi l’interfaccia grafica s’identifica per lo più con il desktop (letteralmente: scrivania) il quale tecnicamente è un raccoglitore che occupa l’intero schermo e contiene tutti gli oggetti con i quali si può interagire per portare a compimento operazioni sul sistema.
Nel desktop si attua la rappresentazione spaziale dei comandi e degli oggetti, che sono tali, che sono cioè oggetti, in rapporto ai comandi.
Il profilo, commerciale quanto psicologico, consiste nel fatto che per l’utente il vantaggio debba essere dato dal vedere ed agire ora invece di pensare e scrivere dopo; nell’avere, rappresentati visivamente ed in modo contestuale e psichicamente anticipato, possibilità e procedimenti ora non pensati ma che presto saranno seguiti dalla mente ai fini della scelta. Ottenendo in questo modo un feedback (messaggio di ritorno, risposta; segnale volto al controllo di una operazione effettuata) anticipato, e anche la corrispondenza fra le proprie immagini mentali e le immagini rappresentative visualizzate sulle quali agire.
L’inerenza dell’oggetto al comando, ed il fatto quindi che la scrivania contenga oggetti, dice che l’innovazione, con riferimento al desktop, consiste nell’introduzione del principio di “manipolabilità”.
“Manipolazione” è il trasferimento ovvero più propriamente l’“estensione” - per riprendere nozioni luhaniane -, nello spazio interattivo con la macchina, dell’uso delle mani.
Il che significa che il comando per un’operazione (aprire, spostare, copiare, inserire, “delegare”, ecc.) può essere agito immediatamente mediante un dispositivo di “puntamento” (pointing device), o puntatore, emulativo del puntare, prendendo e aggiustando la mira, un fucile o un cannone contro un bersaglio.
Che si possono cambiare dimensioni o posizione degli oggetti che vengono puntati. Delle finestre: apribili, riducibili ad icone, dimensionabili; delle icone: azionabili, traducibili in finestre, trascinabili, ecc.
Che più specificamente molte operazioni (di copiatura o di spostamento o stampa di file) possono essere eseguite con il metodo cosiddetto drag-and-drop, cioè: puntamento di un’icona, trascinamento della medesima, ma anche di un file reso in modo menu, sino al directory (oggi si parla meglio di cartella: folder) di destinazione, con finale rilascio (come se esso fosse lasciato cadere dall’alto) dell’oggetto trascinato.
Tutto questo s’inscrive nel trend tipico del tempo attuale, che è filtrato dalla consuetudine con la televisione ed il cinema, che volge a ricreare artificialmente condizioni espressive e di azione, tende cioè ad un’artificializzazione della vita.
Ma allo stesso tempo la manipolazione, avvenendo in uno spazio virtuale, può ricollegarsi ad alcuni stati dell’animo umano, quali il desiderio di vincere, promuovendo l’interazione, la unidirezionalità nella comunicazione caratteristica del medium televisivo, o la volontà d’invertire la direzione del tempo con comandi che pescano nelle acque della memoria, del tipo “Undo”, ovvero negazione di ciò che si sia appena fatto, azzeramento degli effetti di un’azione appena eseguita.
In tutto ciò però si può ravvisare subito un paradosso più o meno apparente, più o meno evidente, fra l’artificio e la naturalità, per il quale nel mondo del computer più io voglio riprodurre condizioni naturali (di linguaggio, di rappresentazione, di medialità dell’uomo) più io debbo dar vita ad artifici. Nel quale paradosso l’unica certezza, secondo la nostra classica sensibilità, è data dal fatto che si producano necessariamente artefatti.
In questo contesto - come si auspica - l’attività di progettazione e programmazione dovrà mirare al perfezionamento del desktop, delle icone, della sensibilità dello screen, ecc., affinché l’interfaccia renda raffigurazioni simboliche vieppiù familiari, abbia la sincerità e “collaboratività” di un martello (la cui presenza evoca performances inequivoche), offra possibilità crescenti di manipolazione immediata. Ma allo stesso tempo modifiche di tal fatta ed altre, di cui forse s’ignora la possibilità, dovranno essere rapportate alla psicologia dell’utente snidando in lui attitudini poco esercitate (una sorta di ars maieutica) anche istruendolo ed educandolo sul “come fare per...”. L’interfaccia grafica presenta dunque un tenore promozionale ed educazionale; la sua natura è impegnativa, esigente.
E in questo, come in relazione al rapporto tra naturale ed artificiale (virtuale), essa può non costituire un indirizzo decisivo.


Rapporto tra interfacce e utente

L’avvento dell’interfaccia grafica si caratterizza per avere introdotto possibilità combinatorie fra il desktop e il mouse. Possibilità combinatorie, in altre parole, fra interfaccia input ed interfaccia output; se è vero che un dispositivo di puntamento è un’interfaccia input mentre l’interfaccia carattere o quella grafica sono output.
Tutto questo naturalmente si presta alla osservazione e progettazione, esprimendo il fatto che progettare un’interfaccia significa progettare il rapporto fra uomo e interfaccia. Tradizionalmente si dice fra uomo e macchina ma evidentemente la grafica è venuta a suggellare un cambiamento dei termini del problema.
Progettare il rapporto fra uomo e interfaccia significa dunque avere il compito di studiare la migliore combinazione, dal punto di vista dell’utente, fra input e output d’interfaccia.
Di solito, quando si dice che l’interfaccia è intuitiva o che essa deve mirare alla piena naturalezza e trasparenza dell’interazione, si parla in un modo generico e si tralascia in favore degli obiettivi il valore sperimentale che essi sottintendono.
Ma doveva essere evidente ad esempio, soprattutto perché ciò avveniva quando la tastiera era il dispositivo di input per antonomasia, come l’ingresso del “menu” nel mondo della User Interface rendesse più lenti e complicati, rispetto alla intenzionalità, i gesti elementari di manipolazione da parte dell’utente - aprire, prendere conoscenza, selezionare, ecc. - che doveva così sentirsi allontanato dal momento esecutivo di molte azioni.
Questo problema, del tempo di attivazione di un comando da scegliere in un set di comandi eseguibili, era stato preso in considerazione negli anni cinquanta da Fitts. La legge di Fitts - espressa in una formula - diceva che “il tempo medio di movimento tm da parte di un essere umano per raggiungere un bersaglio è una funzione lineare del logaritmo in base 2 del rapporto tra la distanza da percorrere D e l’ampiezza W occupata dal bagaglio”
[34].
Questa legge sarebbe stata integrata molti anni dopo in relazione alle potenzialità dei dispositivi di input, quelli, per intenderci, consistenti nello spostamento del puntatore - i quali hanno origini militari (memorabili e chiare sono a questo riguardo le pagine di Wiener sull’argomento). Oggetto di osservazione, nell’ambito dell’interfaccia utente, era divenuto il tempo che un essere umano impiega, facendo muovere il puntatore (invece di utilizzare una tastiera), per centrare un bersaglio.
Gli esperimenti condotti in tal senso da Card, Engish e Burr nel 1978 hanno portato alla conclusione che il mouse sotto questo riguardo è decisamente strumento più veloce rispetto alla tastiera (tasti di arrow), alla trackball e al joystick.
Queste vicende di sperimentazione valgono ad integrare le parole di Gates, ed aiutano a comprendere, certo in concomitanza con l’introduzione del desktop, l’atteggiamento dei produttori e la piena commercializzazione, a muovere da quel tempo, del mouse che, come noi sappiamo, all’esistenza del desktop è profondamenrte associato.
Questo - ripeto, per riassumere - va considerato come esempio per avere una idea minima di che cosa si possa considerare progettazione dell’interfaccia, e di quanto in tale attività pesino discipline come la Human Computer Interaction o la psicologia.


Pixel e Texel

Con il monitor si ha l’applicazione del principio che la visività (quale spazio fideistico o d’illusione) è una condizione fondamentale del sapere. Questo principio, come lasciano intendere gli studi di McLuhan sull’uomo gutenberghiano, si era manifestato con l’invenzione della stampa.
Ma il monitor, più della pagina stampata, può creare suggestioni legate all’immagine. Più della pagina di stampa esso dà spazio alle immagini; ed è in grado di comunicare con l’apparato percettivo dell’uomo; perché esso è immagine fisicalmente strutturata. E non importa qui se ciò avviene con efficacia non così immediatamente o puramente visiva.
Prendere in considerazione il profilo della creazione d’immagini sospinge la mente alla computer grafica - che meriterebbe maggior considerazione quando si parla d’interfaccia - e per l’esattezza a quelli che possono considerarsi come due suoi portati: il pixel e la texture.
Pixel sta per picture element, la cui traduzione con l’espressione “elemento dell’immagine” è abbastanza significativa; ma forse non dice tutto. Si tratta infatti, a volersi soffermare sull’aspetto delle potenzialità tecniche, dell’elemento minimo della visualizzazione su schermo.
In sostanza il monitor (e con esso l’immagine sullo schermo) viene diviso fisicamente in moltissimi punti luminosi, l’uno eguale all’altro, disposti ciascuno in una sua area identificativa, ciascuno dei quali si accende e si spegne indipendentemente dall’accensione o spegnimento degli altri.
Il numero dei pixel, verticali ed orizzontali, determina la cosiddetta “risoluzione” o “definizione” del display: maggiore è il numero di pixel più alta è la risoluzione, più efficace (penetrante e persuasiva) l’immagine, migliore l’interfaccia.
La risoluzione è importante sul piano comunicativo e, come insegna McLuhan, essa ma ancor prima quindi la tecnica per la costruzione delle immagini qualifica sensitivamente il medium: la televisione che non ha una grande risoluzione (ma qui non consideriamo la tv digitale) suscita molto ancora la sensazione audio-tattile; il computer, che ha una risoluzione superiore, suscita prevalentemente la sensazione visiva, ecc.
Prima dei pixel i display si costruivano - pensiamo alla resa dei numeri da 1 a 9 nelle comuni calcolatrici tascabili - mediante il metodo dei sette “segmenti”. Con una certa rigidità e con capacità di risoluzione relativamente limitata. Con la realizzazione dei pixel il posto del segmento è stato preso dal punto (dot). Il quale, come è intuibile, offre una maggiore maneggevolezza, maggiori possibilità di costruzione d’immagini. Come dire che più piccolo è il mattone maggiore è la duttilità e più svariate saranno le forme che l’edificio potrà assumere; maggiore la decostruibilità, più numerosi i modi possibili di ricostruzione.
Sempre sul piano della costruzione dell’immagine, la computer grafica ha ideato il texture mapping.
Avviato da Catmul e completato da Blinn e Newell, il texture mapping (al quale si applicano accorgimenti, tipo il bilinear filtering, per perfezionarne l’effetto) è una tecnica di rivestimento di oggetti resi a video in modo tridimensionale. Laddove la texture può assumere la forma di marmo, legno, metallo ecc. Esso è organicamente legato al pixel perché l’elemento minimo della texture, il texel, acronimo per texture element, non è altro che il pixel del texture map.
È stata la psicologia dei processi cognitivi, al di fuori dei confini della computer grafica, ad offrire della texture
[35]una teorizzazione generale; secondo la quale la texture può essere interpretata come “tessuto”, ordito d’immagine, e questo ordito, nel quale si costituisce il fatto di percepire visivamente, è tutto ciò che si ha. Essa è composta strutturalmente di milioni di particelle (uguali fra loro...), che sono appunto i texel.
Sotto il profilo psicologico, i texel sono “atomi percettivi”
[36], il che lascia intuire il fatto che essi siano come finalizzati alla percezione, anzi che in essi la percezione lavorando venga a costituirsi.
Va aggiunto per ragioni di chiarezza che tutto ciò è interpretato dalla psicologia dei processi cognitivi sotto il profilo squisitamente soggettivo della percezione, per cui le tessiture caratterizzano regioni di stimolazione, e per cui - secondo una definizione differenziata rispetto a quella data da poco - il texel è l’unità primitiva della tessitura, da essa cioè le tessiture prendono sviluppo ed alcune di queste “contengono elementi ottenuti anche tramite deformazioni del texel fondamentale
[37].
Queste ed altre possibili considerazioni sul pixel e la texture conducono per certi versi nel cuore della grafica d’interfaccia perché ne toccano aspetti costitutivi e perché il monitor è - altrimenti non sarebbe - anche la struttura della immaginazione. Ma essi in ciò lasciano intravvedere il fatto che l’atomizzazione percettiva della quale si occupa la psicologia è profondamente collegata con la cosiddetta implementazione di tecniche di comunicazione o trasmissione uomo-macchina, e viceversa.
Forse nulla meglio dell’atomizzazione percettiva infatti rende l’idea di che cosa significa il monitor e di qui in che cosa si versi quando si parla di grafica d’interfaccia.


Interfaccia grafica e rappresentazione

Storicamente, l’interfaccia grafica può inscriversi in quel movimento di riforma, favorevole all’utente (Human Centred), che vuole in tal senso e cioè nel suo essere “orientato all’uomo”, sostituire il mondo “reale” con un mondo “rappresentato”.
Il primo atto di tale movimento (siamo nel 1983) può essere identificato nel passaggio dal mainframe al personal computer. A voler cioè rendere dal punto di vista umano l’idea del rapporto dialogico fra l’uomo e gli oggetti che egli usa, si può sostenere che tale rapporto ha luogo sul terreno della rappresentazione e delle immagini. Immagini e rappresentazioni di un certo tipo: che sono cioè finalizzati a indurre una consapevolezza operativa, volta a dare orientamenti per l’azione.
Volendo descrivere il senso della rappresentazione e la sua utilità, ci si può esprimere, come ha fatto certa teoria descrivendo l’interfaccia utente, parlando di “illusione utente”
[38].
Il che significa che nell’interfacciamento (fra la macchina e l’uomo) è importante far credere all’uomo che la usa di fare certe cose quando in realtà, a parità in qualche modo di risultato, la macchina dietro suo (umano) impulso ne sta facendo altre; cioè è altro, se pure corrispondente, legato in qualche modo, ecc., ciò che realmente accade; ovvero ciò che realmente accade ha una complessità che è umanamente imprendibile.
E questo per una regola abbastanza elementare a suo tempo considerata dai primi programmatori professionali, secondo la quale le difficoltà, quanto meno iniziali, di programmazione erano legate alla mera constatazione, in assenza del risultato o dei risultati voluti, che la macchina non comprendesse il linguaggio ovvero quello che per l’uomo potesse essere un linguaggio adatto per la macchina; “interiorità” dunque di una macchina (ma attenzione: penso alle macchine ipotetiche, o alle macchine disegnate su fogli di carta, o alla macchina in quanto universale, ecc.) come concetto sempre da approfondire, forse un concetto “del non …”, per così dire, quale quello minskiano di intelligenza. Laddove per non voler dire che l’inganno è fondante, si dice che se io produco o emulo una cosa, quella cosa in natura non esiste.
Ma l’illusione utente è un procedimento tecnico “intelligente”, che tende a strutturare come unicum nella percezione e nelle immagini l’inganno (inganno dei sensi ma di più dell’anima razionale e cioè - per quanto si può desumere da certo pensiero contemporaneao - deriva persino del cartesianismo). L’illusione e inganno utente - particolare anche questo importante - è come un mito, o un principio, che giace o si muove al fondo della rappresentazione: è “credere di...” e allo stesso tempo “far credere che sia così...”.
Oppure il valore della rappresentazione può essere espresso considerando come la progettazione deve tenere conto del cosiddetto user conceptual model (modello concettuale dell’utente): “l’interazione con qualsiasi artefatto richiede sempre il possesso di un modello mentale di quell’artefatto”
[39].
Essa cioè, muovendo dal presupposto che l’utilizzatore nel rapporto con gli artefatti sempre si crea un suo modello mentale rappresentativo, deve comprendere quale modello mentale l’utilizzatore prediligerà per compiere determinate azioni.
Questa necessità, di prevedere e preordinare un modello mentale è tale a fronte del fatto che nel rapporto con i sistemi computerizzati “La sequenza di azioni da eseguire [...] viene spesso percepita come una serie di procedure che non obbediscono a nessun legame causale prevedibile”
[40].
Duplice dunque può ritenersi, nella progettazione delle interfacce grafiche, l’assioma rappresentazionale: che tutto è riducibile a rappresentazione e che la rappresentazione è fondamento dell’azione.
Ovvero, anche, in parallelo: tutto è interfacciabile perché tutto è comunque interfacciato. Verità questa, cui si è già accennato, che trova riscontro ampiamente nel senso convenzionale e simbolico dei linguaggi.
Oltre ad avere inerenza al campo retinico, la rappresentazione grafica, in quanto rappresentazionale, si basa sulla teoria del riconoscimento
[41], alquanto somigliante al dogma platonico della “reminiscenza”, per cui, per poter riconoscere, il soggetto deve già avere conosciuto ciò che poi egli trova rappresentato. In tal senso, secondo una notazione di Maldonado, vedere presuppone sapere[42]. Presupposto dietro il quale se ne annida altro, per cui si possa riconoscere ancor prima lo strumento di rappresentazione: il soggetto messo di fronte alle icone, in altre parole, ha una cultura iconica?
A voler insistere su quella che potremmo dire teoria rappresentazionale, si può riprendere la tesi di Eco sull’uomo come animale che ha avuto esperienza dello specchio e sostenere che la realtà visiva iconica dell’interfaccia grafica è un po’ la, riconduce un po’ alla, realtà dello specchio: “Lo specchio è stato e continua a essere, il principale modello nello sviluppo storico delle rappresentazioni”
[43].  E oltre allo specchio, sul medesimo piano si ha la pittura, il pittorico, che è esperienza di base per qualsiasi iconografia.
Alla teoria della rappresentazione si ricongiunge abbastanza spontaneamente quella della metafora, nel senso che la rappresentazione si manifesta o si esercita attraverso metafore (per poter comprendere e sperimentare una cosa bisogna dirne un’altra
[44]) che si riferiscono (pensando a Windows o a Macintosh) preferibilmente al monitor: il monitor è una scrivania di lavoro, il monitor è un foglio da disegno, il monitor è un pannello di controllo, ecc.[45]. Ma che sono ravvisabili in tutti gli oggetti che caratterizzano un’interfaccia grafica. Laddove una finestra, una icona, sono necessariamente qualcosa di rappresentato e metaforico. E metaforico è nel suo complesso il mondo virtuale.
Sta di fatto però che per ogni questione si hanno sempre due scuole di pensiero e che quella della rappresentazione è una teoria che si può condividere e non condividere. Secondo taluno infatti il discorso sulla rappresentazione, meglio sulla metafora - che è tale perché rapportata alla cosiddetta “realtà” - non è sostenibile e invece bisogna credere che mediante la rappresentazione grafica si dia semplicemente vita ad una nuova realtà. Che magari ha perso ogni legame con la realtà da cui ha preso le mosse o alla quale ha attinto.
Ovvero: gli oggetti metaforici - finestre, icone, menu ecc. - “più che raffigurare una realtà, costituiscono una realtà”. Perciò “pare più appropriato affermare che gli elementi figurativi sul monitor di un computer non raffigurano nulla, ma piuttosto propongono uno spazio d’azione”
[46].
Comunque sia, a difesa della teoria rappresentazionale si può dire che l’utente è coinvolto là dove si trova ad essere rappresentato. Che in sostanza un legame deve esistere.
La crescente e forse sorprendente interazione uomo-macchina consentita dalla, concretizzantesi nella, interfaccia grafica, richiede una sempre maggiore partecipazione dell’utente. Ma tanto una sempre maggiore partecipazione dell’utente dal punto di vista operativo e cognitivo, quanto una imitazione o riproduzione dell’uomo - di parti od organi del corpo umano - nel mondo della macchina. Un po’ come avviene con il cinema, abbastanza vicino per la nostra sensibilità ordinaria allo specchio, ma in un modo per così dire ben più insospettato.


L’iconografia

L’icona si è affermata nella scienza del computer come parte di un contesto o spazio agibile, rappresentazione delle possibilità di azione mediante uno spazio familiare, il desktop.
L’icona (inglese Icon, ma ancor prima greco “eìkon”) è un pittogramma simbolico o rappresentativo: di directories, di programmi, di processi, di files, di periferiche. Essa dunque ha il compito d’interfacciare l’utente con qualsiasi di queste entità le quali è come fossero realtà.
Si tratta in tal senso, nell’iconografia, di valorizzare la funzione d’interfacciamento e comunicativa insita nella pittura carpendo al pittorico quella espressività e universalità di linguaggio d’interazione che il carattere o la sequenza di comandi non consente.
Il modello storico di sviluppo in tal senso è costituito da Mac; mentre Microsoft Windows e OS/2 ripreso e sviluppato questo modello.
L’icona è simbolica e meglio evocativa, o allusiva; essa racchiude in sé il comando (l’idea di poterlo dare) più la rappresentazione o l’idea della conseguenza di effetto, ovvero di ciò che potrà accadere una volta dato il comando, una volta scelto e azionato quel comando piuttosto che altri.
Nel suo assetto pittografico essa può essere accostata, secondo un noto studioso, a quella che Février ha definito “scrittura sintetica”, scrittura cioè “caratterizzata essenzialmente dal fatto che cerca di suggerire con un solo disegno, che l’uomo può abbracciare d’un sol colpo, tutta una proposizione, tutta una frase ed anche un gruppo di frasi”
[47]. Essa può essere anche avvicinata, secondo il medesimo autore, al fumetto - anche se questo sembra limitarsi ad un effetto breviloquo e di cornice.
Interpretata come proposizione, inserita cioè in un contesto proposizionale, l’icona inoltre ha dato vita ad una disciplina che bada, in fase di programmazione e di progettazione, alle sintassi iconiche ed ai legami logici di significanza fra di esse.
Dell’iconizzazione si è occupata anche la psicologia dei processi cognitivi, la quale ha voluto cogliervi un profilo della memoria umana. L’icona stimola, e ne è supportata, la memoria veloce e labile. Il che in fondo è un modo di descrivere l’intuitività e l’immediatezza del rapporto umano con l’iconico, ma con qualsiasi oggetto o qualsiasi cosa; questo in modo da valorizzare sollecitare ed educare la virtù mnemonica dell’uomo. È infatti abbastanza comprensibile come l’icona venga ad incidere sulla gestione umana della memoria.
L’icona, dal punto di vista storico, può essere interpretata come una regressione rispetto alla stampa a caratteri mobili, la quale per genesi fu iconoclastica. È stato riconosciuto infatti da Padre Ong
[48] come il segreto della visività tipografica corrisponda storicamente con l’epitome “senza immagini” di Pierre de la Ramée, figura vicina al movimento iconoclasta, il quale, avendo introdotto l’uso della retorica laddove vi erano immagini, dimostrò la sostituibilità dell’efficacia mnemonica della illustrazione con quella del testo stampato. Ma direi che prima ancora che di regressione, sia il caso di parlare di sintesi-superamento: il ritorno all’icona avviene in ben altro contesto.


L’interfaccia “sociale”

L’interfaccia grafica, se lo è prevalentemente, non è sempre necessariamente iconica. Si annovera in essa infatti anche la cosiddetta “interfaccia sociale”, che trova oggi largo impiego nei CD-ROM di connotazione didattica.
Interfaccia sociale è una forma d’interfaccia in cui gli oggetti sono rappresentati realisticamente, non iconicamente. Un oggetto in questo tipo d’interfaccia non viene a rappresentare un’azione, o l’effetto di un’azione, ma un oggetto del mondo esterno che è quello effettivamente ritratto.
“Bob” di Microsoft ad esempio usa un’interfaccia sociale in cui è rappresentata una casa con diverse stanze, tra cui un soggiorno, uno studio, un garage e un attico, e ciascun utente può personalizzare la propria stanza. Sparsi nelle stanze vi sono degli oggetti usati per avviare i programmi di Bob; cliccando sul calendario appeso al muro si apre l’agenda degli appuntamenti, e cosi via.
Analoghe prestazioni sono fornite da alcuni CD-ROM per l’apprendimento di lingue straniere oppure da CD dimostrativi o comunque di vetrina; ed anche i servizi on-line di Apple utilizzano un’interfaccia sociale; a favore della quale si può dire che essa è più comprensibile (o evidente) rispetto a quella iconica.


Windows come interfaccia

Windowing, ovvero sistema “a finestre”, è la tecnica di partizione dello schermo in più aree distinte, ciascuna delle quali è un insieme e in ciascuna delle quali è possibile per l’utente visualizzare contemporaneamente e manipolare separatamente testi e/o immagini diversi.
“X Window System” ad esempio, sviluppato presso il MIT (Massachusetts Institute of Technology) per fornire il progetto “Athena” presso il Computer Science Lab di un’interfaccia utente, appartiene a questa famiglia. Nato con lo scopo di produrre una interfaccia utente indipendente dallo hardware, gira per lo più sui sistemi Unix; si basa dunque su un modello client-server e presenta, a differenza di altri windows systems, una struttura di rete (network-based structure).
Le finestre (windows) al pari delle cornici (frames, che le hanno precedute quanto meno nei cosiddetti “pacchetti integrati”) sono sì elementi estetici ma dotati di una valenza psicologica. Sotto tale ultimo profilo essi sono chiamati a rappresentare sì oggetti ma soprattutto la conoscenza
[49].
In questo ordine culturale Microsoft Windows nasce come ambiente (operativo) grafico; poi, attraverso vicende anche non lineari (ad esempio Workgroup non è necessariamente la naturale prosecuzione della versione 3.1), approda alla condizione di sistema operativo, nella duplice versione “NT” (New Technology) e “95” (approdato finalmente alle versioni “2000” e “XP” - Experience).
Questo profilo evolutivo può essere spiegato anche dicendo che Windows in quanto ambiente operativo interfaccia rispetto a DOS - ed è questa l’interpretazione che seguono i produttori di CD-ROM giuridici -, mentre in quanto sistema operativo interfaccia con la macchina.
Microsoft Windows (qui ne parliamo così come fino a poco tempo fa si parlava a mo’ di esempio di Macintosh, sostenendo che esso era divenuto “l’Interfaccia”
[50]), sviluppato per fare accettare agli utenti le macchine IBM, nasce sotto il profilo tecnico per superare il single tasking di DOS e il carattere “chiuso” degli applicativi per PC di prima (Visicalc) e seconda (“1-2-3” di Lotus) generazione. Laddove single tasking significa, per l’utente, non poter utilizzare più di un programma alla volta, per il sistema dover svolgere un’attività (task) alla volta.
Con DOS, come ha scritto Paul Bonner, vi era un problema di limite di memoria, non era possibile cioè “tenere in memoria due applicazioni allo stesso tempo, e commutare da una all’altra facilmente, perché il DOS non è capace di indirizzare la quantità di memoria che sarebbe stata necessaria”
[51].
La liberazione da questi vincoli tecnici si è avuta con l’introduzione del multitasking o, come anche si dice con termine recenziore, del multithreading: la capacità della macchina di elaborare contemporaneamente - per la quale è decisiva la potenza del microprocessore - tasks diversi nel medesimo programma, e meglio: contemporaneo espletamento di sottocompiti (threads) all’interno di un medesimo processo di elaborazione, che senza tale espletamento non potrebbe avvenire (si pensi al frequente azionamento, dalla console, per passare ripetutamente da uno ad altro programma aperto, della combinazione “Alt+Tab”).
Per la verità al limite insito nel single tasking si era cercato di ovviare usando, assieme all’applicazione primaria, programmi TSR, cioè Terminate-and-Stay Resident (che per definizione rimangono caricati in memoria anche se non in esecuzione per poter essere richiamati rapidamente, ma che risultavano spesso inaffidabili) oppure usando una shell multitasking per il DOS come “DESQview” della Quarterdeck, capace di spostare dentro e fuori la memoria i programmi secondo le necessità, sempre qualora fosse disponibile una certa quantità di RAM (la memoria ad accesso casuale, ovvero quella che si perde spegnendo la macchina). “Nel risolvere questi problemi, però, DESQview e compagnia - è la conclusione di Bonner - ne misero in evidenza un altro: l’incompatibilità di strutture ed interfacce fra le applicazioni”.
Di qui le intuibili virtù di un’unica interfaccia; aspetto nel quale risalta il rapporto fra la memoria RAM della macchina e la programmazione (linguaggi, modi e indirizzo), profilo che spiega fra l’altro l’ideazione - in un arco di tempo e ideale fra DOS e Windows - di “Framework”.
L’appetibilità di un software d’interfaccia qual è Windows non consiste solo negli effetti speciali e nemmeno in certa facilità d’utilizzo, ma anche nel fatto che vide la luce, al suo séguito - molto nel periodo della conosciuta versione 3.1 -, una messe di programmi per lo più shareware (cioè liberamente distribuiti a fini di prova) e che l’indirizzo divenne quello di una immediata compatibilità di applicativi e prodotti di vario genere. Non si può separare, meglio, tale profilo (del superamento del mondo del single tasking) da quello della compatibilità. Quasi a dire che l’interfaccia grafica significhi per l’utente che tutto è possibile: basta aprire, vedere, scegliere, muovendosi sempre nel medesimo ambiente.
Che cos’è Windows come interfaccia? È innanzitutto un sistema di files. Fra cui emergono quelli aventi specifiche funzioni d’interfaccia.
Il collegamento visivo fra Windows e l’ambiente esterno è costituito, con riguardo al software, da Graphic Device Interface (GDO), che consente alle applicazioni di riprodurre immagini grafiche sullo schermo, sulle pagine di una stampante e su altri dispositivi di output. Comunicando con i drivers di periferiche, che sono DLL ovvero librerie “dinamiche” - Dynamic Link Libraries
[52]- GDI fornisce molte funzioni per tracciare linee, cerchi e poligoni, per visualizzare caratteri tipografici (fonti tipografiche), per interrogare i dispositivi di output ecc.
Il collegamento del sistema operativo con gli applicativi è garantito da Application Program Interface (API). API è l’insieme di funzioni dell’OS (in Windows - siamo alle versioni intermedie - se ne contano oltre mille) che un programma o un applicativo può usare per eseguire compiti del tipo gestione dei file, visualizzazione delle informazioni sullo schermo, ecc. In generale un’API, oltre a definire le funzioni del sistema operativo disponibili per i programmi applicativi, descrive anche come quelli dovrebbero utilizzare queste funzioni. Essa, in particolare, supporta finestre, icone, menu pull-down e altri componenti dell’interfaccia.
L’interfacciamento grafico con l’utente è garantito da Graphical User Interface (le famose GUI), librerie di programmi usate per consentire un ambiente più naturale d’interazione con il computer.
Windows è poi, come indicato dalla parola, un’interfaccia “a finestre”. L’interazione uomo-macchina avviene innanzitutto aprendo “finestre”; in ogni finestra sono contenuti gruppi di programmi (si pensi ad esempio agli “Accessori”: Blocco Note, Imaging, Calcolatrice, Word Pad) laddove a ciascun programma corrisponde una icona di raffigurazione.
Le finestre (e i box): di dialogo, di avvertimento, di documento, ecc. - che riprendono e sviluppano in qualche modo il modello delle “cornici” di Framework - oltre alle icone presentano menu a discesa (cascading
[53]), a tendina[54], pop-up[55], pull-down e tear-off; barre: degli strumenti (tools bar: i comandi di uso più frequente sotto forma di icone o di bottoni di comando in una fila nella parte alta dello schermo), del titolo, di scorrimento (scroll bars), ecc. Sono modificabili nella dimensione (massimizzabili o minimizzabili), oppure spostabili.
Come si può comprendere facilmente, Windows è anche un mondo di azioni. Il desktop che come si è detto rende i comandi in modo spaziale e manipolatorio, per i principi della Direct Manipulation è un’area agibile, si presta cioè ad azioni: spostare, aprire, chiudere, scegliere, trascinare (: icone, finestre, oggetti). Le icone, sotto l’azione del mouse, possono aprire finestre e viceversa queste possono essere ridotte allo stato di icone.
Microsoft Windows come interfaccia è inoltre un mondo di oggetti (objects).
Sino a qualche anno fa nell’informatica lo schema mentale pratico di riferimento era per lo più il file; ora, in un contesto operativo nel quale predomina la grafica d’interfaccia, è l’oggetto.
L’oggetto è categoria superiore al file; anzi nell’oggetto si può rilevare un rapporto di prossimità o analogia con il frame o la window piuttosto che con il file. Nel senso che nell’oggetto si può rappresentare così la cornice come ciò che vi è contenuto.
Oggetto umanamente è tutto ciò che si può rappresentare come tale ed è in generale - come avviene in Windows NT - qualunque ne sia la natura, una qualsiasi risorsa del sistema. Può essere un brano di scrittura o una banca dati o un documento in essa contenuto; ma è parimenti una fotografia come un disegno, un programma o un brano musicale, un’immagine, un’animazione, un file di programma, una finestra, una libreria; o il computer stesso, oppure la stampante, o il monitor. Oggetto è allo stesso tempo la lista di tutte le risorse del sistema.
Nel mondo degli uomini oggetto è qualsiasi cosa interpretiamo od osserviamo come esterna; è una qualsiasi entità sulla quale sia umanamente possibile intervenire in modo manipolatorio, ovvero in termini di elaborazione e trasformazione. Nel mondo computerizzato è oggetto tutto ciò su cui io posso agire e che posso manipolare: importare, esportare, aprire, copiare, deletare, inserire in un altro oggetto (inserire un disegno, una foto o un brano di musica in uno scritto), ecc.; ma è anche necessariamente ciò che è umanamente oggetto: vi è dunque fra i due mondi una corrispondenza e la considerazione dell’oggetto, che fino a qualche anno fa poteva essere un appannaggio della scienza filosofica, ed era anche fuori di questa un sasso, un albero o una casa, ora è entrata nel mondo informatico delle interfacce, come se una idea si fosse materializzata (ma siamo appunto a immagini delle cose che si sono materializzate o a materializzazioni virtuali).
Qui si fa capo a una effettiva capacità tecnologica trasformativa prima che all’arte dell’astrazione o alla metafisica. Una banca dati si pone infatti sullo stesso piano oggettuale di una fotografia, di un videoclip o di un brano musicale a causa del fatto che tutto con la tecnologia digitale è divenuto catturabile, virtualizzabile, rappresentabile. L’oggetto ha raggiunto l’importanza del file nei termini in cui esso è un che di virtuale e in ciò manipolabile.
Queste verità possono essere integrate dall’altra, che in Microsoft Windows l’oggetto si costituisce in interfaccia. Esso media cioè il rapporto con tutto ciò che è rappresentabile come oggetto.
Questa ultima caratteristica ha investito prima di tutto il terreno della programmazione. la quale in Windows è object oriented, ovvero è - il che ha lo scopo di alleviare i cosiddetti costi di manutenzione, segnatamente per l’aggiornamento o le modifiche dei programmi nella loro incidenza sul sistema operativo - “per oggetti”, con indiscussi vantaggi. “Se una modifica dell’hardware, per esempio, impone una modifica del sistema operativo, bisogna cambiare soltanto l’oggetto che rappresenta la risorsa hardware e i servizi che operano sull’oggetto [...]. Analogamente, quando il sistema ha bisogno di supportare nuove risorse, si crea un nuovo oggetto e lo si aggiunge al sistema, senza disturbare il codice esistente
[56].
Il principio che fa capo alla introduzione dell’oggetto è stato espresso dieci anni or sono da Card e Moran, secondo i quali la sfida per i progettisti d’interfacce consisteva nel creare sistemi che mettessero l’utilizzatore nella condizione di agire sulle proprie idee, sulle parole, come fossero oggetti. Nozione interessante, e che un po’ equivale a dire che espressioni grammaticali, sintattiche e in generale linguistiche sono riconducibili (Hobbes) ad attività di calcolo.
Ma esso va completato, col dire innanzitutto che questo è stato possibile per essere in linea con l’intuizione di Bertrand Meyer, secondo la quale i sistemi operativi sono programmi che “non hanno un vertice”, ragion per cui la programmazione, invece di progettare un sistema “partendo dal vertice e scendendo verso il basso”, orientandosi agli oggetti si concentri sui dati che il software deve “manipolare per fare il suo lavoro”, ovvero agendo tendenzialmente in modo più empirico ed immediato
[57].


L’interfaccia di ricerca

Consultare una banca dati, al pari della navigation in internet, significa interfacciarsi, ovvero l’accesso a un database è costituito da un complesso di condizioni che si possono definire d’interfaccia.
Si può pensare a tale proposito alle chiavi di ricerca, alle formule d’interrogazione, agli operatori (operands) logici e booleani, finanche alle password, come ad un modo d’interfacciare ponendo condizioni l’utente con la banca medesima.
Ma un database è un database management system, esso è cioè tale per cui i criteri di consultazione ovvero d’interrogazione non debbono essere difformi rispetto a quelli d’immissione dei dati (data entry), il che significa che prima ancora bisogna andare a guardare alla struttura ed all’organizzazione dei dati, nonché alla stessa filosofia del record.
Tali aspetti hanno caratterizzato e i primi CD-ROM, nei quali le interrogazioni venivano formulate in “modo carattere”, sino le banche cosiddette on-line, ovvero quelle che sono chiamate a fornire informazione velocemente aggiornata. Sin dall’origine, il problema di fruibilità di una collezione di dati era quello di mettere a punto - con pregnanza logica e/o predisponendo una interazione intuitiva - per l’utente una query soddisfacente; intendendosi per query il metodo e la possibilità effettiva d’interrogazione di una banca in relazione a dati specifici; ovvero il “che cosa” ed il “come” ricercare.
A questa epoca, perfezionata dalla introduzione dei primi menu, ne è succeduta un’altra, nella quale i vari tasks e fra essi l’interrogazione furono interfacciati in modo grafico e simbolizzati mediante bottoni ed icone.
Il problema della query è per così dire un problema storico, e molto si gioca, oltre che sulle opzioni, che tendono a certa complessità, sulla potenza delle memorie e celerità dei motori di ricerca. per cui - mettiamo - il compact-disc e il DVD, diverranno, al pari dei floppies, qualcosa di cui liberarsi. Che cosa significherebbero infatti altrimenti le banche musicali o d’immagini? Con il divenire le banche ipertestuali e multimediali, il problema dell’interfacciamento ha investito il mondo del disegno industriale, che si è dimostrato ancora una volta sensibile alle trasformazioni.
Ne è scaturita una nuova disciplina, l’Infodesign, che si occupa di rendere di facile accesso, fruibile ed appetibile, una banca dati. Ovvero di fare informazione mediante una pluralità di strumenti, nel qual caso il concetto si riferisce molto al cosiddetto Ipermedia o Multimedia.
Le caratteristiche ora espresse trovano ampio riscontro nei DVD-ROM, eredi dei CD-ROM; i quali sono sì supporti di memorizzazione (un po’ come può esserlo un buon Hard Disk removibile o uno Zip Disc) ma che oltre che memorie di massa sono un nuovo modo di essere della banca dati.
A voler definire il DVD-ROM - e di qui gli on-line - in considerazione della multimedialità, si può sostenere che in essi si ha la sintesi-superamento dei media che li hanno preceduti e/o sono ad essi  coevi: il libro, il disco musicale, la televisione, il cinema; Che in fondo sono altrettante funzionalità.
Questo significa molte cose: che una copertina può essere sonora ed accompagnata da un commento parlato, che una banca è sfogliabile (browsing), che si può disporre, volendo conoscere o approfondire un argomento, di una illustrazione scritta, parlata, di un videoclip, di una animation, che un libro può essere costituito di sole pagine musicali.
Nel DVD-ROM e nei successivi prodotti evolutivi, entrano molto il carattere sociale e ludico dell’informatica, il quale, combinandosi con la capacità d’informare e di educare o con le potenzialità multimediali, dà vita - anche questa nozione del design industriale - al cosiddetto Infotainment, termine nel quale si ha la fusione delle parole informazione e intrattenimento.


Il browser come interfaccia

Non soltanto le icone servono a mediare il rapporto fra utente e programmi; ma tale funzione è svolta anche dal browser. Anche se il browser aiuta a mediare il rapporto con le risorse. Il cui concetto è diverso, più generale, rispetto a quello di programma.
Il verbo inglese to browse significa dare uno sguardo, in un negozio, agli articoli in vendita, oppure sfogliare rapidamente un libro, sperando nell’un caso e nell’altro di trovare qualcosa d’interessante.  Il verbo può tradursi in maniera soddisfacente anche con la parola “esplorare”, ovvero seguire un tracciato o più tracciati, sino a che non si raggiunge un obiettivo.
Nell’informatica si tratta di un programma applicativo utilizzato per esplorare (o curiosare fra) le risorse di un sistema, di una rete, alla ricerca di qualcosa che possa interessare e certo anche più miratamene sapendo ciò che si vuole. L’ambiente che così si scruta dev’essere preferibilmente vasto, complesso e ricco di possibilità e risorse, anche sconosciute.
Per questo oggi il browser - in relazione alla crescita delle risorse alle quali è possibile attingere non è un di più - forse lo era per l’utente cinque anni fa, non oggi - ma uno strumento indispensabile; per questo esso si è affacciato all’utenza con i primi CD-ROM e per questo esso è, in Internet, una chiave di esplorazione connaturata. Ed in questo modo nasce la grafica di browsing.
Nell’interfaccia grafica il browser è una visualizzazione. Che naturalmente conserva il senso dello sfogliare in cerca di qualcosa d’interessante. Alle volte “sfogliare” (riquadro che figura costantemente in tutte le interfacce grafiche) significa annettere la possibilità che l’utente veda qualcosa che i programmi non hanno visto; oppure in generale definisce margini di libertà.
Il browser assume dunque una spiccata importanza nelle grandi reti. In Internet (si pensi alle versioni di Explorer (ma già di Netscape) esso permette di vagare da un nodo ad un altro senza conoscere i dettagli tecnici riguardanti la connessione tra i due nodi o i metodi di connessione utilizzati per accedere ad essi.
Il browser si preoccupa di accedere all’host Internet che contiene il documento richiesto; non è necessario conoscere l’indirizzo IP, il nome del sistema host o altri dettagli.
E si parla, in Internet, di Browser Web per dire di applicazioni che consentono di leggere documenti in World Wide Web (l’insieme di pagine ipertestuali su Internet) e di seguire dei collegamenti ad altri documenti (sempre di formato ipertestuale) Html (Hypertext Markup Language) sulla rete.
Un diffuso Browser Web da ricordare è “Mosaic”, un programma disponibile nelle versioni per Windows, Unix e Macintosh. “Mosaic”, preso qui ad esempio, sfrutta un’interfaccia grafica per fornire accesso alle risorse e permettere agli utenti di navigare attraverso documenti ipertestuali velocemente, sfruttando l’uso del mouse. Non solo insomma un mondo interfacciato ma di più il mondo stesso interfacciato.


L’uomo come interfaccia

Il design dell’interfaccia suggerisce l’accostamento fra due possibili situazioni: la prima, mettiamo, riguarda una operazione di taglio eseguita con un paio di forbici, la quale sarebbe impossibile se non intervenisse l’uomo ad eseguirla; la seconda riguarda i primi elaboratori, il cui utente finale (Final User), per acquisire i dati o risultati di suo interesse, aveva bisogno di un tecnico operatore che sapesse come far funzionare la macchina.
L’aspetto che accomuna e rende simili le due situazioni illustrate è il fatto che l’interfacciamento, nell’una e nell’altra, è garantito dall’essere umano.
Si parla dunque molto d’interfaccia utente, ma questo concetto merita di essere ricollegato al ruolo che spesso, in rapporto ai prodotti della tecnica, l’uomo ha svolto e svolge: il compito d’interfaccia. Alle volte senza saperlo; sovente nella figura del tecnico; ma anche nella qualità di utente o di operatore. Io m’interfaccio, anche nel senso che una parte di me è parte integrante dell’interfacciamento.
Il concetto che risulta dalla teoria del design è che l’interfaccia è ciò che fa funzionare una macchina o un dispositivo, ciò che rende effettivamente eseguibile una possibilità tecnica. Volendo applicare questo concetto al mondo dei computer, si può sostenere che l’utente, prima ancora di essere colui che deve essere interfacciato, è colui che per primo deve interfacciare.
Questa riflessione riceve conferma dall’altra, nella quale alla luce dell’idea o concetto d’interfaccia uomo e macchina possono essere interpretati come facenti capo ad un unico sistema che li ricomprende.
Il rapporto fra uomo e oggetto quindi, rispetto a quanto si è venuto dicendo sino ad ora, sembra rovesciarsi: un oggetto, una macchina, se non è interfacciato non funziona. Sotto questo profilo di necessità un paio di forbici è come un computer.
A questo punto i concetti possono essere meglio integrati lasciando emergere una regola singolare: che quanto più l’utente è interfacciato con la macchina tanto più la macchina è interfacciata dall’utente, e viceversa.
Che quanto più un sistema d’interfaccia utente (prendiamo ancora ad esempio il nostro Windows) è sofisticato, tanto più è sofisticato l’essere umano in quanto interfaccia. Che il destino per l’uomo nel suo rapporto con molti oggetti d’uso sembra essere lo stesso di quegli oggetti in rapporto all’uomo, ovvero: perfezionare la propria condizione d’interfaccia. Forse questa riflessione, al di là delle legittime perplessità, si può aggiungere ai temi della filosofia della Tecnica.
Ovvero un mondo che sia interfacciato anche volutamente, è necessariamente fatto di circolarità funzionale e d’integrazioni reciproche, con relativi giochi delle parti.


La rete come interfaccia uomo-uomo

La sostanza della strategia informatica - osservata almeno sotto il profilo personale - si è spostata dal target della home computing, e cioè dall’obiettivo di “portare un personal in ogni casa, su ogni tavolo di lavoro”, a quello dell’indurre tutti gli utenti di personal a lavorare in rete ed a comunicare.
Ovvero: la rete si sta imponendo culturalmente. La si può interpretare come una grande biblioteca o un grande “libro” - per modo di dire - più o meno vivente, come una messe di utilità, come un sistema universale di archivi, come grande declinazione della possibilità di vincere la territorialità; ma alla fine essa è il modo come nello spazio cibernetico l’uomo s’interfaccia con l’uomo. Anzi: se con il personal l’uomo in qualche modo s’interfaccia direttamente con sé stesso, con la rete egli s’interfaccia con l’altro uomo, l’altro da sé, il quale è anonimo, e riconoscibile solo in quanto l’uomo, definito nella migliore delle ipotesi mediante la sua immagine personale. Tutto questo non rinunciando alla consapevolezza che il problema resta un problema di macchine, dispositivi, cavi, canali materiali di comunicazione.
In questo modo la parola interfaccia, interfacciamento, viene a indicare la possibilità stessa della comunicazione. Integrando il profilo della macchina come unità di calcolo con quello della macchina come anello di comunicazione. Viene in mente a questo riguardo la raccomandazione fatta da Brenda Laurel nel suo Computer as a Theatre: di non interpretare il computer come uno strumento ma come un medium, e meglio: l’espandersi materializzandosi in qualche modo della idea di “mediazione”.

 

******************

[1] Rielaborazione di quanto già pubblicato in “Informatica & Documentazione”, n. 4/1997 (pp. 37 e ss.).

[2] J. BAUDRILLARD, Lo scambio simbolico e la morte, trad. it. a cura di G. Mancuso, Milano 1990, p. 85.

[3] SUSANI, Dialoghi con gli oggetti, in AA.VV., Il progetto delle interfacce, Milano 1992, p. 212.

[4] Ad esempio: BANDLER-GRINDER, La struttura della magia, cap. I, con rimandi a VAIHINGER, La filosofia del come se, secondo il quale i rapporti con la realtà della cosa in sé sono finzioni e immaginazione.

[5] ANCESCHI, Il dominio dell’interazione, in AA.VV., Il progetto delle interfacce, p. 13.

[6] SUSANI, p. 212.

[7] Le origini del cognitivismo possono ravvisarsi nella teoria degli “assembramenti cellulari” dello psicologo D.O. HEBB (1949), nella teoria filosofica degli anni cinquanta detta della “seconda liberalizzazione dell’empirismo” (filosofia di HEMPEL e CARNAP), nelle tesi di W. ESTES, di G. A. MILLER (sullo sganciamento della memoria umana dalla natura dei pattern da memorizzare) e nelle dimostrazioni di POLLACK e di SPERLING (rispettivamente per la informazione visiva - 1960 - e per quella acustica - 1959 -) nelle quali si mettevano in luce processi cosiddetti di ritenzione interna dell’informazione (ovvero esistono stimoli, esiste meglio elaborazione di stimoli, senza una risposta immediata) e dunque di memoria (cfr. PENNA-PESSA, Le interfacce uomo-macchina, Roma 1996). 

[8] M. P. PENNA-E. PESSA, Le interfacce uomo-macchina, Roma 1996, p. 33.

[9] BONSIEPE, Dall’oggetto all’interfaccia, p. 206. 

[10] BONSIEPE, rispettivamente alle pp. 20 e 21.

[11] Ovvero Basic Input/Output System: istruzioni inserite in una memoria EPROM (Erasable Programmable Read-Only Memory: memoria a sola lettura cancellabile programmabile) o EEPROM (Elettrically Erasable Programmable Read-Only Memory), che si conservano in assenza di alimentazione, ma riscrivibili, che costituiscono parte permanente del computer e che permettono allo hardware e al sistema operativo di comunicare con i programmi applicativi e i dispositivi periferici.
Queste ed altre indicazioni, soprattutto definitorie, sono state tratte dal Dizionario d’informatica per l’utente di P. DYSON.

[12] “WinHEC” è la più importante manifestazione dedicata al mercato dello hardware basato sui sistemi operativi Windows.

[13] Per informazioni si può consultare il sito http://digilander.libero.it/PISTONEPAOLO/testi/www.device-bay.org.

[14] “Adattatore” (Adapter) è una scheda elettronica inserita nel bus di espansione del computer per aumentarne le prestazioni. Si hanno così adattatori video, adattatori per le espansioni di memoria, adattatori di input/output che mettono a disposizione le porte seriali, parallele e a quella dei giochi, o altri dispositivi come i modem interni, i CD-ROM, e le schede di interfaccia alla rete. Un adattatore, inoltre, può spesso gestire diversi dispositivi (cfr. voce “Adattatore”, in DYSON, Dizionario).

[15] Ideato da Compaq e sviluppato con la collaborazione di Western Digital, IDE trae il suo nome dal fatto che i circuiti di controllo necessari sono posti sul disco stesso (cfr. DYSON, Dizionario, voce “IDE”).

[16] Standard sui Macintosh, disponibile sui computer IBM RS/6000, IBM PS/2 modello 65 e altre macchine di fascia alta, Scsi è installabile sui computer IBM compatibili, nonché su sistemi Unix.

[17] Più nel dettaglio: Scsi-1 (1986), la versione originale, definisce un’interfaccia parallela a 8 bit, con una velocità di trasferimento dati che giunge sino ai 4-5 MBps. Scsi-2 (1994, che può essere del tipo Narrow - o Fast -, e del tipo Wide) amplia il bus dei dati da 8 a 16 o 32 bit (Wide Scsi), potendo raddoppiare il trasferimento dati a 10 o 20 MBps (Fast Scsi). Scsi-3 (a.k.a: ovvero Ultra Scsi; Narrow e Wide, o Super Wide) ha aumentato il numero di periferiche connettibili (da 7 a 16) e la lunghezza dei cavi, consentendo il supporto di un’interfaccia seriale e di un’interfaccia a fibre ottiche. La velocità di trasferimento dei dati può superare i 100 MBps.
Una versione recente di questo standard è il cosiddetto Differential Scsi, il quale è in grado di eliminare buona parte delle interferenze elettriche esterne (cfr. DYSON, Dizionario, voce “Scsi”).

[18] Penso a testi pionieristici come La caffettiera del masochista, classici come Il progetto delle interfacce - dal quale prendiamo qui una serie di citazioni - e parimenti ai vari studi sulla programmazione nel mondo iconico o sul design industriale.

[19] MONTEFUSCO, Interazione, non interfacce, in AA.VV., Il progetto delle interfacce, pp. 129 e s.

[20] SUSANI, p. 212.

[21] SUSANI, pp. 213 e s.

[22] B. GATES, La strada che porta a domani, trad. it., Milano 1997, p. 15.

[23] MARZANO, Prefazione ad AA.VV., Il progetto delle interfacce, VII.

[24] Cfr. MARZANO, Prefazione, IX.

[25] La Human-Computer Interaction, secondo una definizione (J. D. FOLEY, marzo 1996), è quella disciplina sociotecnologica che mira a rendere accessibili ed utili alla gente le potenzialità dei computer e dei sistemi di comunicazione. Secondo tale autore, la HCI è un portato necessario della rivoluzione tecnologica, caratterizzata anche dall’abbassamento dei costi.

[26] POLILLO, Il design dell’interazione, p. 75.

[27] MARINI, La forma dell’interfaccia, in AA.VV., Il progetto delle interfacce, p. 138.

[28] Su questo tema si veda MONTEFUSCO, pp. 123 e ss.

[29] Cfr. MONTEFUSCO, p. 125.

[30] MONTEFUSCO, p. 127.

[31] MONTEFUSCO, pp. 127 e s.

[32] Nella testimonianza di P. BONNER, Usare Windows 3.1 al meglio.

[33] GATES, p. 80.

[34] PENNA-PESSA, Le interfacce, p. 90.

[35] Ideata per la psicologia da JULESZ nel 1971.

[36] PENNA-PESSA, Le interfacce, p. 14.

[37] PENNA-PESSA, La rappresentazione della conoscenza, Roma 1997, p. 32.

[38] Così KAY in “Le scienze”, numero spec. del novembre 1984 (: Il software).

[39] BAGNARA-BROADBENT, Comunicare con artefatti cognitivi, in AA.VV., Il progetto delle interfacce, p. 86. Concetti analoghi si trovano espressi in BONSIEPE, p. 52.

[40] BAGNARA-BROADBENT, p. 87.

[41] Th. MALDONADO, Reale e virtuale, Milano 1992, pp. 34 e s.

[42] MALDONADO, p. 35.

[43] MALDONADO, p. 45.

[44] LAKOFF e JOHNSON, 1984, in POLILLO, Il design dell’interazione, p. 68.

[45] POLILLO, p. 68.

[46] BONSIEPE, p. 54.

[47] MALDONADO, p. 131.

[48] ONG, Ramus: Method and the Decay of Dialogue.

[49] PENNA-PESSA, Le interfacce, p. 77.

[50] MONTEFUSCO, p. 125.

[51] BONNER, p. 29.

[52] Tali librerie sono dette “dinamiche” perché, a differenza di quelle di programmazione tradizionali, esse offrono i propri servizi a qualsiasi programma li richieda al momento dell’esecuzione.

[53] Menu “in cascata”, in un’interfaccia grafica, è un menu che porta all’apertura di uno o più menu secondari, solitamente indicati mediante un triangolino sulla destra.

[54] Menu “a tendina” è un menu verticale che si può aprire scegliendo una voce dalla barra dei menu posizionata nella zona superiore dello schermo o della finestra.

[55] Menu pop-up è un menu visualizzato vicino all’elemento al quale è associato (DYSON, Dizionario, voce “Menu pop-up”. Per le definizioni date nelle note che precedono si rimanda al Dizionario di DYSON, alle voci corrispondenti).

[56] CUSTER, Alla scoperta di Windows NT, p. 25.

[57] CUSTER, p. 24.

Letto 4742 volte Ultima modifica il 06 Luglio 2013

Lascia un commento

Assicurati di inserire (*) le informazioni necessarie ove indicato.
Codice HTML non è permesso.