Dusty Rooms: uno sguardo al MSX

L’obiettivo di questa rubrica è principalmente quello di far scoprire quelle parti di retrogaming curiose, interessanti e, possibilmente, non ancora prese in esame. Oggi, qui a Dusty Rooms, daremo uno sguardo ai computer MSX, un sistema ancora non comune e che forse non lo sarà mai, probabilmente per via della sua scheda madre, un prodotto da vendere su licenza a terze parti affinché la producessero con i loro mezzi. Certo, il Commodore 64, l’Amstrad, l’Apple II e i computer Atari sono stati sicuramente i più popolari negli anni ’80 ma se oggi lo scenario dei personal computer è come lo conosciamo, lo si deve principalmente a queste favolose macchine MSX che finirono per dettare degli standard in quanto a formati e reperibilità dei software. Per capire l’innovazione portata da questi computer, utili sia per il gaming che per la programmazione, bisogna dare uno sguardo allo scenario tecnologico di quegli anni.

Non fare il Salame! Compra un computer!

Negli anni ’80 i computer cominciarono a far parte della vita di milioni di persone e, sia in termini di costi che di dimensioni, erano decisamente alla portata di tutti; in Nord America si assistette a un’impennata per via del crollo del mercato dei videogiochi del 1983, in quanto i genitori erano più propensi a comprare un PC per i loro figli con la quale poter sia giocare che studiare, e in Europa, e molte altre parti del mondo, avevano preso piede ancor prima delle console rudimentali come Atari 2600, Philips Videopac (Magnavox Odyssey 2 in Nord America) o il Coleco Vision. Tuttavia, in negozio, scegliere un computer rispetto a un altro era un impresa tutt’altro che facile: ogni macchina era in grado di leggere videogiochi e eseguire programmi gestionali, creativi o educativi ma, ogni compagnia, proponeva il proprio sistema e linguaggio di programmazione e perciò, senza uno standard, la compatibilità fra le macchine era pressoché nulla; il tutto era aggravato inoltre dalle centinaia di pubblicità che proponevano sempre il loro computer come il più veloce e generalmente migliore rispetto alla concorrenza. Lo scenario era ben diverso da quello odierno in cui sono presenti principalmente due sistemi operativi dominanti e, indipendentemente dal modello fisico che si prende in esame, è molto più facile orientarsi in un mercato che dà meno alternative e in cui la compatibilità è sempre più ampia.

(Pensate, compravate un Commodore 64 per la vostra azienda ma poi, una volta a casa, accendevate la TV e c’era Massimo Lopez che vi proponeva il suo migliore computer SAG e voi entravate in paranoia!)

Negli anni ’70 un giovane Kazuhiko Nishi, studente dell’Università di Waseda, cominciava a interessarsi al mondo dei computer, software ed elettronica con il sogno di costruire una console con i propri giochi e poterla rivendere ma, dopo una visita alla fabbrica della General Instruments, capì che non poteva comprare dei chip in piccole quantità per poter sperimentare e perciò dovette rinunciare momentaneamente al suo sogno. Cominciò a scrivere per alcune riviste d’elettronica affinché potesse mettere a disposizione la sua conoscenza per la programmazione ma, se voleva trarne il massimo vantaggio da questa attività, doveva necessariamente fondare una sua compagnia e fare delle sue pubblicazioni. Dopo aver lasciato l’università, Nishi fondò la ASCII per poter pubblicare la sua nuova rivista I/O, che trattava di computer, ma nel 1979 la pubblicazione cambiò nome in ASCII magazine che si interessava più generalmente di ogni campo dell’elettronica, inclusi i videogiochi. Con il successo della rivista Kazuhiko Nishi poté tornare al suo progetto originale, ovvero creare una macchina tutta sua, ma per farlo aveva bisogno di un linguaggio di programmazione; egli contattò gli uffici Microsoft riuscendo a parlare, con la prima telefonata, con Bill Gates e più tardi, quello stesso anno, riuscirono a incontrarsi. Entrambi avevano la stessa passione per l’elettronica, più o meno lo stesso background sociale (entrambi avevano lasciato gli studi accademici) e dopo diversi meeting aderirono per fare del business assieme. ASCII diventò la rappresentante di Microsoft in Giappone e Kazuhiko Nishi divenne vicepresidente della divisione giapponese della compagnia americana. Grazie a questa collaborazione Nishi poté inserire il BASIC nel PC 8000 di Nec, la prima volta che veniva incluso all’interno di un computer, ma nel 1982, quando Harry Fox e Alex Weiss raggiunsero Microsoft per poter creare dei software per il loro nuovo computer chiamato Spectravideo, egli vide le basi per coniare il suo progetto iniziale e cominciare a produrre una linea di PC compatibili fra loro visto che la macchina era costruita intorno allo Zilog Z80, un processore che faceva da punto in comune fra diversi computer e persino console (essendo incluso nel Coleco Vision, console che, prima dell’avvento del NES, andava molto forte). Kazuhiko Nishi voleva che il suo computer fosse piccolo, come quelli che aveva prodotto alcuni anni prima per Kyocera, doveva contenere almeno uno slot per delle cartucce ROM, essere facilmente trasportabile ed espandibile e doveva contenere una versione di BASIC migliore dei computer IBM; così composto era la sua perfetta visione di computer in grado di poter garantire uno standard fra queste macchine. Poco dopo Nishi contattò tutte le più grandi compagnie giapponesi come Casio, Mitsubishi, Fujitsu, Kyocera, SonySamsung e Philips, rispettivamente, che decisero di investire in questo nuovo progetto; fu così che nacque lo standard MSX.

(Kazuhiko Nishi e Bill Gates)

Software per tutti!

Come abbiamo già detto, le macchine MSX nascono dall’unione di ASCII e Microsoft nel tentativo di fornire uno standard per i manufattori di PC. Era parere comune, ai tempi, che “MSX” stesse per “MicroSoft eXtended” ma Kazuhiko Nishi, più tardi, smentì queste voci dicendo che la sigla stava per “Machine with Software eXchangeability“. Con questo nuovo standard, tutti i computer che esponevano il marchio MSX erano dunque compatibili fra loro; perciò, cosa rendeva un’unità uguale a un’altra? Per prima cosa la CPU 8-bit Zilog Z80A, chip creato dall’italiano Federico Faggini e che ne costituisce il cervello della macchina, poi abbiamo la VDP (Video Display Processor) TMS9918 della Texas Instrument che offre una risoluzione di 256 x 192, 16 colori per sprite di 32 pixel, il chip sonoro AI36910 della Yamaha che offre tre canali e tre ottave di tonalità e infine la ROM di 32kb contenente il BASIC di Microsoft; il computer è comprensivo di tastiera ed è possibile attaccare mangianastri, strumento essenziale per i computer dell’epoca, lettore floppy, almeno una porta per i joypad e ha anche una porta d’espansione. Tipico di molti MSX era un secondo slot per le cartucce che, inserendone una seconda, permetteva miglioramenti, cheat e persino espansioni per un determinato software (dopo vi faremo un esempio). Per via delle diverse aziende che producevano i computer MSX è difficile arrivare a un numero preciso di computer venduti nel mondo ma, per darvi un idea, nel solo Giappone sono stati venduti ben cinque milioni di computer, praticamente la migliore macchina da gaming prima dell’arrivo del Famicom. Le macchine ebbero successo anche in altri paesi come Olanda, Spagna, Brasile, Corea del Sud, Arabia Saudita e persino in Italia e Unione Sovietica. Al fine di proporre una macchina sempre più potente, ci furono ben altre quattro generazioni di MSX: MSX2, rilasciato nel 1985, MSX2+, nel 1988, e MSX TurboR nel 1990. La differenza nelle prime tre stava nel nuovo processore Z80 che poteva permettere molti più colori su schermo e una velocità di calcolo maggiore, mentre l’ultimo modello presentava un processore 16-bit R800 ma purtroppo, essendo a quel punto rimasta solamente Panasonic a produrre gli MSX, non fu supportato a lungo. Come abbiamo accennato, i computer MSX erano le macchine dominanti per i videogiochi casalinghi in Giappone, anche se per poco tempo visto che il Famicom arrivò poco dopo, lo stesso anno; tuttavia, nonostante il dominio generale della console Nintendo, il sistema fu supportato fino all’ultimo e tante compagnie, come Hudson Soft e Compile, sfruttarono ogni capacità di questa curiosa macchina; l’eccezione va fatta per Konami che, nel 1983, fondò un team dedicato per produrre giochi su MSX, un anno prima di firmare per Nintendo. Finita la festa, nel 2001 Kazuhiko Nishi ha annunciato il revival del MSX rilasciando liberamente l’emulatore MSXPLAYer, dunque, eticamente, siamo liberi di goderci questi giochi sul nostro PC (anche perché il Project EGG, una piattaforma simil Steam per i giochi per computer giapponesi, qui non c’è); tuttavia, nulla vieta di recuperare l’hardware originale anche se dovete tener conto dell’alto prezzo dei giochi; un’ultima buona alternativa è recuperare la Konami Antiques MSX Collection per Sony PlayStation e Sega Saturn che vi permetterà di giocare a molti titoli (la versione per la prima è divisa in quattro dischi mentre la seconda include tutti i giochi). Diamo uno sguardo a 10 giochi essenziali di questa macchina (ci scusiamo in anticipo se la maggior parte dei giochi saranno Konami!).

10. King’s Valley 2

Un platformer che unisce elementi puzzle alla Lode Runner. Per procedere ai livelli successivi servirà collezionare tutte le pietre dell’anima sparse negli stage utilizzando i vari strumenti presenti, cui potremmo utilizzarne solo uno per volta. Man mano che si procede, gli scenari diventeranno sempre più grandi e difficili perciò non bisogna prendere questo gioco sottogamba. Una feature interessante, molto avanti per i suoi tempi, era l’editor dei livelli: una volta completati si potevano salvare in un floppy e scambiarli con gli amici.

9. Treasure of Usas

Un action platformer poco conosciuto ma comunque molto curioso che potrebbe interessare molto ai fan di Uncharted e Tomb Raider. Wit e Cles sono due cacciatori alla ricerca del tesoro di Usas e dovranno attraversare cinque città antiche per poterlo ritrovare. Il primo ha una pistola e migliori abilità nel salto mentre il secondo è un maestro di arti marziali e più agile. Le loro abilità sono migliorabili collezionando le monete negli stage e il gioco presenta la curiosa meccanica degli umori:  nello stage infatti, sono sparse le cosiddette carte dell’umore che, una volta raccolte, cambieranno i nostri attacchi. Una vera chicca se siete amanti di Castlevania o Mega Man.

8. Penguin Adventure

A Hideo Kojima game… ebbene si! Prima di Snake e i loschi tipi di Death Stranding (di cui non sappiamo ancora nulla) il noto programmatore ha prodotto questo gioco “puccioso” in cui dobbiamo far riunire Pentaro alla sua amata principessa. Nonostante il gioco abbia una struttura arcade apparentemente semplice, ovvero una sorta di platformer automatico simil 3D  (oggi potremmo definirlo un runner per smarphone), questo gioco ha molte meccaniche intriganti come un in-game store, warp zone, tanti easter egg e persino un finale alternativo. Mai giudicare un libro dalla sua copertina!

7. King Kong 2

Essendo liberamente ispirato al film King Kong Lives (o King Kong 2), controlleremo Hank Mitchell alla ricerca di Lady Kong. Raccomandiamo questo titolo ai fan del primo The Legend of Zelda in quanto molto simile e con tante caratteristiche interessanti che lo rendono davvero un bel gioco. Siate sicuri di trovare la rom patchata” poiché non è mai stato rilasciato in Europa.

6. Vampire Killer

Sembrerebbe un porting per MSX2 di Castlevania per NES ma così non è; sebbene il gioco abbia più o meno la stessa grafica, esso presenta un gameplay totalmente diverso. Questo titolo, anziché concentrarsi nelle sezioni di platforming, è più basato sull’esplorazione e il puzzle solving: per avanzare bisognerà trovare la skeleton key e per farlo ci serviranno armi, oggetti e chiavi per aprire forzieri contenti power up che si riveleranno utili allo scopo. Il gioco ha un pacing ben diverso dall’originale per NES ed è raccomandato ai giocatori più pazienti (anche perché le vite sono limitate e mancano i continue) ma anche ai più accaniti fan della saga.

5. Aleste

Unico gioco non Konami di questa lista, è uno shoot ‘em up sensazionale di Compile; uscito originariamente per Sega Master System, questa versione presenta due stage extra e una difficoltà più abbordabile. Di questo gioco stupiscono principalmente la grafica, la strabiliante colonna sonora resa con un chip FM montato sulla cartuccia e l’azione velocissima (tipica della serie) che da vita a battaglie in volo spettacolari. Provare per credere!

4. The Maze of Galious – Knightmare II

Concepito originariamente per competere con Zelda II: The Adventure of Link, The Maze of Galious è un difficilissimo metroidvania per i più allenati. In questo popolarissimo titolo per MSX, bisognerà esplorare un castello immenso alla ricerca delle dieci sub aree, dove risiedono demoni da sconfiggere, ma anche degli oggetti sparsi nel castello che espanderanno le abilità dei nostri Popolon e Aphrodite. The Maze of Galious è il secondo titolo della saga Knightmare, il cui primo titolo era un top down shooter alla Ikari Warriors e il terzo un RPG (per MSX2), ed è certamente il più bello. Nel 2002, questo titolo è stato soggetto di un curioso remake non ufficiale e il suo acclamato gameplay è stato ripreso nel similissmo La Mulana, considerato il suo sequel spirituale. Se siete fan dei metroidvania questo è certamente un titolo da giocare, anche per coloro che apprezzano le vere fide come Ghosts ‘n Ghouls, il già citato Zelda II o, chissà, magari anche Dark Souls! Vi raccomandiamo di giocarci con un walkthrough o almeno una mappa del castello; se siete dei masochisti fate pure senza!

3. Nemesis 2 e 3 + Salamander

Un pari abbastanza assurdo ma vi assicuriamo che non c’era modo per rendere giustizia a questi tre spettacolari titoli. I primi due sono dei sequel di Gradius mentre il Salamander proposto su MSX è completamente diverso dalla controparte per NES. Questi titoli della saga di Gradius su MSX presentano, insieme a delle colonne sonore squisite espresse con l’esclusivo chip SCC, un gameplay profondissimo attraverso power up espandibili, oggetti e sezioni bonus nascosti nei livelli e lo storytelling più dettagliato della saga. In Salamander, inoltre, per ottenere il finale migliore bisognerà inserire la cartuccia di Nemesis 2 nel secondo slot per completare il vero livello finale e mettere fine alla minaccia dei bacterion; altro che DLC e Amiibo! Nemesis 2 e Salamander sono i titoli più difficile mentre Nemesis 3: The Eve of Destruction è il più accessibile, perciò, se volete provarli, vi consigliamo di partire da lì. Tuttavia, dovrete abituarvi allo scrolling “scattoso” di questi titoli in quanto gli MSX, prima della seconda generazione, non erano in grado di offrire un’azione fluida e senza problemi;

2. Metal Gear e Metal Gear 2: Solid Snake

È più che risaputo che la saga di Metal Gear ha origini nel MSX2 e che quelli per NES non sono i veri punti iniziali della saga (per Snake’s Revenge, sequel non canonico del primo titolo, Hideo Kojima non era neppure stato chiamato per lo sviluppo del gioco). Entrambi i Metal Gear, soprattutto il secondo, sono dei giochi incredibili per essere dei giochi in 8-bit e, nonostante in molti ignorino questi due titoli, sono fondamentali per la fruizione dell’intera saga. Molte degli elementi visti in Metal Gear Solid come le chiavi sensibili alla temperatura, l’assalto all’interno dell’ascensore, l’abbattere l’Hind-D con i missili stinger e lo sgattaiolare nei condotti d’aria erano già stati introdotti in Metal Gear 2: Solid Snake; altri due titoli immancabili per MSX e giocabili persino in Metal Gear Solid 3: Subsistence. Non avete scuse per non giocarli!

1. Space Manbow

Questa rubrica si chiama Dusty Rooms e, pertanto, lo scopo è quello di farvi riscoprire titoli dimenticati e particolarmente interesanti; considerate quest’ultima entrata come un nostro personale regalo. Space Manbow è uno shoot ‘em up strabiliante pieno d’azione e retto da una grafica dettagliatissima per essere un gioco 8-bit, una colonna sonora spettacolare resa col chip SCC e un gameplay vario e mozzafiato, reso ancora più intrigante grazie allo scrolling fluido del MSX2 (cosa di cui i titoli di Gradius non poterono godere). Nonostante le lodi di critica e fan, Space Manbow rimane, a tutt’oggi, relegato a MSX e Konami, al di là di qualche cameo in qualche altro titolo, non ha mai preso in considerazione l’idea di un sequel (anche se ne esiste uno non ufficiale fatto dai fan uscito tanti anni dopo su MSX2), né allora né tanto meno adesso. Diamo a questo capolavoro l’attenzione che merita!

Honorable mentions

Che dire? Dieci posizioni sono veramente poche per una console che ha dato così tanto ma qui, vi vogliamo dare un altro paio di titoli da rivisitare su MSX:

  • Snatcher & SD Snatcher: altri due titoli di Hideo Kojima. Il primo è una visual novel mentre l’altro ricalca la stessa storia ma in veste RPG. Recuperate il secondo su MSX2 ma giocate Snatcher altrove in quanto la versione per MSX è incompleta e inconcludente.
  • Xevious: Fardraut Saga: da un semplice coin-op per arcade a uno SHMUP moderno con trama ed espansioni varie. Un titolo decisamente da recuperare!
  • Eggerland 2: il secondo gioco della saga di Lolo e Lala. Un puzzle game da capogiro per riscoprire le origini dello studio Hal.
  • Ys (I, II & III): una delle saghe RPG più strane e sottovalutate di sempre. Giocare questi titoli su MSX non è raccomandabile per via della barriera linguistica ma il loro aspetto su questo computer è decisamente sensazionale.
  • Quarth: un puzzle game Konami molto interessante che metterà alla prova il vostro ingegno. Un’altro bel gioco da recuperare

(Per finire, vi lasciamo con questa bella intervista con Bill Gates e Kazuhiko Nishi riguardo i computer MSX)

(E questa fantastica pubblicità italiana!)



Come scegliere un monitor da gaming o da lavoro

La scorsa volta abbiamo parlato di come funzionano i monitor e come sceglierli per l’uso standard. Questa settimana invece parleremo nello specifico di come scegliere i monitor in base all’utilizzo, gaming o lavoro.
Tratteremo molti aspetti presenti in un monitor da gaming. Decidere cosa è meglio, soprattutto quando il budget è basso non è facile, essendoci molte possibili scelte che possono destare confusione e un marketing ancora poco preciso per chi vuole comprare un monitor. Quindi qui presenteremo la nostra opinione su ciò che un appassionato di videogiochi dovrebbe prendere in considerazione, che non sono regole assolute ma, alcuni fattori possono dipendere dal livello di abilità dei giocatori.

Risoluzione

Quando si tratta di videogame, la maggior parte dei giocatori ritiene che più pixel ci siano più tutto risulterà migliore, ma questo è vero fino a un certo punto. Sì, è importante avere una densità di pixel sufficiente a rendere le immagini uniformi e realistiche, ma ovviamente più pixel si hanno, più potenza grafica servirà. Se si vuole la massima risoluzione disponibile sul desktop, esistono alcune limitazioni che bisogna accettare: il più grande di questi è la frequenza di aggiornamento dove le attuali interfacce video non supportano velocità superiori a 60Hz per i segnali UHD (4096×2160) e, anche se lo facessero, bisogna avere una scheda video potente per muovere realmente 8,2 milioni di pixel oltre i 60fps. Per esempio NVIDIA GTX Titan X riesce a malapena a gestire tutto ciò se si abbassano i livelli di dettaglio. L’attuale punto debole sembra essere la risoluzione QHD (2160×1440) in cui, nelle dimensioni fino a 32 pollici si avrà una buona densità e un’immagine dettagliata ma non troppo difficile da gestire per le schede video di fascia media. Naturalmente se si desidera la massima velocità, il FHD (1920×1080) fornirà i framerate più alti. Prima di fare un acquisto bisogna quindi valutare il proprio hardware.

Tecnologia del pannello

Come abbiamo detto i pannelli con tecnologia TN sono veloci e offrono una buona precisione e contrasto dei colori. Sono relativamente economici e i monitor FreeSync da 24 pollici con risoluzione FullHD sono in vendita anche a meno di 200 euro. Ma, visto le informazioni elaborate sulla qualità dell’immagine, e i desideri degli utenti per schermi da 27 pollici o più grandi, probabilmente si sarà più soddisfatti con l’immagine fornita da un display IPS o VA. Lo svantaggio è il loro costo più alto: i monitor da gioco IPS sono concentrati nella fascia più alta della scala mentre VA, con il suo contrasto leader di classe, è difficile da trovare a qualsiasi prezzo.

Adaptive Refresh

Il G-Sync, apparso per la prima volta quattro anni fa, è stata davvero una rivoluzione nell’elaborazione video. Dal momento che i giochi rendono il loro contenuto a un framerate costantemente variabile, è diventato necessario creare un monitor che potesse variare il suo ciclo di aggiornamento al passo con l’output della scheda video. G-Sync ha abilitato questa funzione per le schede basate su Nvidia pagando qualcosa in più rispetto ai normali monitor mentre, il concorrente AMD FreeSync ha un approccio diverso: semplicemente, aggiungendo nuove funzioni alle specifiche DisplayPort esistenti, un monitor può avere un aggiornamento adattativo senza sacrificare performance. Entrambe le tecnologie sincronizzano il framerate della scheda video con il monitor per evitare il fastidioso problema di bande sullo schermo; l’artefatto si verifica quando i frame non corrispondono: il computer invia un nuovo frame prima che il monitor abbia finito di disegnare il precedente e, assegnando il controllo della frequenza di aggiornamento alla scheda grafica, questo artefatto viene eliminato. Quando si sceglie tra i due, l’ovvia considerazione è su quale hardware si ha già investito: se si è possessori di una GTX 1080Ti, la scelta è chiara. Se si è indecisi su quale tecnologia adottare, tuttavia, ecco alcuni dettagli che potrebbero aiutare. Entrambi hanno un range operativo limitato: i monitor G-Sync funzionano sempre da 30Hz fino al massimo consentito dal monitor. I display di FreeSync non sono così coerenti e in genere supportano il refresh adattivo fino al massimo, ma è il limite inferiore che si deve prendere in considerazione. Questo può essere un problema se la scheda video non è in grado di mantenere i framerate sopra quel livello. Il Low Framerate Compensation (LFC), è una soluzione valida, ma funzionerà solo se il refresh massimo è almeno più del doppio rispetto al minimo. Per esempio, se il massimo è 100Hz, il minimo deve essere 40. Se l’intervallo è troppo piccolo, LFC non entra in gioco. Quindi se il proprio budget indica una scheda video da metà a bassa velocità, è preferibile scegliere il G-Sync con ovviamente una scheda Nvidia mentre, in caso di display FreeSync si sceglie AMD.

Refresh Rate

Quando sono usciti i primi display dedicati ai videogiochi, una caratteristica fondamentale era la loro capacità di funzionare a 144 Hz. Questa era una risposta alle prestazioni sempre più elevate offerte dalle schede video veloci. Ovviamente se si ha una scheda video che potrebbe far girare un gioco a 100 fps, è opportuno che anche il monitor sia abbastanza veloce. Un 60Hz semplicemente non basterà più. Oggi esistono schermi che girano a 144Hz, 200 HZ e addirittura 240 Hz. Quindi la domanda è una: è così importante la velocità di aggiornamento? La risposta ovviamente è si. Comprare un display con una frequenza alta, a lungo termine eviterà la necessità di cambiare  il monitor in poco tempo. Per coloro che spendono meno, tuttavia, 144 e persino 120 Hz sono molto veloci e consigliati. Nella maggior parte dei casi si ottiene un ritardo di input sufficientemente basso, un movimento fluido e un elevato carico di prestazioni per la maggior parte dei titoli in commercio.

Motion Blur Reduction e Overdrive

La riduzione della sfocatura e l’overdrive sono due caratteristiche che si trovano in molti schermi da gaming. In effetti l’overdrive è praticamente presente su tutti i monitor indipendentemente dal tipo e funziona, consentendo una certa quantità di overshoot durante le transizioni di luminosità. L’obiettivo di progettazione è che i singoli pixel anticipino la tensione richiesta per un particolare livello di luminosità. Se eseguito correttamente, il pixel raggiunge rapidamente quel livello, per poi cambiare nel fotogramma successivo prima che la tensione diventi troppo alta. Quando si verifica un overshoot, appare come un artefatto chiamato ghosting: Possiamo vederlo usando il test UFO di BlurBusters che si può trovare qui. È semplice da interpretare: bisogna guardare l’UFO mentre si cambiano  diverse opzioni OD. Quando è visibile una scia bianca dietro il “piattino”, si è andati troppo lontano. Nel contenuto reale, l’artefatto appare in transizioni ad alto contrasto come quelle tra oggetti scuri e chiari. Le implementazioni dell’overdrive differiscono notevolmente tra i monitor.

Come scegliere un monitor da lavoro

Gli utenti professionali hanno alcune esigenze speciali che devono essere considerate. Stiamo parlando di fotografi, tipografi, web designer, artisti di effetti speciali, game designer o chiunque abbia bisogno di un controllo preciso del colore lungo tutta la loro catena di produzione. Solo pochi monitor sono effettivamente certificati dai loro produttori ma se si vuole un display che sia preciso e pronto all’uso, è il modo migliore per garantire la qualità. Siamo d’accordo con i nostri lettori sul fatto che i monitor professionali dovrebbero essere pronti per il lavoro senza necessità di regolazioni, ma crediamo anche che un monitor professionale dovrebbe avere la flessibilità e la capacità di essere regolato in modo preciso. Ci sono due modi per farlo: l’OSD e il software. La maggior parte dei schermi ha un OSD, più o meno completo. Esistono OSD di grandi dimensioni dotati di cursori RGB per le scale di grigio, preimpostazioni del gamma e un sistema di gestione del colore. A volte i produttori si affidano a software che consentono all’utente di creare modalità personalizzate. Qualunque sia il metodo che si preferisce, è importante che un display professionale includa opzioni per diverse gamma di colori, temperature di colore e curve di gamma. Dovrebbero essere  presenti gli standard sRGB e Adobe RGB, le temperature di colore che vanno da 5000 a 7500K e le preimpostazioni di gamma da 1,8 a 2,4. I monitor utilizzati per la produzione televisiva o cinematografica dovrebbero anche supportare lo standard gamma BT.1886. Tutte le impostazioni dovrebbero essere identiche alle loro etichette e l’OSD dovrebbe avere regolazioni sufficienti per raggiungere la precisione.

Profondità di bit

Nella maggior parte dei casi, un pannello a 8 bit non sarà adatto per il lavoro di grafica professionale. Gli utenti solitamente richiedono almeno 10 bit, o preferibilmente 12. Questo è abbastanza comune tra i display professionali, ma è importante che gli utenti considerino l’intera catena del segnale quando superano gli 8 bit. In sostanza più bit si hanno più i colori risulteranno fedeli però, ovviamente, per usare un monitor del genere serve una scheda video che supporti oltre gli 8 bit; in caso contrario il monitor inserirà le informazioni aggiuntive, ma solo per interpolazione. Proprio come con il ridimensionamento dei pixel infatti, un display non può aggiungere informazioni che non sono presenti in primo luogo, può solo approssimarsi. La maggior parte delle schede video di fascia consumer sono limitate all’uscita a 8 bit in questo momento. Alcuni esempi premium possono inviare informazioni a 10 e 12 bit sul display, ma la soluzione migliore per un professionista è utilizzare qualcosa basato sui processori Nvidia Quadro o AMD FirePro.

Compensazione di uniformità

Alcuni display incorporano una compensazione di uniformità nel loro elenco di funzionalità. Questo ha lo scopo di eliminare le aree luminose o scure dallo schermo e bilanciare la luminosità in ogni zona. Alcuni produttori, NEC in particolare, hanno fatto di tutto per risolvere il problema, creando una tabella di ricerca per ogni singolo monitor che esce dalla catena di montaggio. Non si può semplicemente applicare le stesse correzioni a ogni pannello. L’unico modo per eliminare un hotspot in un campo nero è aumentare la luminosità delle altre zone a quel livello. Questo ha l’ovvio effetto di aumentare i livelli di nero e ridurre il contrasto: all’estremità luminosa della scala, i punti deboli vengono compensati abbassando l’uscita nelle zone rimanenti, riducendo anche il contrasto. La compensazione dell’uniformità non è molto utile perché i suoi benefici sono ampiamente superati dalla riduzione dell’output e del contrasto che ne risulta. Quindi, in sintesi, gli utenti che acquistano uno schermo di livello professionale dovrebbero cercare entrambe le opzioni di gamma di colori sRGB e Adobe RGB, una calibrazione certificata dalla fabbrica, un OSD completo con regolazioni precise e un pannello con profondità di colore nativa a 10 o 12 bit.

 

Conclusione

Ecco perché è così importante decidere l’uso che si farà con il proprio PC prima di comprare un monitor. Se sei un giocatore o stai mettendo insieme un sistema a livello professionale, il lavoro è praticamente finito. Tutti i principali mercati dei produttori si focalizzano principalmente per questi due scopi, gaming e lavoro e, grazie alle richieste degli utenti e alla copertura completa nei media, se una società afferma che il proprio monitor è appropriato per giocare o per lavorare, è davvero così. Sono finiti i giorni in cui un monitor poteva semplicemente essere stilizzato in un certo modo e chiamato da “gaming”. Deve essere supportato con funzionalità come l’aggiornamento adattivo e la risposta rapida del pannello. Il mercato così non sarà ingannevole per chi si avvicina per la prima volta in questo mondo. Lo stesso vale per gli ambienti professionali: dati i prezzi elevati che definiscono il genere, elementi come l’ampia gamma e la calibrazione di fabbrica sono obbligatorie se un produttore deve essere preso sul serio.




Come funzionano i monitor e quali scegliere

Sin dagli albori dei personal computer, il monitor è stata l’interfaccia principale tra la macchina e l’utente. Sebbene tastiera e mouse siano l’interfaccia fisica principale, lo schermo influisce direttamente sulla facilità con cui svolgere le proprie attività, sia che si tratti di lavoro o di gaming. I primi schermi utilizzavano un tubo a raggi catodici per visualizzare un’immagine e, fino all’avvento dei sistemi operativi grafici, questa si presentava come semplice testo. Grazie al set di caratteri ASCII esteso, le immagini di base potevano essere create sullo schermo ma elementi come pixel e profondità di colore erano ancora troppo lontane.

La tecnologia in uso non era molto diversa dalle televisioni di oggi: da uno a tre “cannoni” elettronici sparano particelle su una superficie rivestita in fosforo, all’interno della grande estremità del tubo. Il fosforo brillando, forma un’immagine composta da linee orizzontali e la porzione di ciascuna linea illuminata può essere lunga o corta, in base all’immagine. I primi esempi erano monocromatici, solitamente verdi, ma più tardi, quando l’hardware usato per la produzione scese di prezzo, furono inseriti tre cannoni, uno per ciascun colore principale (Rosso, Verde e Blu), impiegati per creare i primi monitor a colori. Alla fine della loro vita utile, i monitor CRT avevano raggiunto risoluzioni verticali di oltre 1000 linee e potevano mostrare una grafica completa, non più limitati al solo testo. Ma man mano che le dimensioni dello schermo aumentarono, aumentarono anche profondità e il peso, raggiungendo ben presto una massa critica. Ed è per questo che nacquero i monitor a cristalli liquidi (LCD).

Secondo gli standard odierni, i vecchi schermi LCD non sembrano molto più moderni dei CRT, ma hanno un attributo importante: sono molto meno profondi di qualsiasi monitor a valvole. Oggi i monitor per computer utilizzano principalmente le proporzioni 16: 9 (alcuni anche a 16:10), ma l’elemento principale che distingue un modello dall’altra è la risoluzione: l’immagine su un pannello LCD è composta da milioni di piccoli punti con ogni pixel costituito da tre sub-pixel, uno per ciascun colore primario, rosso, verde e blu. Ovviamente più pixel si possono racchiudere in ogni pollice quadrato, più l’immagine sarà realistica e perfetta. Ma bisogna considerare due fattori che possono rendere meno adatto un display ad alta densità di pixel per un particolare sistema: il primo è la performance della scheda grafica poiché, più pixel si hanno sullo schermo, più potenza di elaborazione serve dalla scheda video per spostarli in modo tempestivo. Ultra HD e 5K sono in grado di ottenere immagini straordinarie, ma se il sistema non è in grado di generare 14,7 milioni di pixel, l’esperienza complessiva ne risentirà e quella risoluzione aggiuntiva sarà un ostacolo. Il secondo fattore riguarda le funzionalità di ridimensionamento dei caratteri del sistema operativo che si intende utilizzare. Sono stati apportati miglioramenti, ma Windows è ancora utilizzato al meglio con una densità di pixel di 90-100ppi; a valori più alti, oggetti e testo diventano estremamente piccoli e potenzialmente impossibili da leggere. Il ridimensionamento varia in termini di qualità e non sempre è una soluzione infallibile quando il testo diventa troppo piccolo. Prima di approfondire le singole considerazioni dietro la selezione di un monitor, c’è una cosa che non possiamo sottolineare abbastanza. Prima di iniziare la ricerca del monitor perfetto, è fondamentale sapere in che ambito utilizzare il monitor: non c’è display che sia il migliore in tutti gli aspetti.
Nelle sezioni seguenti parleremo delle varianti di monitor in commercio e il loro funzionamento mentre, successivamente, arriveranno le guide su come scegliere un monitor da gaming o professionale. Diamo una rapida occhiata alle principali tecnologie dei pannelli e in che modo influiscono sulla qualità dell’immagine.

Tecnologie dei pannelli

Esistono tre principali tecnologie utilizzate in tutti i pannelli LCD prodotti oggi: In-Plane Switching (IPS), Twisted Nematic (TN) e Vertical Alignment (VA). Ognuno ha diverse varianti associate che offrono diversi vantaggi come angoli di visione migliori, risposta del pannello più veloce, minore consumo di energia e simili. Una rapida ricerca su Internet farà apparire dozzine di articoli sulla complessità di ciascuna tecnologia, quindi non approfondiremo troppo la questione; quello che preferiamo fare è parlare di come ciascun tipo influisce sulla qualità dell’immagine e su cosa ci si può aspettare se ne si sceglie uno in particolare.

Twisted Nematic (TN)

I primi pannelli LCD apparsi sono stati della varietà TN. Questo è un pannello nella sua forma più semplice: uno strato di cristalli liquidi è inserito tra due substrati; i cristalli sono attorcigliati per bloccare o emmettere la luce. Ogni sub-pixel è controllato da un singolo transistor la cui tensione determina la quantità di luce che attraversa. Il problema più grande con i pannelli TN è la loro scarsa qualità delle immagini fuori asse e poiché la luce proveniente da qualsiasi LCD è polarizzata, la luminosità massima si verifica solo quando è visualizzata al centro. Questo perché l’utente è seduto con gli occhi puntati dritti al centro dello schermo e quello schermo è perfettamente perpendicolare alla linea di vista. Inoltre, i cristalli sono disposti perpendicolarmente ai substrati che aumentano la distanza dalla retroilluminazione allo strato anteriore, accentuando il problema dell’angolo di visualizzazione. Il TN ha un grande svantaggio rispetto ad altri tipi di pannelli, ma ciò nonostante è molto veloce: con un solo transistor per sub-pixel e una profondità di colore di 6 o 8 bit, i moderni pannelli TN possono avere un tempo di risposta di un millisecondo (1ms) quando le frequenze di aggiornamento sono sufficientemente elevate. Questo li rende ideali per il gaming in cui la velocità è più importante di altre metriche di imaging. Velocità elevata non solo nella capacità del pannello di disegnare rapidamente una cornice, ma anche nell’area del ritardo di input. Il basso costo di elaborazione del TN di solito significa una risposta più rapida all’input dell’utente, un altro fattore importante per i giocatori. Quindi, cosa rende il TN diverso da altri tipi di pannelli? Si possono vedere chiaramente le differenze tra TN e IPS in una foto fuori asse di un modello di prova. Ma nell’uso reale, che si tratti di gaming o produttività, il TN non rappresenta un enorme calo della qualità dell’immagine. Un buon pannello IPS o TN ha un intervallo dinamico nativo di circa 1000: 1.

In-Plane Switching (IPS)

Dopo aver stabilito gli angoli di visione come la principale debolezza del TN, questo ci porta alla soluzione: IPS. Rappresenta una svolta significativa nell’area della qualità dell’immagine fuori asse. I principali obiettivi di progettazione IPS erano il minor consumo energetico, la capacità di creare schermi più grandi e una migliore riproduzione dei colori. Grazie a uno strato di TFT più vicino alla superficie esterna e un polarizzatore a griglia più sottile, l’immagine su un pannello IPS non si deteriora quando l’utente sposta la visuale sullo schermo e la percezione dell’uniformità da bordo a bordo è molto più grande. Aiuta anche che, i cristalli sono paralleli ai substrati piuttosto che perpendicolari come nel TN. Di conseguenza, il percorso è molto più breve tra la retroilluminazione e il livello anteriore dello schermo. Poiché la luce è polarizzata meno severamente, non cambia tanto quando l’osservatore si sposta fuori asse. Questo contribuisce a ridurre il consumo di energia dal momento che la retroilluminazione non ha bisogno di tanta potenza per raggiungere un determinato livello di luminosità. Ciò significa che la qualità complessiva dell’immagine è che lo schermo appare molto più uniforme, specialmente per taglie oltre i 27 pollici. Non è altrettanto importante posizionare il display esattamente sulla scrivania per vedere la migliore immagine possibile e, per quelli con configurazioni multischermo, le opzioni di posizionamento sono molto più flessibili.

Vertical Alignment (VA)

Tralasciando i problemi dell’angolo di visualizzazione, anche gli LCD soffrono di scarso contrasto. Le tecnologie auto-emettenti come CRT, plasma e OLED hanno un enorme vantaggio in questo senso. Tuttavia, con la tecnologia CRT, i livelli di nero sono regolati dal modo in cui le valvole possono bloccare la retroilluminazione, sempre attiva. Il VA cerca di migliorare questa debolezza: un pannello TN o IPS dalle buone prestazioni mostreranno un contrasto nativo di circa 1000: 1; Ciò significa che il livello di bianco massimo è 1000 volte maggiore del livello di nero più basso (A 200cd / m2 si vedrà un livello di nero di .2cd / m2). Quanto è nero esattamente? Beh, in una stanza scarsamente illuminata, sembrerebbe un grigio molto scuro ma non completamente nero. In confronto, una TV al plasma rendebbe il livello del nero di .007cd / m2 e un display OLED dei giorni nostri sarà ancora più basso. Quindi cosa cambia con il VA?  Riteniamo fortemente che il contrasto sia il fattore più importante per la qualità e la fedeltà delle immagini,  quindi più è, meglio è. 5000: 1 è migliore di 1000: 1. Sfortunatamente, il VA è in minoranza tra i monitor sul mercato con l’IPS leader del mercato in questo momento ma, molti monitor da gaming, utilizzano ancora i pannelli TN per il loro basso costo e alta velocità. Ma non importa quale sia l’uso, pensiamo che il VA abbia la migliore qualità d’immagine dei tre tipi principali. Ha uno svantaggio? Sì: ha un angolo di visione discreto che lo posiziona tra TN e IPS. Va abbastanza bene per supportare schermi di grandi dimensioni, ma non è in grado di competere con i migliori monitor IPS.
Quindi qual è il migliore? La risposta è tutte e tre. Se si vuole un monitor veloce con minima sfocatura di movimento, basso lag di input e un prezzo basso, è preferibile il TN. Se invece si desidera un’immagine uniforme con buoni angoli di visualizzazione e colori precisi, va bene l’IPS. Infine, se si vuole il massimo contrasto e profondità dell’immagine, per un vero aspetto 3D, il VA.

Come scegliere un monitor standard

Ci sono utenti che non desiderano comprare un monitor specializzato per il gaming o per il lavoro, per via di tecnologie o funzioni varie che non verranno utilizzate oppure perché cercano un monitor equilibrato e che funzioni bene per ogni tipo di elaborazione, intrattenimento o produttività. Per uso generale pensiamo che l’angolo di visione più ampio sia essenziale, ma con un avvertimento. È vero che IPS e la sua variante AHVA (Advanced Hyper-Viewing Angle) offrono la migliore immagine fuori asse, ma ci ritroviamo catturati (forse anche sedotti) dal profondo contrasto dei monitor VA. Abbiamo sempre posizionato il contrasto come prima misura della qualità dell’immagine con saturazione del colore, accuratezza e risoluzione, infatti, quando un display ha una vasta gamma dinamica, l’immagine risulta più realistica e più simile al 3D. I pannelli VA offrono da tre a cinque volte il contrasto degli schermi IPS o TN e questa differenza non è insignificante: se posizionassimo monitor VA e IPS uno accanto all’altro con livelli di luminosità e standard di calibrazione corrispondenti, la schermata VA vincerà facilmente un confronto tra due diversi tipi di dati. Quindi è chiaro che preferiamo VA come tecnologia adibita a un uso generale, ma per quanto riguarda i set di funzionalità? Il numero di funzionalità extra che vengono lanciati nei monitor di oggi è quasi vertiginoso e con ciascuna azienda che utilizza una terminologia diversa può diventare difficile confrontare i prodotti. Ecco alcune delle principali opzioni che bisogna cercare.

Flicker-Free

Quando i LED hanno iniziato a sostituire il tubo a raggi catodici come fonte primaria di retroilluminazione, si è verificato un fenomeno interessante: un numero limitato di utenti ha notato uno sfarfallio (Flicker-Free) a qualsiasi livello di retroilluminazione al di sotto del massimo. Questo artefatto è causato da qualcosa chiamata modulazione della larghezza dell’impulso che, in parole povere, avviene quando una retroilluminazione PWM viene ridotta in luminosità, ricorrendo a pulsazioni più volte al secondo per simulare una luminosità inferiore. Non può essere attenuato semplicemente abbassando la tensione come succede con una lampada a incandescenza. La larghezza dell’impulso è ciò che determina la luminosità effettiva, più breve è l’impulso, minore è l’uscita. I produttori combattono lo sfarfallio in diversi modi: uno è quello di aumentare il numero di cicli al secondo. Alcune retroilluminazioni PWM funzionano a velocità fino a 20 mHz; questo metodo riduce gli effetti dello sfarfallio per la maggior parte degli utenti. Un approccio ancora migliore è tuttavia la retroilluminazione a corrente costante: questo è un array di LED che può essere strozzato come una luce a incandescenza, semplicemente variando la tensione. Molti monitor venduti oggi sono privi di sfarfallio e utilizzano retroilluminazione a LED a corrente costante. Questi prodotti non sfarfalleranno a nessun livello di luminosità e anche quelli più sensibili all’artefatto non lo percepiranno. Ma anche se non si vedrà, può comunque causare affaticamento in caso di esposizione prolungata. Quando si trascorrono otto o più ore davanti a un computer senza sfarfallio, si può fare lavorare più semplicemente. Sempre più schermi utilizzano oggi la retroilluminazione a corrente costante e si consiglia di posizionare quella caratteristica in alto nell’elenco delle priorità.

Low-Blue Light

Questa è un’altra caratteristica che è apparsa relativamente di recente e che ora è di serie su molti display. Il termine è letterale: di solito assume la forma di uno slider o una serie di preset che riducono progressivamente la luminosità del blu nell’immagine. È possibile produrre lo stesso effetto abbassando il cursore del blu in una regolazione del bilanciamento del bianco dando come risultato un’immagine più calda e che può anche ridurre l’affaticamento quando si fissa il testo nero su uno schermo bianco tutto il giorno. La funzione può rendere meno faticosa la visualizzazione dell’immagine di un computer, ma anche una calibrazione accurata. Quando il punto di bianco di uno schermo è correttamente impostato su 6500K a tutti i livelli di luminosità, è altrettanto facile per gli occhi visualizzare le immagini senza stancarsi. Poiché la riduzione della luminosità del blu influisce su tutti gli altri colori, è possibile che appaiano degli aspetti non naturali a grafica e foto. È particolarmente distraente nei giochi e nei video e, in questi casi, è meglio impostare il monitor in modo che corrisponda al colore con cui è stato creato il contenuto. Quindi non dovremmo necessariamente gravitare verso un prodotto che offre una luce blu bassa.

Modalità dell’immagine

La maggior parte dei monitor per computer include più modalità di immagine che corrispondono a compiti comuni come lettura, foto, film, giochi e simili. Abbiamo misurato molti di questi durante le recensioni e sembra che, a meno che un preset non sia chiamato qualcosa come Standard o sRGB, non è completamente conforme a Rec.709, lo standard utilizzato nella maggior parte dei contenuti visti oggi. In molti casi, un monitor viene fornito di fabbrica con una modalità d’immagine più precisa possibile e richiede una regolazione minima o nulla per ottenere una gamma di colori sRGB, 6500K e 2,2 gamma. Mentre alcuni utenti potrebbero preferire l’aspetto di altre modalità immagine, questa è una considerazione individuale. Quello che gli acquirenti dovrebbero cercare è un monitor che offra almeno una modalità precisa. Gli altri preset non sono necessari e non aiutano a impostare uno schermo diverso dall’altro.

Conclusione

Abbiamo coperto molte informazioni e aspetti su come funzionano i monitor e su come sceglierne uno senza molte pretese, e speriamo che questa guida vi sarà utile nella ricerca del display ideale. Vi è un numero enorme di prodotti disponibili che utilizzano tecnologie e funzionalità diverse. Ma se si inizia la ricerca dando un’occhiata all’utilizzo che vi si farà, si restringeranno le scelte a un numero più gestibile. È importante ricordare che lo schermo perfetto non esiste e probabilmente non esisterà mai.