Duke: la storia di un pad che ha rivoluzionato il mercato console

Se siete videogiocatori conoscerete sicuramente il pad Xbox e le sue particolarità, ma non tutti sanno che prima di avere un prodotto super compatto ed ergonomico, come quello della One, ci sono voluti anni e anni di continui test e ricerche mirate che, in precedenza, hanno portato alla creazione di uno dei controller più criticati e discussi della storia delle console. Stiamo parlando del Duke, un pad quasi il triplo più grande del DualShock PlayStation e quindi molto più pesante e ingombrante.
Non tutti conoscono la storia della creazione di questo controller e della fatica di  Microsoft nel realizzarlo.

La principale ideatrice fu Denise Chaudhari, prima donna a entrare nel team Xbox ed esperta di design industriale ed ergonomia. Chaudhari però, non aveva mai avuto a che fare con controller ma questo, l’ha aiutata a entrare nel team, visto che la sua idea non era condizionata da scelte di design e funzionalità di terzi.
Chaudhari non cominciò la progettazione del controller da zero, ma è stata aiutata dal direttore creativo di Xbox Horace Luke, fornendole alcuni schizzi e dei prototipi dei circuiti di base. Questi circuiti, però, erano grandi, ingombranti e soprattutto erano stati stampati su un’unica pista che di certo non facilitava la creazione di un prodotto maneggevole e delle dimensioni ridotte, al contrario del Dualshock di PlayStation che prevedeva un circuito stampato su due piste differenti e poi sovrapposte per salvare spazio, creando di conseuenza un pad più piccolo.
La stessa Chaudhari cercò di replicare il progetto di Sony, ma trovò moltissima difficoltà nel lavorare con il produttore degli stessi circuiti Mitsumi, che ha rifiutato di lavorare con Microsoft, forse perché non giapponese ma americana. Questo episodio non scoraggiò il team Xbox che continuò a lavorare al progetto, creando le caratteristiche che ancora oggi ritroviamo nei moderni pad (stick analogici non paralleli, la disposizione dei tasti A, B, X e Y e molto altro).

Ma il problema non fu tanto il dover implementare delle sostanziali novità nel mondo dei pad per console, ma la dimensione: molti potranno sostenere che le dimensioni non contano, ma il popolo orientale la pensa diversamente. Infatti la divisione Microsoft Japan, al contrario del resto del mondo, disprezzava univocamente il controller; si pensa che abbiano anche consigliato ad alcuni sviluppatori giapponesi di non creare titoli per quella console se prima le dimensioni del controller non fossero state modificate, creando non pochi problemi alla casa di Redmond. Per questo, Chaudhari fu inviata, insieme a parte del suo team, nella terra del sol levante per riuscire a studiare e progettare le modifiche in base alle esigenze del mercato nipponico.
Al suo ritorno in America, però, non fu soddisfatta dei test effettuati, anche perché l’interprete giapponese era totalmente contrario al Duke, odiandolo con tutto il cuore e, secondo Chaudhari, aveva sicuramente omesso alcuni particolari per la realizzazione di un pad migliore; inoltre, la maggior parte delle lamentele erano rivolte alla grandezza del controller, cosa che ovviamente il team Xbox non si aspettava minimamente.
Ma anche se i risultati del test diedero esisto negativo: il 15 novembre 2001, in America, uscì l’Xbox e il pad contenuto nella confezione era proprio il Duke, senza alcuna sostanziale modifica nella forma. In Giappone, però, visti i risultati totalmente negativi, i progettisti industriali di Microsoft, crearono un Controller S, esclusivo per il mercato nipponico che uscì qualche mese dopo insieme alla console. Questo nuovo joypad era molto più piccolo rispetto al Duke originale (circa i due terzi) e apportava alcune modifiche, come la distanza e la disposizione di alcuni tasti o il loro colore.
Il lancio di questo nuovo controller ha avuto moltissimo successo rispetto al Duke, visto che la maggior parte degli utenti si lamentò della grandezza e della scomodità, e fu per questo motivo che ben presto il Duke, che si trovava all’interno delle confezioni delle console, furono rimpiazzati da questo nuovo modello.
Chaudhari è comunque orgogliosa del lavoro fatto, anche se nel giro di pochi mesi il suo controller, dopo moltissimi test e ricerche, è stato “cestinato” da Microsoft per fare spazio al Controller S. Questo perché ha lasciato un segno indelebile sullo stile e sull’ergonomia dei pad Xbox: basti pensare agli stick analogici che oggi come oggi sono un segno distintivo dei controller Xbox.




Phantom Gaming: le nuove GPU di AsRock

Come avevamo detto in una precedente news, AsRock, noto produttore di schede madri sarebbe entrato nel mercato GPU come partner per AMD. Dopo qualche settimana ASRock ha annunciato ufficialmente le sue prime schede grafiche. La famiglia Phantom Gaming includerà inizialmente quattro modelli di GPU basati sulle GPU Radeon serie 500, rivolgendosi al segmento mainstream con cui si potrà comprendere il potenziale che AsRock avrà sul mercato, anche se probabilmente sarà difficile porre una forte concorrenza. La famiglia Phantom Gaming ha a bordo le GPU Polaris 10 e Polaris 11 di AMD: la Phantom Gaming Radeon RX550 2G, la Phantom Gaming Radeon RX560 2G, la Phantom Gaming X Radeon RX570 8G OC e la Phantom Gaming X Radeon RX580 8G OC. Le schede verranno spedite con frequenze di clock e memoria predefinite, comparabili a quelle raccomandate da AMD, ma tutte supporteranno la modalità OC, attivabile utilizzando l’utility di overclock proprietaria ASRock. Tutte le schede grafiche Phantom Gaming si basano su PCB e sistemi di raffreddamento sviluppati direttamente dalla casa.
Le schede Radeon RX 570/580 di fascia più alta utilizzano dei dissipatori più efficenti con due ventole e un radiatore in alluminio con una base in rame e tre heat pipes. Gli adattatori entry-level Radeon RX 550/560 sono compatibili con i sistemi Mini-ITX e dispongono di radiatori in alluminio e una ventola. Il produttore ha confermato l’utilizzo di tecnologie e materiali premium per massimizzare la durata e l’efficienza dei suoi sistemi di dissipazione. Per aumentare la compatibilità, tutte le schede sono dotate di uscite DVI-D, DisplayPort e HDMI per connettersi a tutti i tipi di display.

Finora ASRock non ha rivelato alcun piano riguardo l’utilizzo delle GPU Vega, ma dal momento che sta entrando nel mercato delle schede video per la prima volta, la società è chiaramente un po’ cauta. Sul prezzo non sono state diffuse informazioni ma, considerando che i prezzi delle GPU tendono al rialzo, non ci si aspetta un allontanamento da questo trand.

ASRock Phantom Gaming X RX 580 8G OC

ASRock Phantom Gaming X RX 570 8G OC

ASRock Phantom Gaming RX560 2G

ASRock Phantom Gaming RX550 2G

 




Spec Ops: The Line gratis ancora per qualche ora

Dopo The Darkness II, Humble Bundle non ha smesso di regalare giochi. In questi giorni è il turno di Spec Ops: The Line, uno sparatutto in terza persona con recensioni molto positive su Steam uscito sei anni fa. Il gioco è stato sviluppato da 2K Games, già padri della saga di BioShock. Il titolo sarà disponibile soltanto per qualche ora, quindi affrettatevi!




Il real time strategy in VR alla portata di tutti

La realtà virtuale si è ritagliata il suo piccolo spazio di nicchia nel mondo videoludico, tutto questo nonostante i prezzi non ancora accessibili a tutti e le esose richieste hardware. Ma, a dispetto di queste barriere iniziali, il settore riceve costanti investimenti di denaro da parte delle aziende, come Facebook con Oculus.
Nella scena VR, gli sviluppatori cercano di programmare giochi in grado di attirare i cosiddetti giocatori “hardcore”, così da convincerli a provare l’esperienza virtuale: è il caso di Brass Tactics, strategico in tempo reale disponibile per Oculus Rift e ideato dal creatore di uno degli RTS più celebri della storia, ovvero Age of Empires II.
Gli RTS sono forse il genere più complicato da portare in VR, visto l’intricato sistema di gestione delle unità e della mappa, ma Jeff Pobst, CEO di Hidden Path Entertainment, studio di sviluppo a lavoro sul gioco, commenta così:

«Gli strategici in tempo reale hanno un’interfaccia complicata così come tante caratteristiche e menu di gioco. Abbiamo passato sei mesi a sperimentare sul layout della mappa e sull’interfaccia. Essendo un gioco in realtà virtuale, abbiamo scelto di non affidarci a due degli stilemi classici degli RTS, come i menu e l’UI su schermo e, avendo una visibilità limitata dal visore, abbiamo deciso di dare tutte le informazioni delle proprie unità direttamente sulla mappa. Come se si stesse giocando a un gioco da tavolo, ma con la complessità e la varietà di uno strategico in tempo reale.»

Il gioco è stato costruito attorno ai controller Oculus Touch, che offrono non solo le classiche levette analogiche e tasti a cui i giocatori sono abituati da sempre, ma anche i motion control che tendono a essere più intuitivi per i neofiti. L’interfaccia 3D è basata su una versione simile dell’Unreal Editor usata da Epic Games, che si riflette sul risultato di molti mesi di lavoro sulla creazione, lo sviluppo e, soprattutto, la direzione delle proprie unità militari.
Pobst ne parla a proposito:

«Abbiamo provato diversi modi per dirigere le unità, come puntatori laser e via dicendo, ma alla fine abbiamo deciso di implementare delle frecce direzionali, così da far vedere al giocatore la direzione delle proprie unità o l’azione, come un attacco alle unità nemiche. Abbiamo anche aggiunto dei modificatori alle levette analogiche, che permettono di dare degli ordini di attesa o di ritiro ai propri soldati. E abbiamo costruito un sistema chiamato SmartMove, dove viene analizzata l’area intorno alle proprie unità e quella dove ci si dirige, così il gioco cerca di compiere la scelta più intelligente per il giocatore: per esempio, se si è deciso di andare in ritirata, il gioco cercherà di non ingaggiare le unità nemiche.»

La navigazione nella mappa si effettua “afferrando” e “facendo scivolare” il tavolo di gioco. È un sistema di controllo atipico per quanto riguarda il genere, dove solitamente si usa il mouse e qualche hotkey della tastiera. Ma Pobst assicura che il sistema di controllo è stato pensato per essere comodo nelle mani del giocatore, oltre che intuitivo. Infatti, dichiara:

«Nonostante i controlli e la meccanica dietro di essi possono risultare complicati a una prima occhiata, dopo qualche minuto di gioco si può notare che i movimenti compiuti sono in realtà dei normali movimenti giornalieri. È una meccanica semplice e che non stanca il giocatore, quest’ultimo è un elemento per noi fondamentale: abbiamo ricevuto dei commenti entusiasti da parte di giocatori che volevano affrontare lunghe sessioni di gioco!»

A proposito delle lunghe partite, una delle discrepanze tra il VR e il gaming tradizionale è proprio legato alla durata: la realtà virtuale è basata su sessioni di gioco corte, che cozzano con le partite di durata superiore all’ora dei tradizionali RTS, e Pobst discute di essi come di un elemento molto importante nell’ottica di Brass Tactics:

«Abbiamo voluto prendere tutti quegli elementi tradizionali degli strategici e ridurre la durata delle partite ad almeno mezz’ora: per fare un esempio, abbiamo semplificato l’economia di gioco, come si vede poco dopo la conquista di una regione, le unità civili cominceranno a costruire strutture e sfruttare le miniere. Vogliamo concentrarci di più sulla tattica e sull’esperienza di gioco, rispetto alla produzione e allo sfruttamento delle risorse della mappa. Abbiamo rimosso anche la fog of war, quindi si vedrà tutta la mappa già a inizio partita.»

Brass Tactics è uscito lo scorso ottobre sullo store di Oculus, insieme a Brass Tactics Arena, una versione free to play del titolo completa di tutorial, campagna in single-player, multiplayer online e co-op, e, inclusa nel titolo vi è anche la possibilità di giocare contro i possessori del gioco completo.




PUBG: costruire hype a costo zero

Per molte persone, il successo di PlayerUnknown’s Battlegrounds è arrivato dal nulla. Ma come spiega Sammie Kang, community manager di PUBG, il risultato che possiamo apprezzare oggi, deriva da un progetto ben preciso e pianificato. Nel 2016, PUBG Corporation era ancora conosciuta come Bluehole, con un team di 25 persone che hanno lavorato insieme per circa 10 anni su Devilian, mmorpg fantasy. Queste le parole di Kang:

«Dovevamo avere un successo minimo, per promuovere il nostro videogioco a costo 0 su Twitch e sapevamo che questa, poteva essere la nostra prima strategia di marketing fin dall’inizio.»

La Bluehole non aveva la possibilità economica di pagare gli streamer di high-tier allo scopo di sponsorizzare il videogioco, dunque si rivolsero agli streamers mid-tier; quest’ultimi avevano l’unico interesse di portare qualcosa di nuovo sul loro canale creando qualcosa di unico. Purtroppo molti di questi streamer non disponevano di hardware e connessioni adatte per un contenuto esclusivo tripla A. Gli sviluppatori allora decisero che quella era un’occasione per offrire hardware e contenuti esclusivi agli streamer che ne necessitavano e in cambio, quest’ultimi avrebbero fatto del loro meglio per promuovere e sponsorizzare il gioco sul loro canale.

Dopo quattro mesi di sviluppo, il gioco era pronto per una closed pre-alpha, che ospitò 1100 tester e proseguì per 6 ore distribuite nel corso dei giorni a seguire.

Per capire meglio cosa desiderassero streamer e spettatori, Kang ha seguito su Twitch uno svariato numero di streamer e con alcuni di loro contribuito a creare uno speciale feeling tra sviluppatore e streamer. Kang, interessato molto dunque al parere delle persone allo scopo di migliorare il suo videogioco, si mette a disposizione di tutti, insieme al suo team, per rispondere a tutte le richieste ricevute, a tutte le ore del giorno.

Kang continua

«I content creators e gli streamer non sono strumenti di Marketing, molte case di produzione li pagano per giocare un videogioco, ma non saranno in grado in questo modo di creare una relazione di amicizia duratura. Gli streamer devono essere coinvolti emotivamente e per fare questo, abbiamo creato una situazione vantaggiosa per entrambi i lati.»



THE DARKNESS II gratis su Humble Bundle

Humble Bundle continua a mettere a disposizione gratuitamente titoli molto importanti per un tempo limitato. Oggi tocca a The Darkness II, lo sparatutto in prima persona dello studio Digital Extremes che narra la sovrannaturale storia di Jackie Estacado. Il gioco sarà disponibile come sempre per 48 ore. 




Come scegliere un monitor da gaming o da lavoro

La scorsa volta abbiamo parlato di come funzionano i monitor e come sceglierli per l’uso standard. Questa settimana invece parleremo nello specifico di come scegliere i monitor in base all’utilizzo, gaming o lavoro.
Tratteremo molti aspetti presenti in un monitor da gaming. Decidere cosa è meglio, soprattutto quando il budget è basso non è facile, essendoci molte possibili scelte che possono destare confusione e un marketing ancora poco preciso per chi vuole comprare un monitor. Quindi qui presenteremo la nostra opinione su ciò che un appassionato di videogiochi dovrebbe prendere in considerazione, che non sono regole assolute ma, alcuni fattori possono dipendere dal livello di abilità dei giocatori.

Risoluzione

Quando si tratta di videogame, la maggior parte dei giocatori ritiene che più pixel ci siano più tutto risulterà migliore, ma questo è vero fino a un certo punto. Sì, è importante avere una densità di pixel sufficiente a rendere le immagini uniformi e realistiche, ma ovviamente più pixel si hanno, più potenza grafica servirà. Se si vuole la massima risoluzione disponibile sul desktop, esistono alcune limitazioni che bisogna accettare: il più grande di questi è la frequenza di aggiornamento dove le attuali interfacce video non supportano velocità superiori a 60Hz per i segnali UHD (4096×2160) e, anche se lo facessero, bisogna avere una scheda video potente per muovere realmente 8,2 milioni di pixel oltre i 60fps. Per esempio NVIDIA GTX Titan X riesce a malapena a gestire tutto ciò se si abbassano i livelli di dettaglio. L’attuale punto debole sembra essere la risoluzione QHD (2160×1440) in cui, nelle dimensioni fino a 32 pollici si avrà una buona densità e un’immagine dettagliata ma non troppo difficile da gestire per le schede video di fascia media. Naturalmente se si desidera la massima velocità, il FHD (1920×1080) fornirà i framerate più alti. Prima di fare un acquisto bisogna quindi valutare il proprio hardware.

Tecnologia del pannello

Come abbiamo detto i pannelli con tecnologia TN sono veloci e offrono una buona precisione e contrasto dei colori. Sono relativamente economici e i monitor FreeSync da 24 pollici con risoluzione FullHD sono in vendita anche a meno di 200 euro. Ma, visto le informazioni elaborate sulla qualità dell’immagine, e i desideri degli utenti per schermi da 27 pollici o più grandi, probabilmente si sarà più soddisfatti con l’immagine fornita da un display IPS o VA. Lo svantaggio è il loro costo più alto: i monitor da gioco IPS sono concentrati nella fascia più alta della scala mentre VA, con il suo contrasto leader di classe, è difficile da trovare a qualsiasi prezzo.

Adaptive Refresh

Il G-Sync, apparso per la prima volta quattro anni fa, è stata davvero una rivoluzione nell’elaborazione video. Dal momento che i giochi rendono il loro contenuto a un framerate costantemente variabile, è diventato necessario creare un monitor che potesse variare il suo ciclo di aggiornamento al passo con l’output della scheda video. G-Sync ha abilitato questa funzione per le schede basate su Nvidia pagando qualcosa in più rispetto ai normali monitor mentre, il concorrente AMD FreeSync ha un approccio diverso: semplicemente, aggiungendo nuove funzioni alle specifiche DisplayPort esistenti, un monitor può avere un aggiornamento adattativo senza sacrificare performance. Entrambe le tecnologie sincronizzano il framerate della scheda video con il monitor per evitare il fastidioso problema di bande sullo schermo; l’artefatto si verifica quando i frame non corrispondono: il computer invia un nuovo frame prima che il monitor abbia finito di disegnare il precedente e, assegnando il controllo della frequenza di aggiornamento alla scheda grafica, questo artefatto viene eliminato. Quando si sceglie tra i due, l’ovvia considerazione è su quale hardware si ha già investito: se si è possessori di una GTX 1080Ti, la scelta è chiara. Se si è indecisi su quale tecnologia adottare, tuttavia, ecco alcuni dettagli che potrebbero aiutare. Entrambi hanno un range operativo limitato: i monitor G-Sync funzionano sempre da 30Hz fino al massimo consentito dal monitor. I display di FreeSync non sono così coerenti e in genere supportano il refresh adattivo fino al massimo, ma è il limite inferiore che si deve prendere in considerazione. Questo può essere un problema se la scheda video non è in grado di mantenere i framerate sopra quel livello. Il Low Framerate Compensation (LFC), è una soluzione valida, ma funzionerà solo se il refresh massimo è almeno più del doppio rispetto al minimo. Per esempio, se il massimo è 100Hz, il minimo deve essere 40. Se l’intervallo è troppo piccolo, LFC non entra in gioco. Quindi se il proprio budget indica una scheda video da metà a bassa velocità, è preferibile scegliere il G-Sync con ovviamente una scheda Nvidia mentre, in caso di display FreeSync si sceglie AMD.

Refresh Rate

Quando sono usciti i primi display dedicati ai videogiochi, una caratteristica fondamentale era la loro capacità di funzionare a 144 Hz. Questa era una risposta alle prestazioni sempre più elevate offerte dalle schede video veloci. Ovviamente se si ha una scheda video che potrebbe far girare un gioco a 100 fps, è opportuno che anche il monitor sia abbastanza veloce. Un 60Hz semplicemente non basterà più. Oggi esistono schermi che girano a 144Hz, 200 HZ e addirittura 240 Hz. Quindi la domanda è una: è così importante la velocità di aggiornamento? La risposta ovviamente è si. Comprare un display con una frequenza alta, a lungo termine eviterà la necessità di cambiare  il monitor in poco tempo. Per coloro che spendono meno, tuttavia, 144 e persino 120 Hz sono molto veloci e consigliati. Nella maggior parte dei casi si ottiene un ritardo di input sufficientemente basso, un movimento fluido e un elevato carico di prestazioni per la maggior parte dei titoli in commercio.

Motion Blur Reduction e Overdrive

La riduzione della sfocatura e l’overdrive sono due caratteristiche che si trovano in molti schermi da gaming. In effetti l’overdrive è praticamente presente su tutti i monitor indipendentemente dal tipo e funziona, consentendo una certa quantità di overshoot durante le transizioni di luminosità. L’obiettivo di progettazione è che i singoli pixel anticipino la tensione richiesta per un particolare livello di luminosità. Se eseguito correttamente, il pixel raggiunge rapidamente quel livello, per poi cambiare nel fotogramma successivo prima che la tensione diventi troppo alta. Quando si verifica un overshoot, appare come un artefatto chiamato ghosting: Possiamo vederlo usando il test UFO di BlurBusters che si può trovare qui. È semplice da interpretare: bisogna guardare l’UFO mentre si cambiano  diverse opzioni OD. Quando è visibile una scia bianca dietro il “piattino”, si è andati troppo lontano. Nel contenuto reale, l’artefatto appare in transizioni ad alto contrasto come quelle tra oggetti scuri e chiari. Le implementazioni dell’overdrive differiscono notevolmente tra i monitor.

Come scegliere un monitor da lavoro

Gli utenti professionali hanno alcune esigenze speciali che devono essere considerate. Stiamo parlando di fotografi, tipografi, web designer, artisti di effetti speciali, game designer o chiunque abbia bisogno di un controllo preciso del colore lungo tutta la loro catena di produzione. Solo pochi monitor sono effettivamente certificati dai loro produttori ma se si vuole un display che sia preciso e pronto all’uso, è il modo migliore per garantire la qualità. Siamo d’accordo con i nostri lettori sul fatto che i monitor professionali dovrebbero essere pronti per il lavoro senza necessità di regolazioni, ma crediamo anche che un monitor professionale dovrebbe avere la flessibilità e la capacità di essere regolato in modo preciso. Ci sono due modi per farlo: l’OSD e il software. La maggior parte dei schermi ha un OSD, più o meno completo. Esistono OSD di grandi dimensioni dotati di cursori RGB per le scale di grigio, preimpostazioni del gamma e un sistema di gestione del colore. A volte i produttori si affidano a software che consentono all’utente di creare modalità personalizzate. Qualunque sia il metodo che si preferisce, è importante che un display professionale includa opzioni per diverse gamma di colori, temperature di colore e curve di gamma. Dovrebbero essere  presenti gli standard sRGB e Adobe RGB, le temperature di colore che vanno da 5000 a 7500K e le preimpostazioni di gamma da 1,8 a 2,4. I monitor utilizzati per la produzione televisiva o cinematografica dovrebbero anche supportare lo standard gamma BT.1886. Tutte le impostazioni dovrebbero essere identiche alle loro etichette e l’OSD dovrebbe avere regolazioni sufficienti per raggiungere la precisione.

Profondità di bit

Nella maggior parte dei casi, un pannello a 8 bit non sarà adatto per il lavoro di grafica professionale. Gli utenti solitamente richiedono almeno 10 bit, o preferibilmente 12. Questo è abbastanza comune tra i display professionali, ma è importante che gli utenti considerino l’intera catena del segnale quando superano gli 8 bit. In sostanza più bit si hanno più i colori risulteranno fedeli però, ovviamente, per usare un monitor del genere serve una scheda video che supporti oltre gli 8 bit; in caso contrario il monitor inserirà le informazioni aggiuntive, ma solo per interpolazione. Proprio come con il ridimensionamento dei pixel infatti, un display non può aggiungere informazioni che non sono presenti in primo luogo, può solo approssimarsi. La maggior parte delle schede video di fascia consumer sono limitate all’uscita a 8 bit in questo momento. Alcuni esempi premium possono inviare informazioni a 10 e 12 bit sul display, ma la soluzione migliore per un professionista è utilizzare qualcosa basato sui processori Nvidia Quadro o AMD FirePro.

Compensazione di uniformità

Alcuni display incorporano una compensazione di uniformità nel loro elenco di funzionalità. Questo ha lo scopo di eliminare le aree luminose o scure dallo schermo e bilanciare la luminosità in ogni zona. Alcuni produttori, NEC in particolare, hanno fatto di tutto per risolvere il problema, creando una tabella di ricerca per ogni singolo monitor che esce dalla catena di montaggio. Non si può semplicemente applicare le stesse correzioni a ogni pannello. L’unico modo per eliminare un hotspot in un campo nero è aumentare la luminosità delle altre zone a quel livello. Questo ha l’ovvio effetto di aumentare i livelli di nero e ridurre il contrasto: all’estremità luminosa della scala, i punti deboli vengono compensati abbassando l’uscita nelle zone rimanenti, riducendo anche il contrasto. La compensazione dell’uniformità non è molto utile perché i suoi benefici sono ampiamente superati dalla riduzione dell’output e del contrasto che ne risulta. Quindi, in sintesi, gli utenti che acquistano uno schermo di livello professionale dovrebbero cercare entrambe le opzioni di gamma di colori sRGB e Adobe RGB, una calibrazione certificata dalla fabbrica, un OSD completo con regolazioni precise e un pannello con profondità di colore nativa a 10 o 12 bit.

 

Conclusione

Ecco perché è così importante decidere l’uso che si farà con il proprio PC prima di comprare un monitor. Se sei un giocatore o stai mettendo insieme un sistema a livello professionale, il lavoro è praticamente finito. Tutti i principali mercati dei produttori si focalizzano principalmente per questi due scopi, gaming e lavoro e, grazie alle richieste degli utenti e alla copertura completa nei media, se una società afferma che il proprio monitor è appropriato per giocare o per lavorare, è davvero così. Sono finiti i giorni in cui un monitor poteva semplicemente essere stilizzato in un certo modo e chiamato da “gaming”. Deve essere supportato con funzionalità come l’aggiornamento adattivo e la risposta rapida del pannello. Il mercato così non sarà ingannevole per chi si avvicina per la prima volta in questo mondo. Lo stesso vale per gli ambienti professionali: dati i prezzi elevati che definiscono il genere, elementi come l’ampia gamma e la calibrazione di fabbrica sono obbligatorie se un produttore deve essere preso sul serio.




The Secret of Middle City

Molti dei giochi indie a cui giochiamo sono spesso meri rimandi al passato,  giochi pixellosi a cui fa sempre un certo piacere giocare; tuttavia, ogni giocatore ha quasi sempre un “guilty pleasure”, un titolo non propriamente bello con la quale ha una certa affinità cui però, trovandosi in contesti pubblici, ne parla anche male. Dunque ci si accorge che il gioco è fondamentalmente carente, lo si prende a parolacce di fronte agli amici gamer ma appena si torna a casa la prima cosa che si fa è accendere il computer e giocare con quel gioco maledetto… ecco, The Secret of Middle City è potenzialmente uno di quei titoli!
Sviluppato dallo studio indie italiano GDG Entertainment, è un gioco punta e clicca dalle tonalità “singolari”: sebbene il budget per la realizzazione sia chiaramente ben ristretto, come spesso accade per questo tipo di giochi, qui si respira un’aria ancora più low cost, un’avventura grafica che si presenta alquanto “scrausa” e, da titolo per PC anni ’90, persino “rotta”. The Secret of Middle City, se non altro, è stato concepito col motore Hollywood, il che significa che, oltre a funzionare su PC e Mac, è stato concepito e gira su Amiga OS 4, sistema operativo ancora reperibile e tuttoggi supportato! L’operazione nostalgica riesce in tutto e per tutto, anche se, sfortunatamente, l’opera attinge troppo e solo al passato, portando con sé sia i pregi che i difetti dei giochi per computer dell’epoca; potremmo dire benissimo di amare e odiare questo gioco allo stesso tempo: lasciateci spiegare.

Un tipetto… singolare

Middle City, 22 Aprile: viene segnalata la scomparsa di Linda Patton, brillante ragazza di questa piccola comunità di montagna. Viene trovato un braccio mozzato vicino a un fiume, insieme a un braccialetto con il suo nome impresso, e perciò si teme il peggio. Si decide dunque di coinvolgere il governo e così viene inviato il miglior agente federale del FBI; purtroppo Dale Cooper è impegnato a Twin Peaks con Laura Palmer e così, in sostituzione, dobbiamo accontentarci dell’agente Cox, un agente provolone, tonto e cascamorto. Durante il filmato iniziale, verremo a conoscenza di un misterioso “grande albero”, un luogo che sembra custodire un grosso segreto; cominceremo così a girare per Middle City in cerca di indizi, tentando di ricostruire quello che è successo a Linda Patton la sera della scomparsa; tutto sembra avvolto nel mistero e, a quanto pare, in molti dicono di guardarci le spalle e che la città nasconde un segreto collettivo. Come in ogni buon punta e clicca dovremo ovviamente andare in cerca di indizi interrogando le persone del luogo, triggerando i dialoghi testuali, che risultano abbastanza esilaranti, mantenendo una linea comica ispirata alle più classiche avventure grafiche della LucasArts ma con sfumature tipicamente italiane. È possibile inoltre, passando il mouse sugli oggetti di un luogo, analizzare gli oggetti che non possiamo prendere; talvolta da questi indizi è possibile capire come procedere nella nostra avventura… o semplicemente scoprire il pensiero dell’agente Cox! Per come è strutturato il gameplay, non c’è in realtà alcuna ragione di spostarsi all’interno dell’ambiente al di fuori dei dialoghi: è possibile analizzare la stanza e raccogliere determinati oggetti solamente col mouse e dunque, se negli ambienti non ci sarà nessuno da interrogare, il nostro agente starà sempre fermo sulla soglia d’ingresso di certi ambienti senza mai spostarsi di un centimetro. Non è un difetto terribile, ma toglie certamente dinamismo e azione al titolo, ci sarebbe piaciuto vedere un detective più attivo anziché far sembrare il tutto una sorta di text game.
Nulla da eccepire riguardo comparto testuale ma, come abbiamo accennato all’inizio, certi elementi nostalgici potevano essere tranquillamente lasciati nel passato da siamo stati presi: non sappiamo se fosse intento dei developer, ma i dialoghi non sono più rivisitabili e dunque non si possono richiamare due volte. È vero che le finestre vanno avanti solamente tramite un nostro click, ma tante volte ci si può semplicemente dimenticare di un dettaglio, il nome di una persona o una destinazione, perciò vi converrà stare attenti a ogni parola che verrà detta anche se, nonostante i dialoghi siano molto divertenti, buona parte delle interazioni è praticamente inutile e non serviranno a ricostruire ciò che è successo la sera dell’accaduto o a costruire delle ipotesi su chi sia il colpevole della sparizione di Linda Patton. Il vero effetto di questa mancanza emerge ancor di più quando si salva e si ritorna a giocare dopo ore; il non poter richiamare determinati dialoghi alla riaccensione del computer è un male per i giocatori più smemorati e, a meno che non si guardi una guida online, finiremo per girare a vuoto per Middle City per parecchio tempo per trovare la conversazione da triggerare, per visitare una destinazione non ancora presa in esame, per consegnare un oggetto o, ancora più criptico, un oggetto combinato che ci permetterà di continuare la campagna. La logica in tal senso viene coinvolta ben poco ai fini della progressione nell’indagine: non si cercano indizi per scoprire i risvolti della scomparsa di Linda Patton ma si gioca per mandare avanti l’avventura. I NPC potrebbero anche parlarci di luoghi da visitare e/o persone da interrogare ma, fino a quando determinati obiettivi (di cui il gioco stesso ci tiene all’oscuro) non verranno soddisfatti, non potremo procedere verso certi luoghi.
Man mano andremo ricostruendo il quadro completo, Middle City si aprirà sempre di più, ma scoprire quali parti della città, dopo determinati dialoghi, risultano sbloccate è sempre abbastanza criptico: difficilmente sapremo quando e dove si troveranno i nuovi luoghi da visitare (sarebbe bastato segnalarlo con una schermata incidentale) e questo lede in termini di funzionalità il design.
L’inventario contiene le opzioni usa/dai e combina/unisci, ma capire quali sono gli oggetti da unire e quali da usare in certe circostanze è spesso molto difficile: forse questa è una caratteristica che solamente gli appassionati più infoiati delle avventure grafiche potranno apprezzare.

Floppy pieni di “sorprese”

La grafica di The Secret of Middle City è stata realizzata a mano per poi essere ritoccata in seguito nei computer Amiga; si nota un certo art style tipico delle avventure grafiche degli anni ’90, eppure alcuni elementi risultano fuori posto: cominciamo dalle cutscene, molte delle quali sono disegnate e colorate a matita; nulla in contrario a questa scelta stilistica, anzi, è uno stile molto audace in un ambiente in cui tutto è stilizzato e progettato millimetro per millimetro al computer. Si vede chiaramente la passione del disegnatore Stefano Buonocore, perno fondamentale dello sviluppo di questo gioco, per le vecchie avventure grafiche e per gli art stile tipici dei giochi per i vecchi computer europei; tuttavia alcuni NPC, nonostante gli ambienti siano ben lontani dallo stile delle cutscene, presentano spesso lo stesso stile a matita, ben lontano dal protagonista, facendoli spiccare in modo poco armonico rispetto al contesto, come fossero stati estrapolati da un altro gioco.
Il titolo verrà giocato in 3:4. Ai bordi troveremo le varie opzioni del gioco ma, anche se si tratta di un chiaro elemento nostalgico, rimanda a un’idea volontariamente cheap. L’inventario, per esempio, è richiamabile cliccando sulla sua icona ai bordi dello schermo, e per toglierlo bisognerà cliccare nuovamente sulla stessa; per rendere questo processo più veloce, e dunque tornare velocemente in azione, sarebbe stato molto meglio cliccare da qualche parte lontano dal box del menù anziché riportare il mouse sull’icona del menù oggetti.
Sembra voler intenzionalmente richiamare (in maniera nostalgica) alcuni di quei giochi presenti in Giochi per il mio Computer, a tratti anche quei terribili giochi per PC in regalo con le scatole di cereali Kellogs o con le merendine del Mulino Bianco; ci riesce anche, ma non è che stiamo finendo in un campo fin troppo nostalgico? È probabile inoltre che la programmazione avvenuta su Amiga impedisca al gioco una risoluzione ottimale: abbiamo ottenuto una versione del gioco standalone e non siamo riusciti a giocare a questo titolo in modalità full screen per via di un errore, costringendoci a giocarlo in modalità windowed. L’operazione è stata tentata su più di un PC, con lo stesso identico risultato. Non sappiamo dire se la stessa cosa avviene su Steam (dove il gioco è in vendita per 14,99€) o su Amiga OS 4.
I temi musicali del gioco richiamano a dovere l’epoca delle avventure grafiche anni ’90; i temi sono molto semplici ma riescono a restituire quelle le sensazioni di una passeggiata all’interno di questa piccola comunità di montagna. Non mancheranno chiaramente temi più “oscuri” quando andremo a visitare qualche luogo misterioso o intraprenderemo un dialogo particolarmente importante; in questi frangenti lo stile melodico richiama chiaramente quello tipico di Angelo Badalamenti, compositore dell’acclamatissima serie TV I Segreti di Twin Peaks (che, ovviamente, influenza tantissimo la trama di questo titolo), e bisogna dire che questi temi sono particolarmente belli, nonostante i toni demenziali della quale il gioco è intriso. Come abbiamo già detto, i dialoghi sono interamente testuali, ma ci sarebbe tanto piaciuto se questi fossero stati doppiati ed essere dunque di supporto al testo, come avvenuto lo scorso anno in Thimbleweed Park, punta e clicca di Ron Gilbert che compie la stessa “operazione nostalgia”.

Tirando le somme

Cosa pensiamo dunque di The Secret of Middle City? Dire, come abbiamo detto all’inizio, che sia allo stesso tempo bello e brutto non è un assurdità. Ci sono elementi, come la grafica, il sonoro o le battutine stupide di Cox, che rendono il gioco adorabile e un bel salto nel passato; tuttavia, ce ne sono altri, come l’astrusità dell’inventario, il non poter richiamare i dialoghi una seconda volta e il non poter capire quando e dove certi luoghi diventano accessibili, che ce lo fanno anche odiare. È chiaramente un titolo pensato principalmente per gli amanti delle avventure grafiche di una certa età (anche perché non mancano certi disegni e scene un po’ piccanti) e chiaramente non per tutti: è uno di quei giochi in cui si sarebbe potuto fare anche di più, ma si è puntato forse troppo sull’effetto nostalgia, prendendo del passato sia gli aspetti positivi che quelli negativi, riportandoli nel presente senza un’adeguata revisione, consegnando un’avventura grafica meno curata, con meno carattere e certamente non all’altezza di molti altri titoli odierni del genere. Il prezzo su Steam non risulta competitivo, e forse andrebbe rivisto verso il basso per stimolare l’acquisto a gamer curiosi che vogliano comunque godersi qualche ora di divertimento. Se vi mancano questo tipo di avventure grafiche, quel senso di “cheap” tipico di certi giochi per PC di fine anni ’90, e soprattutto se avete un AmigaOne X5000 (il modello corrente di Amiga), beh… allora questo gioco fa per voi!




Come funzionano i monitor e quali scegliere

Sin dagli albori dei personal computer, il monitor è stata l’interfaccia principale tra la macchina e l’utente. Sebbene tastiera e mouse siano l’interfaccia fisica principale, lo schermo influisce direttamente sulla facilità con cui svolgere le proprie attività, sia che si tratti di lavoro o di gaming. I primi schermi utilizzavano un tubo a raggi catodici per visualizzare un’immagine e, fino all’avvento dei sistemi operativi grafici, questa si presentava come semplice testo. Grazie al set di caratteri ASCII esteso, le immagini di base potevano essere create sullo schermo ma elementi come pixel e profondità di colore erano ancora troppo lontane.

La tecnologia in uso non era molto diversa dalle televisioni di oggi: da uno a tre “cannoni” elettronici sparano particelle su una superficie rivestita in fosforo, all’interno della grande estremità del tubo. Il fosforo brillando, forma un’immagine composta da linee orizzontali e la porzione di ciascuna linea illuminata può essere lunga o corta, in base all’immagine. I primi esempi erano monocromatici, solitamente verdi, ma più tardi, quando l’hardware usato per la produzione scese di prezzo, furono inseriti tre cannoni, uno per ciascun colore principale (Rosso, Verde e Blu), impiegati per creare i primi monitor a colori. Alla fine della loro vita utile, i monitor CRT avevano raggiunto risoluzioni verticali di oltre 1000 linee e potevano mostrare una grafica completa, non più limitati al solo testo. Ma man mano che le dimensioni dello schermo aumentarono, aumentarono anche profondità e il peso, raggiungendo ben presto una massa critica. Ed è per questo che nacquero i monitor a cristalli liquidi (LCD).

Secondo gli standard odierni, i vecchi schermi LCD non sembrano molto più moderni dei CRT, ma hanno un attributo importante: sono molto meno profondi di qualsiasi monitor a valvole. Oggi i monitor per computer utilizzano principalmente le proporzioni 16: 9 (alcuni anche a 16:10), ma l’elemento principale che distingue un modello dall’altra è la risoluzione: l’immagine su un pannello LCD è composta da milioni di piccoli punti con ogni pixel costituito da tre sub-pixel, uno per ciascun colore primario, rosso, verde e blu. Ovviamente più pixel si possono racchiudere in ogni pollice quadrato, più l’immagine sarà realistica e perfetta. Ma bisogna considerare due fattori che possono rendere meno adatto un display ad alta densità di pixel per un particolare sistema: il primo è la performance della scheda grafica poiché, più pixel si hanno sullo schermo, più potenza di elaborazione serve dalla scheda video per spostarli in modo tempestivo. Ultra HD e 5K sono in grado di ottenere immagini straordinarie, ma se il sistema non è in grado di generare 14,7 milioni di pixel, l’esperienza complessiva ne risentirà e quella risoluzione aggiuntiva sarà un ostacolo. Il secondo fattore riguarda le funzionalità di ridimensionamento dei caratteri del sistema operativo che si intende utilizzare. Sono stati apportati miglioramenti, ma Windows è ancora utilizzato al meglio con una densità di pixel di 90-100ppi; a valori più alti, oggetti e testo diventano estremamente piccoli e potenzialmente impossibili da leggere. Il ridimensionamento varia in termini di qualità e non sempre è una soluzione infallibile quando il testo diventa troppo piccolo. Prima di approfondire le singole considerazioni dietro la selezione di un monitor, c’è una cosa che non possiamo sottolineare abbastanza. Prima di iniziare la ricerca del monitor perfetto, è fondamentale sapere in che ambito utilizzare il monitor: non c’è display che sia il migliore in tutti gli aspetti.
Nelle sezioni seguenti parleremo delle varianti di monitor in commercio e il loro funzionamento mentre, successivamente, arriveranno le guide su come scegliere un monitor da gaming o professionale. Diamo una rapida occhiata alle principali tecnologie dei pannelli e in che modo influiscono sulla qualità dell’immagine.

Tecnologie dei pannelli

Esistono tre principali tecnologie utilizzate in tutti i pannelli LCD prodotti oggi: In-Plane Switching (IPS), Twisted Nematic (TN) e Vertical Alignment (VA). Ognuno ha diverse varianti associate che offrono diversi vantaggi come angoli di visione migliori, risposta del pannello più veloce, minore consumo di energia e simili. Una rapida ricerca su Internet farà apparire dozzine di articoli sulla complessità di ciascuna tecnologia, quindi non approfondiremo troppo la questione; quello che preferiamo fare è parlare di come ciascun tipo influisce sulla qualità dell’immagine e su cosa ci si può aspettare se ne si sceglie uno in particolare.

Twisted Nematic (TN)

I primi pannelli LCD apparsi sono stati della varietà TN. Questo è un pannello nella sua forma più semplice: uno strato di cristalli liquidi è inserito tra due substrati; i cristalli sono attorcigliati per bloccare o emmettere la luce. Ogni sub-pixel è controllato da un singolo transistor la cui tensione determina la quantità di luce che attraversa. Il problema più grande con i pannelli TN è la loro scarsa qualità delle immagini fuori asse e poiché la luce proveniente da qualsiasi LCD è polarizzata, la luminosità massima si verifica solo quando è visualizzata al centro. Questo perché l’utente è seduto con gli occhi puntati dritti al centro dello schermo e quello schermo è perfettamente perpendicolare alla linea di vista. Inoltre, i cristalli sono disposti perpendicolarmente ai substrati che aumentano la distanza dalla retroilluminazione allo strato anteriore, accentuando il problema dell’angolo di visualizzazione. Il TN ha un grande svantaggio rispetto ad altri tipi di pannelli, ma ciò nonostante è molto veloce: con un solo transistor per sub-pixel e una profondità di colore di 6 o 8 bit, i moderni pannelli TN possono avere un tempo di risposta di un millisecondo (1ms) quando le frequenze di aggiornamento sono sufficientemente elevate. Questo li rende ideali per il gaming in cui la velocità è più importante di altre metriche di imaging. Velocità elevata non solo nella capacità del pannello di disegnare rapidamente una cornice, ma anche nell’area del ritardo di input. Il basso costo di elaborazione del TN di solito significa una risposta più rapida all’input dell’utente, un altro fattore importante per i giocatori. Quindi, cosa rende il TN diverso da altri tipi di pannelli? Si possono vedere chiaramente le differenze tra TN e IPS in una foto fuori asse di un modello di prova. Ma nell’uso reale, che si tratti di gaming o produttività, il TN non rappresenta un enorme calo della qualità dell’immagine. Un buon pannello IPS o TN ha un intervallo dinamico nativo di circa 1000: 1.

In-Plane Switching (IPS)

Dopo aver stabilito gli angoli di visione come la principale debolezza del TN, questo ci porta alla soluzione: IPS. Rappresenta una svolta significativa nell’area della qualità dell’immagine fuori asse. I principali obiettivi di progettazione IPS erano il minor consumo energetico, la capacità di creare schermi più grandi e una migliore riproduzione dei colori. Grazie a uno strato di TFT più vicino alla superficie esterna e un polarizzatore a griglia più sottile, l’immagine su un pannello IPS non si deteriora quando l’utente sposta la visuale sullo schermo e la percezione dell’uniformità da bordo a bordo è molto più grande. Aiuta anche che, i cristalli sono paralleli ai substrati piuttosto che perpendicolari come nel TN. Di conseguenza, il percorso è molto più breve tra la retroilluminazione e il livello anteriore dello schermo. Poiché la luce è polarizzata meno severamente, non cambia tanto quando l’osservatore si sposta fuori asse. Questo contribuisce a ridurre il consumo di energia dal momento che la retroilluminazione non ha bisogno di tanta potenza per raggiungere un determinato livello di luminosità. Ciò significa che la qualità complessiva dell’immagine è che lo schermo appare molto più uniforme, specialmente per taglie oltre i 27 pollici. Non è altrettanto importante posizionare il display esattamente sulla scrivania per vedere la migliore immagine possibile e, per quelli con configurazioni multischermo, le opzioni di posizionamento sono molto più flessibili.

Vertical Alignment (VA)

Tralasciando i problemi dell’angolo di visualizzazione, anche gli LCD soffrono di scarso contrasto. Le tecnologie auto-emettenti come CRT, plasma e OLED hanno un enorme vantaggio in questo senso. Tuttavia, con la tecnologia CRT, i livelli di nero sono regolati dal modo in cui le valvole possono bloccare la retroilluminazione, sempre attiva. Il VA cerca di migliorare questa debolezza: un pannello TN o IPS dalle buone prestazioni mostreranno un contrasto nativo di circa 1000: 1; Ciò significa che il livello di bianco massimo è 1000 volte maggiore del livello di nero più basso (A 200cd / m2 si vedrà un livello di nero di .2cd / m2). Quanto è nero esattamente? Beh, in una stanza scarsamente illuminata, sembrerebbe un grigio molto scuro ma non completamente nero. In confronto, una TV al plasma rendebbe il livello del nero di .007cd / m2 e un display OLED dei giorni nostri sarà ancora più basso. Quindi cosa cambia con il VA?  Riteniamo fortemente che il contrasto sia il fattore più importante per la qualità e la fedeltà delle immagini,  quindi più è, meglio è. 5000: 1 è migliore di 1000: 1. Sfortunatamente, il VA è in minoranza tra i monitor sul mercato con l’IPS leader del mercato in questo momento ma, molti monitor da gaming, utilizzano ancora i pannelli TN per il loro basso costo e alta velocità. Ma non importa quale sia l’uso, pensiamo che il VA abbia la migliore qualità d’immagine dei tre tipi principali. Ha uno svantaggio? Sì: ha un angolo di visione discreto che lo posiziona tra TN e IPS. Va abbastanza bene per supportare schermi di grandi dimensioni, ma non è in grado di competere con i migliori monitor IPS.
Quindi qual è il migliore? La risposta è tutte e tre. Se si vuole un monitor veloce con minima sfocatura di movimento, basso lag di input e un prezzo basso, è preferibile il TN. Se invece si desidera un’immagine uniforme con buoni angoli di visualizzazione e colori precisi, va bene l’IPS. Infine, se si vuole il massimo contrasto e profondità dell’immagine, per un vero aspetto 3D, il VA.

Come scegliere un monitor standard

Ci sono utenti che non desiderano comprare un monitor specializzato per il gaming o per il lavoro, per via di tecnologie o funzioni varie che non verranno utilizzate oppure perché cercano un monitor equilibrato e che funzioni bene per ogni tipo di elaborazione, intrattenimento o produttività. Per uso generale pensiamo che l’angolo di visione più ampio sia essenziale, ma con un avvertimento. È vero che IPS e la sua variante AHVA (Advanced Hyper-Viewing Angle) offrono la migliore immagine fuori asse, ma ci ritroviamo catturati (forse anche sedotti) dal profondo contrasto dei monitor VA. Abbiamo sempre posizionato il contrasto come prima misura della qualità dell’immagine con saturazione del colore, accuratezza e risoluzione, infatti, quando un display ha una vasta gamma dinamica, l’immagine risulta più realistica e più simile al 3D. I pannelli VA offrono da tre a cinque volte il contrasto degli schermi IPS o TN e questa differenza non è insignificante: se posizionassimo monitor VA e IPS uno accanto all’altro con livelli di luminosità e standard di calibrazione corrispondenti, la schermata VA vincerà facilmente un confronto tra due diversi tipi di dati. Quindi è chiaro che preferiamo VA come tecnologia adibita a un uso generale, ma per quanto riguarda i set di funzionalità? Il numero di funzionalità extra che vengono lanciati nei monitor di oggi è quasi vertiginoso e con ciascuna azienda che utilizza una terminologia diversa può diventare difficile confrontare i prodotti. Ecco alcune delle principali opzioni che bisogna cercare.

Flicker-Free

Quando i LED hanno iniziato a sostituire il tubo a raggi catodici come fonte primaria di retroilluminazione, si è verificato un fenomeno interessante: un numero limitato di utenti ha notato uno sfarfallio (Flicker-Free) a qualsiasi livello di retroilluminazione al di sotto del massimo. Questo artefatto è causato da qualcosa chiamata modulazione della larghezza dell’impulso che, in parole povere, avviene quando una retroilluminazione PWM viene ridotta in luminosità, ricorrendo a pulsazioni più volte al secondo per simulare una luminosità inferiore. Non può essere attenuato semplicemente abbassando la tensione come succede con una lampada a incandescenza. La larghezza dell’impulso è ciò che determina la luminosità effettiva, più breve è l’impulso, minore è l’uscita. I produttori combattono lo sfarfallio in diversi modi: uno è quello di aumentare il numero di cicli al secondo. Alcune retroilluminazioni PWM funzionano a velocità fino a 20 mHz; questo metodo riduce gli effetti dello sfarfallio per la maggior parte degli utenti. Un approccio ancora migliore è tuttavia la retroilluminazione a corrente costante: questo è un array di LED che può essere strozzato come una luce a incandescenza, semplicemente variando la tensione. Molti monitor venduti oggi sono privi di sfarfallio e utilizzano retroilluminazione a LED a corrente costante. Questi prodotti non sfarfalleranno a nessun livello di luminosità e anche quelli più sensibili all’artefatto non lo percepiranno. Ma anche se non si vedrà, può comunque causare affaticamento in caso di esposizione prolungata. Quando si trascorrono otto o più ore davanti a un computer senza sfarfallio, si può fare lavorare più semplicemente. Sempre più schermi utilizzano oggi la retroilluminazione a corrente costante e si consiglia di posizionare quella caratteristica in alto nell’elenco delle priorità.

Low-Blue Light

Questa è un’altra caratteristica che è apparsa relativamente di recente e che ora è di serie su molti display. Il termine è letterale: di solito assume la forma di uno slider o una serie di preset che riducono progressivamente la luminosità del blu nell’immagine. È possibile produrre lo stesso effetto abbassando il cursore del blu in una regolazione del bilanciamento del bianco dando come risultato un’immagine più calda e che può anche ridurre l’affaticamento quando si fissa il testo nero su uno schermo bianco tutto il giorno. La funzione può rendere meno faticosa la visualizzazione dell’immagine di un computer, ma anche una calibrazione accurata. Quando il punto di bianco di uno schermo è correttamente impostato su 6500K a tutti i livelli di luminosità, è altrettanto facile per gli occhi visualizzare le immagini senza stancarsi. Poiché la riduzione della luminosità del blu influisce su tutti gli altri colori, è possibile che appaiano degli aspetti non naturali a grafica e foto. È particolarmente distraente nei giochi e nei video e, in questi casi, è meglio impostare il monitor in modo che corrisponda al colore con cui è stato creato il contenuto. Quindi non dovremmo necessariamente gravitare verso un prodotto che offre una luce blu bassa.

Modalità dell’immagine

La maggior parte dei monitor per computer include più modalità di immagine che corrispondono a compiti comuni come lettura, foto, film, giochi e simili. Abbiamo misurato molti di questi durante le recensioni e sembra che, a meno che un preset non sia chiamato qualcosa come Standard o sRGB, non è completamente conforme a Rec.709, lo standard utilizzato nella maggior parte dei contenuti visti oggi. In molti casi, un monitor viene fornito di fabbrica con una modalità d’immagine più precisa possibile e richiede una regolazione minima o nulla per ottenere una gamma di colori sRGB, 6500K e 2,2 gamma. Mentre alcuni utenti potrebbero preferire l’aspetto di altre modalità immagine, questa è una considerazione individuale. Quello che gli acquirenti dovrebbero cercare è un monitor che offra almeno una modalità precisa. Gli altri preset non sono necessari e non aiutano a impostare uno schermo diverso dall’altro.

Conclusione

Abbiamo coperto molte informazioni e aspetti su come funzionano i monitor e su come sceglierne uno senza molte pretese, e speriamo che questa guida vi sarà utile nella ricerca del display ideale. Vi è un numero enorme di prodotti disponibili che utilizzano tecnologie e funzionalità diverse. Ma se si inizia la ricerca dando un’occhiata all’utilizzo che vi si farà, si restringeranno le scelte a un numero più gestibile. È importante ricordare che lo schermo perfetto non esiste e probabilmente non esisterà mai.




F1 2015 gratis su Humble Bundle

Humble Bundle di volta in volta sorprende i giocatori con interessanti promozioni. Oltre a sconti e azioni di beneficenza, il negozio offre spesso giochi gratuiti come, avvenuto proprio oggi con  F1 2015, disponibile per sole 48 ore, in versione PC. F1 2015 è il primo titolo basato su licenza Formula 1 approdato sulle recenti console e, nonostante qualche mancanza, è comunque un gioco di guida in grado di dare delle soddisfazioni. Il titolo è dello studio britannico Codemasters famoso nel settore racing per titoli come  Colin McRae Rally, TOCA, o i più recenti Dirt.