Robbotto

Ultimamente mi sono dato alla macchia con i tripla A, per dedicarmi anima e corpo a quella tonnellata di titoli indie tra i quali, a volte, è possibile anche trovare delle perle di non poco interesse. Oggi è la volta di Robbotto, sviluppato da JMJ interactive; è un simpatico – e allo stesso tempo odioso – arcade-platform chiaramente ispirato a quel vecchio gioco arcade dei due draghetti sparabolle, chi di voi lo ricorda? Infatti personalmente, definirei Robbotto quasi la versione “Dark Souls” di Bubble Bobble: ovviamente non mi riferisco al genere “souls” in sé, bensì al fatto che sia davvero impegnativo riuscire a proseguire oltre un certo livello.
Dopo questa piccola premessa, andiamo a vedere più da vicino di cosa si tratta.

Cos’è Robbotto?

Partiamo dal fatto che il titolo del gioco, nasce semplicemente dall’unione dei nomi dei due robot che possiamo utilizzare: Robb e Otto – … già, non ditelo a me –.
Robbotto è, come già scritto, un arcade-platform con grafica in stile 8-bit con livelli procedurali, sempre più complessi andando avanti nel gioco. È possibile giocarlo in singolo o in coppia in modalità co-operativa (online o locale).
I comandi sono molto semplici: in definitiva c’è un tasto per saltare, uno per sparare un dardo elettrico e un’altro per spruzzare acqua una volta elettrizzato il nemico, in maniera da metterlo completamente fuori gioco. Attraverso i 100 livelli di gioco, si incontreranno venti diversi nemici da affrontare, ognuno con le proprie caratteristiche, offensive e non. Robbotto è uno di quei giochi che lascia illudere i propri avventori: diciamo che i primi dieci livelli alimenteranno semplicemente la vostra autostima come arcade player, i successivi faranno un po’ vacillare la vostra autostima da pro-player, per poi arrivare a maledire il giorno in cui avete deciso di iniziare a videogiocare! Oltretutto questo, è un gioco che spinge l’utente a continuare a oltranza la propria partita, anche una volta perse le tre vite a disposizione: infatti al “gameover“, si potrà continuare perdendo solo il punteggio accumulato e i progressi dell’ultimo livello in corso; in pratica senza rendervene conto potreste giocare e rigiocare lo stesso livello anche per venti, quindi, “chapeau” agli sviluppatori per la vincente strategia applicata.
Al decimo livello e poi per ogni suo multiplo, si affronterà una boss-fight, più o meno semplice (personalmente ho spesso trovato più difficoltosi i livelli di intermezzo che non le boss-fight).

Oldstyle in tutto e per tutto

Che dire, uno stile retrò, mantenuto e rispettato in ogni suo canone: la colonna sonora, peraltro acquistabile anche separatamente su Steam, è composta da suoni sintetizzati, che accompagnano perfettamente il ritmo di gioco che, con i suoi colori sgargianti e quello stile 8-bit, in qualche modo, esplicitano ulteriormente la natura “arcade” di Robbotto.

In definitiva, ritengo che il titolo proposto da JMJ Interactive, sia un ottimo arcade, divertente, immediato e che può dare il meglio in co-op locale, ma credo anche che possa esserci un “gap” tra il prodotto offerto e il prezzo suggerito, forse troppo alto. Robbotto viene venduto a circa 10 euro sull’eshop di Nintendo Switch8 euro su Steam.




Come scegliere un monitor da gaming o da lavoro

La scorsa volta abbiamo parlato di come funzionano i monitor e come sceglierli per l’uso standard. Questa settimana invece parleremo nello specifico di come scegliere i monitor in base all’utilizzo, gaming o lavoro.
Tratteremo molti aspetti presenti in un monitor da gaming. Decidere cosa è meglio, soprattutto quando il budget è basso non è facile, essendoci molte possibili scelte che possono destare confusione e un marketing ancora poco preciso per chi vuole comprare un monitor. Quindi qui presenteremo la nostra opinione su ciò che un appassionato di videogiochi dovrebbe prendere in considerazione, che non sono regole assolute ma, alcuni fattori possono dipendere dal livello di abilità dei giocatori.

Risoluzione

Quando si tratta di videogame, la maggior parte dei giocatori ritiene che più pixel ci siano più tutto risulterà migliore, ma questo è vero fino a un certo punto. Sì, è importante avere una densità di pixel sufficiente a rendere le immagini uniformi e realistiche, ma ovviamente più pixel si hanno, più potenza grafica servirà. Se si vuole la massima risoluzione disponibile sul desktop, esistono alcune limitazioni che bisogna accettare: il più grande di questi è la frequenza di aggiornamento dove le attuali interfacce video non supportano velocità superiori a 60Hz per i segnali UHD (4096×2160) e, anche se lo facessero, bisogna avere una scheda video potente per muovere realmente 8,2 milioni di pixel oltre i 60fps. Per esempio NVIDIA GTX Titan X riesce a malapena a gestire tutto ciò se si abbassano i livelli di dettaglio. L’attuale punto debole sembra essere la risoluzione QHD (2160×1440) in cui, nelle dimensioni fino a 32 pollici si avrà una buona densità e un’immagine dettagliata ma non troppo difficile da gestire per le schede video di fascia media. Naturalmente se si desidera la massima velocità, il FHD (1920×1080) fornirà i framerate più alti. Prima di fare un acquisto bisogna quindi valutare il proprio hardware.

Tecnologia del pannello

Come abbiamo detto i pannelli con tecnologia TN sono veloci e offrono una buona precisione e contrasto dei colori. Sono relativamente economici e i monitor FreeSync da 24 pollici con risoluzione FullHD sono in vendita anche a meno di 200 euro. Ma, visto le informazioni elaborate sulla qualità dell’immagine, e i desideri degli utenti per schermi da 27 pollici o più grandi, probabilmente si sarà più soddisfatti con l’immagine fornita da un display IPS o VA. Lo svantaggio è il loro costo più alto: i monitor da gioco IPS sono concentrati nella fascia più alta della scala mentre VA, con il suo contrasto leader di classe, è difficile da trovare a qualsiasi prezzo.

Adaptive Refresh

Il G-Sync, apparso per la prima volta quattro anni fa, è stata davvero una rivoluzione nell’elaborazione video. Dal momento che i giochi rendono il loro contenuto a un framerate costantemente variabile, è diventato necessario creare un monitor che potesse variare il suo ciclo di aggiornamento al passo con l’output della scheda video. G-Sync ha abilitato questa funzione per le schede basate su Nvidia pagando qualcosa in più rispetto ai normali monitor mentre, il concorrente AMD FreeSync ha un approccio diverso: semplicemente, aggiungendo nuove funzioni alle specifiche DisplayPort esistenti, un monitor può avere un aggiornamento adattativo senza sacrificare performance. Entrambe le tecnologie sincronizzano il framerate della scheda video con il monitor per evitare il fastidioso problema di bande sullo schermo; l’artefatto si verifica quando i frame non corrispondono: il computer invia un nuovo frame prima che il monitor abbia finito di disegnare il precedente e, assegnando il controllo della frequenza di aggiornamento alla scheda grafica, questo artefatto viene eliminato. Quando si sceglie tra i due, l’ovvia considerazione è su quale hardware si ha già investito: se si è possessori di una GTX 1080Ti, la scelta è chiara. Se si è indecisi su quale tecnologia adottare, tuttavia, ecco alcuni dettagli che potrebbero aiutare. Entrambi hanno un range operativo limitato: i monitor G-Sync funzionano sempre da 30Hz fino al massimo consentito dal monitor. I display di FreeSync non sono così coerenti e in genere supportano il refresh adattivo fino al massimo, ma è il limite inferiore che si deve prendere in considerazione. Questo può essere un problema se la scheda video non è in grado di mantenere i framerate sopra quel livello. Il Low Framerate Compensation (LFC), è una soluzione valida, ma funzionerà solo se il refresh massimo è almeno più del doppio rispetto al minimo. Per esempio, se il massimo è 100Hz, il minimo deve essere 40. Se l’intervallo è troppo piccolo, LFC non entra in gioco. Quindi se il proprio budget indica una scheda video da metà a bassa velocità, è preferibile scegliere il G-Sync con ovviamente una scheda Nvidia mentre, in caso di display FreeSync si sceglie AMD.

Refresh Rate

Quando sono usciti i primi display dedicati ai videogiochi, una caratteristica fondamentale era la loro capacità di funzionare a 144 Hz. Questa era una risposta alle prestazioni sempre più elevate offerte dalle schede video veloci. Ovviamente se si ha una scheda video che potrebbe far girare un gioco a 100 fps, è opportuno che anche il monitor sia abbastanza veloce. Un 60Hz semplicemente non basterà più. Oggi esistono schermi che girano a 144Hz, 200 HZ e addirittura 240 Hz. Quindi la domanda è una: è così importante la velocità di aggiornamento? La risposta ovviamente è si. Comprare un display con una frequenza alta, a lungo termine eviterà la necessità di cambiare  il monitor in poco tempo. Per coloro che spendono meno, tuttavia, 144 e persino 120 Hz sono molto veloci e consigliati. Nella maggior parte dei casi si ottiene un ritardo di input sufficientemente basso, un movimento fluido e un elevato carico di prestazioni per la maggior parte dei titoli in commercio.

Motion Blur Reduction e Overdrive

La riduzione della sfocatura e l’overdrive sono due caratteristiche che si trovano in molti schermi da gaming. In effetti l’overdrive è praticamente presente su tutti i monitor indipendentemente dal tipo e funziona, consentendo una certa quantità di overshoot durante le transizioni di luminosità. L’obiettivo di progettazione è che i singoli pixel anticipino la tensione richiesta per un particolare livello di luminosità. Se eseguito correttamente, il pixel raggiunge rapidamente quel livello, per poi cambiare nel fotogramma successivo prima che la tensione diventi troppo alta. Quando si verifica un overshoot, appare come un artefatto chiamato ghosting: Possiamo vederlo usando il test UFO di BlurBusters che si può trovare qui. È semplice da interpretare: bisogna guardare l’UFO mentre si cambiano  diverse opzioni OD. Quando è visibile una scia bianca dietro il “piattino”, si è andati troppo lontano. Nel contenuto reale, l’artefatto appare in transizioni ad alto contrasto come quelle tra oggetti scuri e chiari. Le implementazioni dell’overdrive differiscono notevolmente tra i monitor.

Come scegliere un monitor da lavoro

Gli utenti professionali hanno alcune esigenze speciali che devono essere considerate. Stiamo parlando di fotografi, tipografi, web designer, artisti di effetti speciali, game designer o chiunque abbia bisogno di un controllo preciso del colore lungo tutta la loro catena di produzione. Solo pochi monitor sono effettivamente certificati dai loro produttori ma se si vuole un display che sia preciso e pronto all’uso, è il modo migliore per garantire la qualità. Siamo d’accordo con i nostri lettori sul fatto che i monitor professionali dovrebbero essere pronti per il lavoro senza necessità di regolazioni, ma crediamo anche che un monitor professionale dovrebbe avere la flessibilità e la capacità di essere regolato in modo preciso. Ci sono due modi per farlo: l’OSD e il software. La maggior parte dei schermi ha un OSD, più o meno completo. Esistono OSD di grandi dimensioni dotati di cursori RGB per le scale di grigio, preimpostazioni del gamma e un sistema di gestione del colore. A volte i produttori si affidano a software che consentono all’utente di creare modalità personalizzate. Qualunque sia il metodo che si preferisce, è importante che un display professionale includa opzioni per diverse gamma di colori, temperature di colore e curve di gamma. Dovrebbero essere  presenti gli standard sRGB e Adobe RGB, le temperature di colore che vanno da 5000 a 7500K e le preimpostazioni di gamma da 1,8 a 2,4. I monitor utilizzati per la produzione televisiva o cinematografica dovrebbero anche supportare lo standard gamma BT.1886. Tutte le impostazioni dovrebbero essere identiche alle loro etichette e l’OSD dovrebbe avere regolazioni sufficienti per raggiungere la precisione.

Profondità di bit

Nella maggior parte dei casi, un pannello a 8 bit non sarà adatto per il lavoro di grafica professionale. Gli utenti solitamente richiedono almeno 10 bit, o preferibilmente 12. Questo è abbastanza comune tra i display professionali, ma è importante che gli utenti considerino l’intera catena del segnale quando superano gli 8 bit. In sostanza più bit si hanno più i colori risulteranno fedeli però, ovviamente, per usare un monitor del genere serve una scheda video che supporti oltre gli 8 bit; in caso contrario il monitor inserirà le informazioni aggiuntive, ma solo per interpolazione. Proprio come con il ridimensionamento dei pixel infatti, un display non può aggiungere informazioni che non sono presenti in primo luogo, può solo approssimarsi. La maggior parte delle schede video di fascia consumer sono limitate all’uscita a 8 bit in questo momento. Alcuni esempi premium possono inviare informazioni a 10 e 12 bit sul display, ma la soluzione migliore per un professionista è utilizzare qualcosa basato sui processori Nvidia Quadro o AMD FirePro.

Compensazione di uniformità

Alcuni display incorporano una compensazione di uniformità nel loro elenco di funzionalità. Questo ha lo scopo di eliminare le aree luminose o scure dallo schermo e bilanciare la luminosità in ogni zona. Alcuni produttori, NEC in particolare, hanno fatto di tutto per risolvere il problema, creando una tabella di ricerca per ogni singolo monitor che esce dalla catena di montaggio. Non si può semplicemente applicare le stesse correzioni a ogni pannello. L’unico modo per eliminare un hotspot in un campo nero è aumentare la luminosità delle altre zone a quel livello. Questo ha l’ovvio effetto di aumentare i livelli di nero e ridurre il contrasto: all’estremità luminosa della scala, i punti deboli vengono compensati abbassando l’uscita nelle zone rimanenti, riducendo anche il contrasto. La compensazione dell’uniformità non è molto utile perché i suoi benefici sono ampiamente superati dalla riduzione dell’output e del contrasto che ne risulta. Quindi, in sintesi, gli utenti che acquistano uno schermo di livello professionale dovrebbero cercare entrambe le opzioni di gamma di colori sRGB e Adobe RGB, una calibrazione certificata dalla fabbrica, un OSD completo con regolazioni precise e un pannello con profondità di colore nativa a 10 o 12 bit.

 

Conclusione

Ecco perché è così importante decidere l’uso che si farà con il proprio PC prima di comprare un monitor. Se sei un giocatore o stai mettendo insieme un sistema a livello professionale, il lavoro è praticamente finito. Tutti i principali mercati dei produttori si focalizzano principalmente per questi due scopi, gaming e lavoro e, grazie alle richieste degli utenti e alla copertura completa nei media, se una società afferma che il proprio monitor è appropriato per giocare o per lavorare, è davvero così. Sono finiti i giorni in cui un monitor poteva semplicemente essere stilizzato in un certo modo e chiamato da “gaming”. Deve essere supportato con funzionalità come l’aggiornamento adattivo e la risposta rapida del pannello. Il mercato così non sarà ingannevole per chi si avvicina per la prima volta in questo mondo. Lo stesso vale per gli ambienti professionali: dati i prezzi elevati che definiscono il genere, elementi come l’ampia gamma e la calibrazione di fabbrica sono obbligatorie se un produttore deve essere preso sul serio.




Come funzionano i monitor e quali scegliere

Sin dagli albori dei personal computer, il monitor è stata l’interfaccia principale tra la macchina e l’utente. Sebbene tastiera e mouse siano l’interfaccia fisica principale, lo schermo influisce direttamente sulla facilità con cui svolgere le proprie attività, sia che si tratti di lavoro o di gaming. I primi schermi utilizzavano un tubo a raggi catodici per visualizzare un’immagine e, fino all’avvento dei sistemi operativi grafici, questa si presentava come semplice testo. Grazie al set di caratteri ASCII esteso, le immagini di base potevano essere create sullo schermo ma elementi come pixel e profondità di colore erano ancora troppo lontane.

La tecnologia in uso non era molto diversa dalle televisioni di oggi: da uno a tre “cannoni” elettronici sparano particelle su una superficie rivestita in fosforo, all’interno della grande estremità del tubo. Il fosforo brillando, forma un’immagine composta da linee orizzontali e la porzione di ciascuna linea illuminata può essere lunga o corta, in base all’immagine. I primi esempi erano monocromatici, solitamente verdi, ma più tardi, quando l’hardware usato per la produzione scese di prezzo, furono inseriti tre cannoni, uno per ciascun colore principale (Rosso, Verde e Blu), impiegati per creare i primi monitor a colori. Alla fine della loro vita utile, i monitor CRT avevano raggiunto risoluzioni verticali di oltre 1000 linee e potevano mostrare una grafica completa, non più limitati al solo testo. Ma man mano che le dimensioni dello schermo aumentarono, aumentarono anche profondità e il peso, raggiungendo ben presto una massa critica. Ed è per questo che nacquero i monitor a cristalli liquidi (LCD).

Secondo gli standard odierni, i vecchi schermi LCD non sembrano molto più moderni dei CRT, ma hanno un attributo importante: sono molto meno profondi di qualsiasi monitor a valvole. Oggi i monitor per computer utilizzano principalmente le proporzioni 16: 9 (alcuni anche a 16:10), ma l’elemento principale che distingue un modello dall’altra è la risoluzione: l’immagine su un pannello LCD è composta da milioni di piccoli punti con ogni pixel costituito da tre sub-pixel, uno per ciascun colore primario, rosso, verde e blu. Ovviamente più pixel si possono racchiudere in ogni pollice quadrato, più l’immagine sarà realistica e perfetta. Ma bisogna considerare due fattori che possono rendere meno adatto un display ad alta densità di pixel per un particolare sistema: il primo è la performance della scheda grafica poiché, più pixel si hanno sullo schermo, più potenza di elaborazione serve dalla scheda video per spostarli in modo tempestivo. Ultra HD e 5K sono in grado di ottenere immagini straordinarie, ma se il sistema non è in grado di generare 14,7 milioni di pixel, l’esperienza complessiva ne risentirà e quella risoluzione aggiuntiva sarà un ostacolo. Il secondo fattore riguarda le funzionalità di ridimensionamento dei caratteri del sistema operativo che si intende utilizzare. Sono stati apportati miglioramenti, ma Windows è ancora utilizzato al meglio con una densità di pixel di 90-100ppi; a valori più alti, oggetti e testo diventano estremamente piccoli e potenzialmente impossibili da leggere. Il ridimensionamento varia in termini di qualità e non sempre è una soluzione infallibile quando il testo diventa troppo piccolo. Prima di approfondire le singole considerazioni dietro la selezione di un monitor, c’è una cosa che non possiamo sottolineare abbastanza. Prima di iniziare la ricerca del monitor perfetto, è fondamentale sapere in che ambito utilizzare il monitor: non c’è display che sia il migliore in tutti gli aspetti.
Nelle sezioni seguenti parleremo delle varianti di monitor in commercio e il loro funzionamento mentre, successivamente, arriveranno le guide su come scegliere un monitor da gaming o professionale. Diamo una rapida occhiata alle principali tecnologie dei pannelli e in che modo influiscono sulla qualità dell’immagine.

Tecnologie dei pannelli

Esistono tre principali tecnologie utilizzate in tutti i pannelli LCD prodotti oggi: In-Plane Switching (IPS), Twisted Nematic (TN) e Vertical Alignment (VA). Ognuno ha diverse varianti associate che offrono diversi vantaggi come angoli di visione migliori, risposta del pannello più veloce, minore consumo di energia e simili. Una rapida ricerca su Internet farà apparire dozzine di articoli sulla complessità di ciascuna tecnologia, quindi non approfondiremo troppo la questione; quello che preferiamo fare è parlare di come ciascun tipo influisce sulla qualità dell’immagine e su cosa ci si può aspettare se ne si sceglie uno in particolare.

Twisted Nematic (TN)

I primi pannelli LCD apparsi sono stati della varietà TN. Questo è un pannello nella sua forma più semplice: uno strato di cristalli liquidi è inserito tra due substrati; i cristalli sono attorcigliati per bloccare o emmettere la luce. Ogni sub-pixel è controllato da un singolo transistor la cui tensione determina la quantità di luce che attraversa. Il problema più grande con i pannelli TN è la loro scarsa qualità delle immagini fuori asse e poiché la luce proveniente da qualsiasi LCD è polarizzata, la luminosità massima si verifica solo quando è visualizzata al centro. Questo perché l’utente è seduto con gli occhi puntati dritti al centro dello schermo e quello schermo è perfettamente perpendicolare alla linea di vista. Inoltre, i cristalli sono disposti perpendicolarmente ai substrati che aumentano la distanza dalla retroilluminazione allo strato anteriore, accentuando il problema dell’angolo di visualizzazione. Il TN ha un grande svantaggio rispetto ad altri tipi di pannelli, ma ciò nonostante è molto veloce: con un solo transistor per sub-pixel e una profondità di colore di 6 o 8 bit, i moderni pannelli TN possono avere un tempo di risposta di un millisecondo (1ms) quando le frequenze di aggiornamento sono sufficientemente elevate. Questo li rende ideali per il gaming in cui la velocità è più importante di altre metriche di imaging. Velocità elevata non solo nella capacità del pannello di disegnare rapidamente una cornice, ma anche nell’area del ritardo di input. Il basso costo di elaborazione del TN di solito significa una risposta più rapida all’input dell’utente, un altro fattore importante per i giocatori. Quindi, cosa rende il TN diverso da altri tipi di pannelli? Si possono vedere chiaramente le differenze tra TN e IPS in una foto fuori asse di un modello di prova. Ma nell’uso reale, che si tratti di gaming o produttività, il TN non rappresenta un enorme calo della qualità dell’immagine. Un buon pannello IPS o TN ha un intervallo dinamico nativo di circa 1000: 1.

In-Plane Switching (IPS)

Dopo aver stabilito gli angoli di visione come la principale debolezza del TN, questo ci porta alla soluzione: IPS. Rappresenta una svolta significativa nell’area della qualità dell’immagine fuori asse. I principali obiettivi di progettazione IPS erano il minor consumo energetico, la capacità di creare schermi più grandi e una migliore riproduzione dei colori. Grazie a uno strato di TFT più vicino alla superficie esterna e un polarizzatore a griglia più sottile, l’immagine su un pannello IPS non si deteriora quando l’utente sposta la visuale sullo schermo e la percezione dell’uniformità da bordo a bordo è molto più grande. Aiuta anche che, i cristalli sono paralleli ai substrati piuttosto che perpendicolari come nel TN. Di conseguenza, il percorso è molto più breve tra la retroilluminazione e il livello anteriore dello schermo. Poiché la luce è polarizzata meno severamente, non cambia tanto quando l’osservatore si sposta fuori asse. Questo contribuisce a ridurre il consumo di energia dal momento che la retroilluminazione non ha bisogno di tanta potenza per raggiungere un determinato livello di luminosità. Ciò significa che la qualità complessiva dell’immagine è che lo schermo appare molto più uniforme, specialmente per taglie oltre i 27 pollici. Non è altrettanto importante posizionare il display esattamente sulla scrivania per vedere la migliore immagine possibile e, per quelli con configurazioni multischermo, le opzioni di posizionamento sono molto più flessibili.

Vertical Alignment (VA)

Tralasciando i problemi dell’angolo di visualizzazione, anche gli LCD soffrono di scarso contrasto. Le tecnologie auto-emettenti come CRT, plasma e OLED hanno un enorme vantaggio in questo senso. Tuttavia, con la tecnologia CRT, i livelli di nero sono regolati dal modo in cui le valvole possono bloccare la retroilluminazione, sempre attiva. Il VA cerca di migliorare questa debolezza: un pannello TN o IPS dalle buone prestazioni mostreranno un contrasto nativo di circa 1000: 1; Ciò significa che il livello di bianco massimo è 1000 volte maggiore del livello di nero più basso (A 200cd / m2 si vedrà un livello di nero di .2cd / m2). Quanto è nero esattamente? Beh, in una stanza scarsamente illuminata, sembrerebbe un grigio molto scuro ma non completamente nero. In confronto, una TV al plasma rendebbe il livello del nero di .007cd / m2 e un display OLED dei giorni nostri sarà ancora più basso. Quindi cosa cambia con il VA?  Riteniamo fortemente che il contrasto sia il fattore più importante per la qualità e la fedeltà delle immagini,  quindi più è, meglio è. 5000: 1 è migliore di 1000: 1. Sfortunatamente, il VA è in minoranza tra i monitor sul mercato con l’IPS leader del mercato in questo momento ma, molti monitor da gaming, utilizzano ancora i pannelli TN per il loro basso costo e alta velocità. Ma non importa quale sia l’uso, pensiamo che il VA abbia la migliore qualità d’immagine dei tre tipi principali. Ha uno svantaggio? Sì: ha un angolo di visione discreto che lo posiziona tra TN e IPS. Va abbastanza bene per supportare schermi di grandi dimensioni, ma non è in grado di competere con i migliori monitor IPS.
Quindi qual è il migliore? La risposta è tutte e tre. Se si vuole un monitor veloce con minima sfocatura di movimento, basso lag di input e un prezzo basso, è preferibile il TN. Se invece si desidera un’immagine uniforme con buoni angoli di visualizzazione e colori precisi, va bene l’IPS. Infine, se si vuole il massimo contrasto e profondità dell’immagine, per un vero aspetto 3D, il VA.

Come scegliere un monitor standard

Ci sono utenti che non desiderano comprare un monitor specializzato per il gaming o per il lavoro, per via di tecnologie o funzioni varie che non verranno utilizzate oppure perché cercano un monitor equilibrato e che funzioni bene per ogni tipo di elaborazione, intrattenimento o produttività. Per uso generale pensiamo che l’angolo di visione più ampio sia essenziale, ma con un avvertimento. È vero che IPS e la sua variante AHVA (Advanced Hyper-Viewing Angle) offrono la migliore immagine fuori asse, ma ci ritroviamo catturati (forse anche sedotti) dal profondo contrasto dei monitor VA. Abbiamo sempre posizionato il contrasto come prima misura della qualità dell’immagine con saturazione del colore, accuratezza e risoluzione, infatti, quando un display ha una vasta gamma dinamica, l’immagine risulta più realistica e più simile al 3D. I pannelli VA offrono da tre a cinque volte il contrasto degli schermi IPS o TN e questa differenza non è insignificante: se posizionassimo monitor VA e IPS uno accanto all’altro con livelli di luminosità e standard di calibrazione corrispondenti, la schermata VA vincerà facilmente un confronto tra due diversi tipi di dati. Quindi è chiaro che preferiamo VA come tecnologia adibita a un uso generale, ma per quanto riguarda i set di funzionalità? Il numero di funzionalità extra che vengono lanciati nei monitor di oggi è quasi vertiginoso e con ciascuna azienda che utilizza una terminologia diversa può diventare difficile confrontare i prodotti. Ecco alcune delle principali opzioni che bisogna cercare.

Flicker-Free

Quando i LED hanno iniziato a sostituire il tubo a raggi catodici come fonte primaria di retroilluminazione, si è verificato un fenomeno interessante: un numero limitato di utenti ha notato uno sfarfallio (Flicker-Free) a qualsiasi livello di retroilluminazione al di sotto del massimo. Questo artefatto è causato da qualcosa chiamata modulazione della larghezza dell’impulso che, in parole povere, avviene quando una retroilluminazione PWM viene ridotta in luminosità, ricorrendo a pulsazioni più volte al secondo per simulare una luminosità inferiore. Non può essere attenuato semplicemente abbassando la tensione come succede con una lampada a incandescenza. La larghezza dell’impulso è ciò che determina la luminosità effettiva, più breve è l’impulso, minore è l’uscita. I produttori combattono lo sfarfallio in diversi modi: uno è quello di aumentare il numero di cicli al secondo. Alcune retroilluminazioni PWM funzionano a velocità fino a 20 mHz; questo metodo riduce gli effetti dello sfarfallio per la maggior parte degli utenti. Un approccio ancora migliore è tuttavia la retroilluminazione a corrente costante: questo è un array di LED che può essere strozzato come una luce a incandescenza, semplicemente variando la tensione. Molti monitor venduti oggi sono privi di sfarfallio e utilizzano retroilluminazione a LED a corrente costante. Questi prodotti non sfarfalleranno a nessun livello di luminosità e anche quelli più sensibili all’artefatto non lo percepiranno. Ma anche se non si vedrà, può comunque causare affaticamento in caso di esposizione prolungata. Quando si trascorrono otto o più ore davanti a un computer senza sfarfallio, si può fare lavorare più semplicemente. Sempre più schermi utilizzano oggi la retroilluminazione a corrente costante e si consiglia di posizionare quella caratteristica in alto nell’elenco delle priorità.

Low-Blue Light

Questa è un’altra caratteristica che è apparsa relativamente di recente e che ora è di serie su molti display. Il termine è letterale: di solito assume la forma di uno slider o una serie di preset che riducono progressivamente la luminosità del blu nell’immagine. È possibile produrre lo stesso effetto abbassando il cursore del blu in una regolazione del bilanciamento del bianco dando come risultato un’immagine più calda e che può anche ridurre l’affaticamento quando si fissa il testo nero su uno schermo bianco tutto il giorno. La funzione può rendere meno faticosa la visualizzazione dell’immagine di un computer, ma anche una calibrazione accurata. Quando il punto di bianco di uno schermo è correttamente impostato su 6500K a tutti i livelli di luminosità, è altrettanto facile per gli occhi visualizzare le immagini senza stancarsi. Poiché la riduzione della luminosità del blu influisce su tutti gli altri colori, è possibile che appaiano degli aspetti non naturali a grafica e foto. È particolarmente distraente nei giochi e nei video e, in questi casi, è meglio impostare il monitor in modo che corrisponda al colore con cui è stato creato il contenuto. Quindi non dovremmo necessariamente gravitare verso un prodotto che offre una luce blu bassa.

Modalità dell’immagine

La maggior parte dei monitor per computer include più modalità di immagine che corrispondono a compiti comuni come lettura, foto, film, giochi e simili. Abbiamo misurato molti di questi durante le recensioni e sembra che, a meno che un preset non sia chiamato qualcosa come Standard o sRGB, non è completamente conforme a Rec.709, lo standard utilizzato nella maggior parte dei contenuti visti oggi. In molti casi, un monitor viene fornito di fabbrica con una modalità d’immagine più precisa possibile e richiede una regolazione minima o nulla per ottenere una gamma di colori sRGB, 6500K e 2,2 gamma. Mentre alcuni utenti potrebbero preferire l’aspetto di altre modalità immagine, questa è una considerazione individuale. Quello che gli acquirenti dovrebbero cercare è un monitor che offra almeno una modalità precisa. Gli altri preset non sono necessari e non aiutano a impostare uno schermo diverso dall’altro.

Conclusione

Abbiamo coperto molte informazioni e aspetti su come funzionano i monitor e su come sceglierne uno senza molte pretese, e speriamo che questa guida vi sarà utile nella ricerca del display ideale. Vi è un numero enorme di prodotti disponibili che utilizzano tecnologie e funzionalità diverse. Ma se si inizia la ricerca dando un’occhiata all’utilizzo che vi si farà, si restringeranno le scelte a un numero più gestibile. È importante ricordare che lo schermo perfetto non esiste e probabilmente non esisterà mai.




Mega Man, Proto Man e Bass appaiono nell’ultimo Trailer di Robot Wars X-Ω

Questo mese è stato annunciato con gran sorpresa che Mega Man si aggiungerà al cast di Super Robot Wars X-Ω. Questa apparizione è parte dei festeggiamenti del 30esimo anniversario ed il cast sarà disponibile da Gennaio 1. Il trailer si trova in fondo alla pagina.

Mega Man, Proto Man e Bass, che arrivano in versione 8-bit, saranno tutti doppiati. Di tutte queste voci quella di Bass ci tornerà familiare, anche se è in giapponese; questo perché a prestargli la voce è Nobuyuki Hiyama, l’uomo che ha dato la voce a Link adulto in Ocarina of Time, in Super Smash Bros per Nintendo 64 e Gamecube nonché in Soul Calibur 2. L’ultima volta che abbiamo sentito la voce di questi tre personaggi è stato per Mega Man Powered Up per PSP nel 2006.

Detto ciò, il resto è meno emozionante. Se ci sono due cose due cose di cui questa serie abusa è l’estetica 8-bit e gli elementi di Mega Man 2 e qui non si fa alcuna eccezione alla regola. I robot master del famoso sequel appariranno come boss e personaggi giocabili e, anche loro, saranno in 8-bit. Non si sa se tutti gli 8 robot master saranno doppiati.

La serie è stata spesso criticata per non riuscire ad abbandonare il passato e mai volgersi verso il futuro; tuttavia, in tempi recenti, abbiamo visto un modernissimo Mega Man nell’ultimo capitolo di Super Smash Bros, insieme all’Assist Trophy di Elec Man, e la definitiva dipartita dalla grafica 8-bit per il recentemente annunciato Mega Man 11. Il crossover in sé è spettacolare, sia per i fan di Mega Man che per quelli di Super Robot Wars, ma risulta giusto un po’ dozzinale visto che i personaggi in 8-bit potrebbero non fondersi bene con lo stile grafico del gioco originale.

Ad ogni modo ci fa sempre piacere sapere che Mega Man e compagni sono ancora molto apprezzati dai giocatori di tutto il mondo; chissà se Super Robot Wars X-Ω riceverà qualche contenuto da Mega Man 11 quando uscirà…

https://www.youtube.com/watch?v=8NLmYZg8SYw




GameCompass – Sonorità Videoludiche (02×11)

Puntata serissima fra musica e videogame! Gero Micciché ne parla con Andrea Celauro e Gabriele Sciarratta in una puntata dedicata alle soundtrack videoludiche con una recensione di Wheels of Aurelia, uno speciale sulla musica nei videogame dall’8-bit all’odierna scena chiptune e i migliori temi musicali dei menù dei videogame selezionati da Marcello Ribuffo nella consueta top finale!




La grande guerra: Sega Genesis vs Super Nintendo

La rivalità fra Nintendo è Sega non è cosa nuova. Sin dalla nascita delle due compagnie queste sono sempre state in un modo o nell’altro antagoniste l’una dell’altra. Già negli Anni 80 Sega rispondeva a Donkey Kong con Congo Bongo, al Famicom con la serie SG-1000, prima col Mark I, Mark II e poi col Mark III che poi divenne il Master System al di fuori del Giappone, e così via. Le vendite del Master System furono buone ma, anche se in alcuni paesi divenne più popolare del Nes, non erano minimamente comparabili alle vendite totali della controparte. Su questa base Sega mise le fondamenta sulla quale lanciare la sua nuova console a 16, il Sega Mega Drive o Genesis in Nord America. Da ora in poi adotteremo il termine Genesis e relativi termini americani visto che la vera battaglia, sulla quale Sega basò le sue strategie di mercato, fu più propria del Nord America.

Genesis vs Nes

Con l’uscita del nuovo hardware Sega, basato sul sistema arcade Sega System 16, Sega riuscì ad ottenere l’attenzione dei giocatori. Il nuovo sistema prometteva una grafica superiore al Nes, un migliore sonoro ottenuto dalla sintesi FM ed una giocabilità comparabile alla qualità arcade. Questa fu la prima strategia adottata da Sega per vendere il suo Genesis: portare i giochi da salagiochi a casa e superare il muro che separava mercato casalingo dal mercato arcade. La strategia all’inizio sembrò andar bene, spinta anche dal fatto che la console, al lancio, fu venduta in bundle con Altered Beast, un gioco arcade niente male ed in grado di sottolineare la differenza fra il Nes ed il Genesis. Tuttavia i giocatori non erano ancora convinti della nuova macchina a 16 bit di Sega; l’uscita di Super Mario Bros 3 fece capire a Sega come i giocatori fossero ancora attratti dall’ormai vecchio Nes ed anche se le arcade fossero ancora il punto di riferimento tecnologico per la comparazione degli hardware questi non servivano a nulla se un gioco casalingo, seppur con una grafica mediocre, fosse divertente ed adatto alle case. Tuttavia, già a questo punto, il Genesis aveva comunque una solida fanbase; nonostante Mario fosse insuperabile a casa non si può negare che la linea di titoli iniziale del Genesis fosse comunque competitiva. Non dimentichiamo anche che molte 3rd party cominciavano ad interessarsi alla nuova console Sega per via delle sue caratteristiche superiori e in cerca di nuovi accordi commerciali meno rigidi di quelli di Nintendo; già nel 1989 Capcom mise sulla nuova piattaforma Sega il suo Ghouls’n Ghost, sequel di Ghost and Goblin, sorprendendosi della la facilità di programmazione, quanto fosse bello sviluppare per il mercato casalingo dei giochi così simili alle arcade e quanto fosse buono il loro nuovo accordo con Sega. Il coinvolgimento di molte celebrità sportive, come il pugile James “Buster” Douglas, il giocatore di football Joe Montana, il golfista Arnold Palmer, aveva già attirato a se una fascia poco considerata nella vita del Nes, ovvero gli appassionati dei giochi sportivi, e sottolineò come il Genesis avesse già attirato a se una fascia di pubblico più adulta. Michael Jackson Moonwalker fu uno dei titoli più discussi e diede al Genesis una attitude che assunse per tutto il suo ciclo vitale. La discussione sulla qualità della libreria di titoli rispetto un’altra giaceva spesso su un punto morto: il Genesis ha 16 bit, il Nes solo 8. Con l’assunzione di Tom Kalinske nel 1990 come CEO di Sega of America furono lanciate in TV delle nuove pubblicità aggressive e dirette a Nintendo che miravano a sottolineare l’arretratezza tecnologica del Nes. Il nuovo slogan “Genesis does what Nintendon’t” parlava chiaro e la console si aprì verso quella fascia di pubblico cresciuta sì col Nes ma che ormai era grande ed andava al liceo. Il Genesis poteva dar loro giochi sportivi, giochi d’azione, giochi puzzle, porting dei giochi presenti in arcade, in poche parole giochi adatti alla loro personalità. L’ultima cosa che mancava era una mascotte in grado di poter competere con Mario, icona dei videogiochi e che sembrava essere imbattibile.

Una nuova nemesi

In tutto questo Nintendo non era assolutamente sprovvista. Il Nes durò ben oltre le loro aspettative ma, come anche le campagne pubblicitarie sottolineavano, era arretrato ed era ora di lanciare il nuovo sistema a 16 bit, in grado di poter competere col Sega Genesis. La nuova macchina Nintendo aveva una palette di colori più ampia del Genesis, un vero sonoro 16 bit digitale e la nuova grafica Mode-7 che permetteva al background di essere rotato e scalare di dimensioni dando la sensazione di un 3D rudimentale. Ne sono esempi i primi giochi come Pilotwings, in cui il giocatore può buttarsi da un aeroplano col paracadute, ed F-Zero in cui il mondo ruota attorno alla macchina da corsa futuristica. In tutto questo, dopo 3 giochi di successo della saga di Super Mario, ci si poteva solo aspettare che la nuova console Nintendo doveva essere in bundle con un nuovo gioco dell’idraulico più famoso al mondo. Kalinske aveva bisogno di un personaggio non solo carismatico ma che rappresentasse anche la cultura giovanile dei tempi e che potesse dare a Nintendo il colpo di grazia. In Giappone Yuji Naka, ispirato dal suo completare ripetutamente e velocemente il primo livello di Super Mario Bros, voleva creare un gioco veloce, pieno di azione e mozzafiato. Il personaggio di questo gioco sarebbe stato destinato a diventare la nuova mascotte Sega e, dopo tante bozze, la scelta cadde su un insolito porcospino: gli fu dato un bel colore blu cobalto, una schiena spinosa che si rifacesse le capigliature mohawk in voga in quegli anni, delle scarpette rosse in contrasto con il blu e soprattutto un caratterino frizzante e “figo”. Sonic The Hedgehog incorporò tutti questi aspetti nel suo gioco, che fu repentinamente messo in bundle con la console, e il suo arrivo nel mercato scosse il mondo. Il nuovo bundle del 1991, lanciato per giunta con un price drop visto che la console era già nel mercato da due anni, fu un successo strepitoso e il cammino di Sonic verso la gloria era solo all’inizio. Nintendo non fu da meno infatti, poco dopo, lanciò la sua nuova console a 16 bit in bundle con Super Mario World, il Super Nintendo, sulla carta migliore in quasi ogni aspetto (ricordatevi di quel quasi). Super Mario World, all’uscita, sembrò un gioco già visto con poca innovazione ed un gameplay per nulla rinnovato; questo titolo col tempo venne rivalutato ma purtroppo questo fu dovuto alla presenza sempre più forte di Sonic e la sua nuova console a 16 bit. Anche se Nintendo non fu pronta all’impatto Nintendo era fiduciosa del fatto di riottenere le luci della ribalta, sicura del fatto di avere il miglior hardware e le migliori IP. Kalinske non voleva assolutamente che il Sega Genesis fosse un fuoco di paglia, così corse ai ripari e tentò di capire come vendere la sua console di fronte ad una console onestamente più potente. Si scoprì l’unico punto di vantaggio a favore del Genesis contro lo Snes, ovvero il processore di 7.6 MHz contro quello di 3.7MHz dello Snes, e su questo punto si costruì tutta la nuova campagna pubblicitaria di Sega. Le nuove pubblicità parlavano di un fantomatico “blast processing”: non era altro che un modo per sottolineare la più rapida velocità di calcolo del Sega Genesis ma fu una parola “cool” studiata appositamente per essere utilizzata fra i giovani durante i dibattiti sulla console migliore senza necessariamente puntare sui fatti matematici. La pubblicità ebbe successo e servì non solo ad infuocare il dibattito ma ad infuocare la competizione fra le due compagnie, intente a dare il massimo.

Schieramenti

Nel Gennaio del 1992 Sega aveva in mano il 65% del mercato dei videogiochi: per la prima volta Nintendo non era più sovrana del mercato dei videogiochi ma questo servì a Nintendo per ricostituirsi e prepararsi a stracciare la competizione. Il parco titoli dei primi anni del Super Nintendo era già superbo: giochi come Sim City, F-Zero, ActRaiser, Gradius 3, Super Mario Kart, Super Ghouls’n Ghosts, Final Fantasy II e The Legend of Zelda: a link to the past erano giochi che da soli valevano l’acquisto di un Super Nintendo. Da come si può notare il Super Nintendo era indirizzato a chi veramente cercava una sfida in un videogioco, un gioco che ti mettesse di fronte una difficoltà risolvibile con un po’ di acume. Il Sega Genesis, del canto suo, era più per chi cercasse giochi più frenetici, sportivi ed immediati: il successivo Sonic 2, Shinobi, Stryder, la serie di Thunder Force, Streets of Rage e Gunstar Heroes. Questi giochi invece hanno in comune la velocità d’azione nonché d’animazione, temi un po’ più maturi e che possano coinvolgere più giovani e più facili da capire. Entrambe le console si appellavano ad una fascia di pubblico diversa nonché personalità diverse ed entrambe le compagnie diedero il massimo per compiacere il loro pubblico ideale. Consegnare un titolo in entrambe le piattaforme ai tempi era un’impresa più ardua: le due console avevano palette di colori diversi, processori diversi, sintesi sonore diverse e tutto ciò era ben visibile agli occhi dei giocatori. I programmatori dovevano spendere molte più ore davanti alle loro postazioni solo per poter tradurre un gioco al meglio per i possessori delle due console ma fortunatamente, ciò che veniva consegnato, era più o meno lo stesso gioco da entrambe le parti. Alcune compagnie, come Konami e Capcom, decisero invece di consegnare giochi diversi da entrambe le parti: Konami ad esempio consegno sullo Snes Super Castlevania 4 mentre sul Genesis consegnò Castlevania: Bloodlines. Il primo è un titolo più difficile, che si rifà ai classici sul Nes, e sul punto di vista dei controlli perfetti dopo averli imparati; il secondo invece è un titolo più facile, meno complesso nel comparto dei controlli ma più sbalorditivo sul comparto grafico, non solo per i dettagli ma anche per il fatto che mostrasse il sangue, un taboo nei Castlevania per Nintendo. Capcom consegnò a Nintendo nuovi titoli di Mega Man, come appunto il celebre Mega Man X, mentre per a Sega riservò una collezione dei vecchi titoli che i fan Sega potevano non conoscere. Aladin, sempre di Capcom, era un platformer in entrambe le console ma l’aspetto generale era ben diverso ed in questi casi vince il gioco più intuitivo e “flashy”; appunto la versione per Genesis è considerata la migliore.

Punto di svolta

Le cose per Sega giravano per il verso giusto e Nintendo, anche se a tentoni, si faceva sempre più spazio nel mercato dei videogiochi. Le cose per Sega però cominciarono a mettersi male verso la fine del 1992 più o meno parallelamente con il lancio dell’add-on Sega CD, periferica che permetteva di leggere i giochi su compact disk, all’epoca la tecnologia più potente e persino meno costosa. Nintendo vide una minaccia ma le cose non si misero male per la grande N… si misero male per Sega! Il Sega CD poteva essere un vero e proprio successo  in grado di spazzare una volta per tutte lo Snes; quello che fu lanciato su Sega CD furono titoli mediocri, punta e clicca dal PC (che non si adattano bene per le console) e giochi le cui scene in “full motion video” non finivano mai. Sega non riuscì mai a lanciare bene il Sega CD e per via delle scarse vendite la Nintendo, che stava per ricorrere ai ripari, si tranquillizzò. Come ormai è noto, grazie ad internet, la Nintendo era in contatto con Sony e Phillips per costruire un nuovo add-on per lo Snes in grado di leggere i CD ma, al di là del fallimento del Sega CD, il progetto non andò mai ad una vera conclusione e Nintendo finì col lasciare alcune licenze a Phillips per usare alcune sue IP sulla sua nuova console, il Phillips CDI, e a Sony le basi per la Playstation. Vista questa debolezza Nintendo, nel 1993 attaccò e ricordò ai giocatori chi aveva l’hardware più potente. Star Fox (o Starwing in Europa) fu il primo vero gioco 3D casalingo e il tutto era consegnato in un’arretrata cartuccia. È vero, Star Fox è famoso proprio per il suo FX chip, componente sviluppato dalla Argonaut Games che permetteva l’aggiunta di un processore extra, ma Nintendo mostrò come la loro console riusciva a superare Sega in ogni aspetto. Successivamente Nintendo implementò anche la grafica 3D prerenderizzata per il suo Donkey Kong Country, presentandolo, per scherzo, come un gioco per il successivo Nintendo 64; dopo aver rivelato che quelle immagini invece appartenevano allo Snes i fan esplosero e Donkey Kong Country finì col diventare uno dei giochi più venduti del 1994. In tutto questo Sega provò anche ad imitare queste imprese senza però raggiungere lo stesso traguardo di Nintendo. Virtua Racing, gioco di corse con grafica poligonale lanciato nel 1994, aveva un processore aggiuntivo nella cartuccia come Star Fox, il chip SVP; Sega prese la cattiva decisione di sviluppare il chip per conto loro e Virtua Racing finì per avere un sovrapprezzo nei negozi. Vectorman invece giocava sullo stesso piano di Donkey Kong Country, ovvero con la Grafica 3D prerenderizzata, ma nonostante il più veloce processore del Genesis permetteva un’azione più rapida Vectorman non fu semplicemente all’altezza della controparte. Il processo del 1993 vide l’industria dei videogiochi imputata nel processo contro la violenza nei videogiochi: Nintendo, grazie al neo introdotto sistema ERSB, si sentì libera di consegnare giochi più maturi, come il loro Super Metroid del 1994, più oscuro e spaventoso dei precedenti, e tal volta persino violenti, come Mortal Kombat 2 del 1994 e l’ottimo porting di Doom del 1995. Nintendo stava battendo Sega al suo stesso gioco, ovvero quello di accaparrarsi il pubblico maturo e alla ricerca dello stupore. Sega, nonostante stesse perdendo terreno, continuava a fare uscire ottimi giochi pubblicando anche le migliori versioni di Earthworm Jim, NBA Jam ed il primo Mortal Kombat. Tuttavia Sega si diede la proverbiale “zappa sui piedi” lanciando il suo ultimo add-on per il Sega Genesis, ovvero il 32X. Questa periferica era solamente un add-on che leggeva delle cartucce più avanzate con grafica a 32 bit e con un processore aggiuntivo; la scelta delle cartucce sembrò essere un passo indietro dopo la spavalda promozione dei CD ma il vero problema fu lanciare il 32X a pochi mesi dal lancio del Sega Saturn, la console Sega per la nuova generazione e già lanciata in Giappone. Il misto fra 32X e Sega CD fu un vortice che risucchiò milioni e milioni di dollari per investimenti che non portarono a nulla e che invece fecero sembrare lo Snes più potente che, da parte sua, non sviluppò alcun add-on.

La fine?

La  console war fra Snes e Genesis finì con i seguenti numeri: 49.10 milioni di SNES venduti e 30.75 milioni di console vendute per Sega (cifre stimate). La differenza non è poca ma i fan, specialmente di Sega, preferiscono vedere un pari; la battaglia fra Nintendo e Sega degli anni 90 è ancora soggetto di dibattito e ad oggi la guerra e tutto meno che finita. Moltissimi Youtuber ancora parlano di questa battaglia, chi giornalisticamente e chi da fan boy preferendo una parte rispetto ad un’altra. Sega, dopo un poco rilevante Sega Saturn ed un ingiustamente fallimentare Dreamcast, si è ritirata dal mercato delle console e oggi è un ottimo sviluppatore 3rd party che immette nel mercato titoli validissimi come la serie di Yakuza, Football Manager e i migliaia di titoli di Sonic, segno che i fan non hanno mai dimenticato Sega e che il loro impatto sul mercato è ad oggi importantissimo. C’è chi spera un ritorno di Sega sulle scene del mercato hardware ma tutto questo è solamente un utopia… alla quale però non smettiamo di credere.




Beat Cop

Pixel, Droga & Rock’n Roll!

Pixel Crow, piccola software house indipendente polacca, quest’anno ha regalato allo sconfinato panorama videoludico una bella ventata di freschezza con Beat Cop, un simpaticissimo gioco completamente in pixel-art 8-bit con il quale i giocatori con qualche anno in più alle spalle avranno l’impressione di stare giocando a un titolo per Commodore64 o Amiga.
Il titolo viene sviluppato con un mix di elementi ben distinti e shakerati tra loro, che fanno di Beat Cop un titolo in bilico tra un punta e clicca, un action dagli elementi investigativi con alcuni tratti propri dei GDR che lo rendono ancor più interessante considerando che il tutto si dispiega su una trama da film poliziesco.
Tra i vari personaggi si instaurano dialoghi che spaziano da quelli più seri a simpatici siparietti con battute scottanti e “nonsense”.

Storyline

Nel gioco, ambientato nella città di Brooklyn degli anni ’80, ci ritroveremo a vestire i panni del detective Jack Kelly che, in seguito a una rapina sventata nella villa di un senatore, viene implicato e accusato della scomparsa di alcuni preziosi tesori che erano contenuti all’interno della cassaforte nella stessa casa.
Il detective Kelly si vedrà revocare il tesserino e verrà declassato a semplice poliziotto di quartiere, a combattere la microcriminalità per le strade di New York. Da quel momento avrà a disposizione solo 21 giorni per dimostrare la propria innocenza e uscire riabilitato e con le mani pulite da questa sporca faccenda, muovendosi oculatamente tra malavita newyorkese e lealtà alle forze di polizia.

Gameplay

Il gioco inizia subito dopo il trasferimento in un nuovo dipartimento del NYDP, nel quale l’ex detective Kelly farà la conoscenza dei colleghi che, tanto per cambiare, mostreranno quel particolare carattere pungente e quel linguaggio irriverente e sboccato di ogni film poliziesco che si rispetti.
Ogni giorno dovremo scrivere sul nostro taccuino i comandi del sergente e successivamente scendere in strada a svolgere il nostro lavoro che si evolverà in relazione alle azioni compiute. Potremo far crescere, o decrescere, infatti, la nostra fama fino a 100 punti tra 3 diverse fazioni: polizia, mafia o crew (che rappresenterebbe il cartello della droga della città di Brooklyn). Una volta raggiunto il massimale in positivo si avranno dei bonus economici o investigativi, mentre raggiunta la soglia limite minima, nella maggior parte dei casi verrete “fatti fuori” e il gioco si concluderà con un bel Game Over, facendoci ricominciare dall’ultimo giorno lavorativo.
In Beat Cop le giornate saranno scandite da un orologio: allo scoccare delle 18:00 ritorneremo infatti al quartier generale per fare rapporto e raccogliere quello che abbiamo seminato in bene o in male. Durante le nostre ronde quotidiane, in parallelo allo sviluppo della storia principale, potremo decidere liberamente il da farsi: saremo liberi, infatti, di seguire tutte le missioni secondarie che vogliamo, ma si dovrà sempre tenere in considerazione il tempo a nostra disposizione, che scorrerà inesorabile. Qualora la giornata dovesse concludersi senza aver completato tutte le mansioni, riceveremo dei punti di penalità per ogni missione incompiuta.
Multe alle automobili in sosta vietata, con fari rotti o pneumatici consumati, oppure arrestare ladri, spacciatori e mafiosi, sventare suicidi, omicidi e rapine: tutti le mansioni del poliziotto “buono” con molteplici possibilità di interpretare anche il ruolo del cattivo, così tante che potrebbero non annoiare mai, se non fosse che a volte il gioco può diventare frustrante perché a causa di un errore si potrebbe dover ripetere l’intera giornata lavorativa, soprattutto se siete molto esigenti nei vostri confronti e pretendete di svolgere tutto come si deve.
Il gioco, per essere un indie, è discretamente longevo, specie considerando il fatto che Beat Cop ha diversi finali.

A suon di synth

La colonna sonora è semplicemente eccezionale. Sotto questo aspetto il team di Pixel Crow ha studiato una OST magnifica, perfettamente attinente ai suoni sintetizzati 8-bit e all’epoca in cui è ambientato il gioco. Sembrava di essere Axel Foley in Beverly Hills Cop e tutto ciò mi esaltava non poco, verrà probabilmente voglia anche a voi di farne la colonna sonora delle vostre giornate.

Tirando le somme

Beat Cop è, al momento, uno degli indie più divertenti e ben sviluppati che io abbia mai giocato. Non sono davvero riuscito a trovare dei difetti nel gioco, probabilmente anche grazie alla sua semplicità, ma soprattutto perché i ragazzi di Pixel Crow hanno davvero svolto un ottimo lavoro. Unico neo potrebbe essere la mancata localizzazione in italiano che per, chi non mastica molto la lingua inglese, potrebbe risultare un problema non da poco, anche perché il linguaggio utilizzato e ricco di abbreviazioni e slang che rendono difficile la lettura per i meno ferrati in materia.
Ad ogni modo Beat Cop è un gioco validissimo e che consiglio assolutamente di giocare: saranno soldi ben spesi che vi regaleranno ore di “pixeloso” divertimento.