L’evoluzione dei controller Pt.2 – gli anni 2000

I controller, dagli arcade alle console casalinghe, hanno fatto tanta strada, passando da controlli digitali a controlli analogici in grado di permettere movimenti a 360°. Quali altre sorprese attendevano i giocatori al volgere del millennio? Controller di precisione assoluta, con un design futuristico e funzioni all’avanguardia? Vediamolo insieme in questo nuovo articolo a continuazione del primo che vi invitiamo a leggere prima di questo.

La generazione 128-bit – la generazione X

Sega, dopo il fallimento del Saturn in Nord-America ed Europa, era decisa a lanciare una nuova macchina da gioco che spezzasse totalmente col passato e per farlo aveva bisogno anche di un controller che offrisse ai giocatori un nuovo modo di giocare i titoli SEGA. Il bianco controller del Dreamcast, che si rifaceva al 3D Pad del Saturn, non sembrava affatto un prodotto SEGA: la disposizione a sei tasti frontali fu abbandonata in favore del layout a rombo, dunque con quattro colorati tasti frontali come PlayStation e Super Nintendo, ma con i classici trigger analogici del precedente pad. Questo controller è in definitiva molto comodo, più piccolo rispetto al suo antenato, anche se non risulta il massimo per lunghe sessioni di gioco: al di là della strana scelta di far passare il cavo dalla parte bassa del controller e non da sopra, fu montata una levetta analogica convessa che, in assenza di una gommina come nel Dual Shock, scivola facilmente dalla pressione del pollice del giocatore, soprattutto quando la mano comincia a sudare dopo lunghe sessioni di gioco; in aggiunta a tutto questo, qualora ci serva, il controller del Dreamcast monta una croce direzionale rialzata, realizzata con plastica durissima e stranamente “iper-spigolosa”, un calvario per chi vuole giocare con gli eccellenti picchiaduro ospitati nell’ultima console SEGA. Tuttavia il nuovo controller per Dreamcast presentava anche due slot, quello frontale indicato per inserire la VMU, ovvero una piccola memory card dotata di un piccolo schermo a cristalli liquidi; non tutti i giochi sfruttarono questa caratteristica (molti giochi mostravano semplicemente il logo del gioco in esecuzione) ma altri invece, come Skies of Arcadia e Sonic Adventure 2, riuscirono a creare una sorta di interazione col gameplay in corso. Nell’altro slot i giocatori avrebbero potuto inserire  il Rumble Pack, più indicato visto che, nonostante possa accogliere una seconda VMU, non è possibile vedere il secondo schermo. Nonostante tutto, parte dell’abbandono dello sviluppo su Dreamcast è dovuto in parte anche al controller: che possa piacere o meno, la verità è che il controller presenta soltanto sei tasti quando PlayStation 2 e Xbox ne presentavano otto e dunque, ammesso che fosse possibile fare dei porting dedicati per Dreamcast, era impossibile per la console accogliere dei giochi che sfruttassero più comandi di quelli previsti. Il controller per Dreamcast non è assolutamente pessimo ma sicuramente SEGA avrebbe potuto fare di meglio.

Cos’è? È un meteorite? Un aquila? Un U.F.O.? No! È il cosiddetto “Duke“, il controller originale della prima Xbox! Questo titanico controller, all’apparenza, sembra presentare un layout a rombo come quello PlayStation o Dreamcast (vista anche la vicinanza fra SEGA e Microsoft in quel preciso periodo) ma in realtà, presenta invece il layout a sei tasti simili ai controller di Mega Drive e Saturn ma disposti in verticale! Non tutti capirono questo sistema e il tutto risultava abbastanza scomodo e poco risoluto. Il controller fu nominato “errore dell’anno 2001” da Game Informer,  ma Microsoft aveva un asso nella manica: il “Duke” fu messo in bundle con la console in tutto il mondo con l’eccezione del Giappone. Per quello specifico mercato Microsoft disegnò un controller che potesse meglio accomodare le più piccole mani dei giocatori giapponesi e così, su richiesta dei fan, il “Duke” fu presto sostituito dal migliore controller “S“. Con questo controller, il cui nome in codice era Akebono (fu il primo lottatore di sumo non giapponese a raggiungere il rank di Yokozuna), i giocatori ebbero in mano un controller veramente di qualità anche se non poteva essere considerato realmente uno dei migliori: fu scelto un più semplice layout a rombo preciso, come quello del DualShock, ma i tasti “bianco” e “nero” finirono in basso a destra dal set principale (i tasti colorati), rendendo il tutto poco comodo, specialmente quando quei tasti servissero immediatamente. I giocatori Xbox dovevano ancora attendere una generazione affinché ricevessero uno dei migliori controller mai realizzati. Il “Duke” però, fra amore e odio, lasciò comunque una qualche traccia nel cuore dei giocatori, tanto che l’anno scorso Hyperkin rilasciò una riproduzione ufficiale di questo strano controller per PC e Xbox One!

In questo rinascimento dei controller anche Nintendo decise di sperimentare con il joypad da lanciare con la successiva console. Il controller per il GameCube è all’apparenza molto strano ma una volta fatto il callo con le prime sessioni di gioco ve ne innamorerete! Il controller si accomoda perfettamente alla forma della mano, offrendo una saldissima presa, ma sarà l’anomala disposizione dei tasti la vera protagonista: al centro troveremo un bel tastone “A”, mentre alla destra, alla sinistra e al di sopra di questo tasto principale, ci saranno i tasti, rispettivamente, “B”, “X” e “Y”, tutti con una forma diversa. Questa scelta fu presa per permettere al pollice, impegnato principalmente col tasto “A”, di raggiungere tutti i tasti attorno, ma principalmente, secondo Shigeru Miyamoto, per permettere una migliore memorizzazione dei tasti del pad. Insieme a questi tre tasti ne troviamo tasti dorsali e una levetta “C” (in sostituzione dei tasti “C” del Nintendo 64) per un totale di sette tasti. Anche questo controller, come quello per Dreamcast, soffriva per un tasto in meno ma a differenza della sfortunata console SEGA, tramite alcuni stratagemmi, riuscirono ad aggiudicarsi dei buoni e gettonati porting dell’epoca anche con quello strano controller.
Più in là Nintendo produsse per GameCube il Wavebird, il primo controller wireless prodotto da un first party dai tempi di Atari. Il controller, che funzionava con le frequenze radio, mancava della funzione rumble ma risolveva in prima persona il problema dei cavi per terra, avviando così il trend, nella generazione successiva, di includere un controller wireless incluso con la console.
Un po’ come il DualShock, questo controller non ne ha mai voluto sapere di morire o passare di moda, tanto è vero che a tutt’oggi è considerato la quintessenza per giocare a qualsiasi gioco della serie Super Smash Bros.; a testimonianza di ciò esistono le “re-release” di questo particolare controller, nonché il Pro Controller PowerA (ufficialmente licenziato) per Nintendo Switch che aggiunge i tasti “home“, “” e “+” e un dorsale sul lato sinistro del controller (ovvero l’ottavo tasto mancante nell’originale).

“Se qualcosa funziona, non aggiustarla”: come anticipato nella prima parte, fu questa invece la filosofia di Sony per questa generazione. Il DualShock 2 rimase quasi lo stesso, implementando principalmente i tasti analogici per tutti i tasti frontali e dorsali, offrendo ancora più precisione del già precisissimo DualShock. PlayStation 2 è la console più venduta di tutti i tempi e un controller così funzionale è a testimonianza della qualità di questa superba macchina da gioco.

Eccellenza e motion control

Prima di introdurre il trend dei motion control, che molto caratterizzò questa generazione, vorremo prima ammirare il fantastico controller per Xbox 360. Questa volta Microsoft si superò consegnando una versione rivisitata del controller “S“, con una presa migliorata, un layout a diamante, permettendo al pollice di raggiungere i tasti con più facilità, quattro tasti dorsali come il DualShock, eliminando i tasti “bianco” e “nero“, e un bel “tastone” home che permetteva anche di avviare la console come un telecomando. La ciliegina sulla torta fu rappresentata dal jack per l’auricolare in bundle con la console in modo da connettere i giocatori online via chat vocale; una feature che diventerà obbligatoria dopo questa generazione. Questo controller diventò in poco tempo anche il controller non ufficiale della scena PC proprio per la sua incredibile versatilità e maneggevolezza e ancora oggi, per chi lo possiede sente il bisogno di acquistare la nuova versione per Xbox One, viene ancora utilizzato da moltissimi giocatori per PC di tutto il mondo. I primi controller in bundle con la console avevano la tendenza, dopo un po’ di usi, al drifting, ovvero un input fasullo dovuto ad alcuni residui di polvere del componente della levetta;  come la non compatibilità con gli HD-DVD e il “red ring of death“, il drifting fu il risultato della scelta di lanciare la console in fretta e furia ma fortunatamente tutti i problemi relativi ai primi lotti di console furono piano piano debellati, dunque anche i controller successivi al lancio, nonché quelli in bundle con i modelli “slim” e “S“, riscontrarono meno problemi di drifting.

Tuttavia, durante questa generazione non fu di certo questo controller a rubare la scena. Era il 2005, durante il periodo dell’E3, quando un trailer mostrò le capacità dello stranissimo controller per l’allora Nintendo Revolution (senza alcun video di gameplay, giusto per dare un ulteriore senso di mistero), in seguito divenuto Wii: la gente che lo utilizzava imitava azioni di ogni tipo, dal brandire uno spada e uno scudo, illuminare una stanza a mo’ di torcia, dirigere un’orchestra, ma anche azioni più comuni come tagliare ingredienti o pescare. In molti storsero il naso di fronte a questo controller a forma di telecomando ma la verità fu che il Wii Remote (o Wiimote) divenne ben presto, in un epoca in cui i tasti d’azione nei controlli erano otto (dieci se contiamo la pressione delle levette), un controller incredibilmente facile da utilizzare grazie ai suoi motion control. Persino genitori e nonni di tutto il mondo finirono per aver giocato, almeno una volta nella vita, a titoli come Wii Sport, Wii Play e molti altri titoli! Sebbene i titoli party erano quelli in cui era coinvolto più movimento, nonché i migliaia di titoli “shovel-ware” che finirono per riempire il catalogo dei giochi ufficiali Wii, non bisogna dimenticare titoli come The Legend of Zelda: Twilight Princess, Super Mario Galaxy, Metroid Prime 3, Mario Kart Wii, Disaster: Day of Crisis, Mad World o No More Heroes in cui il Wiimote aggiunse realmente un layer di profondità finora inesplorato. Il dominio motion control arrivò e tramontò col Wii ma è bene ricordare che fu un periodo molto particolare, tanto che arrivò a influenzare in un qualche modo anche la generazione successiva: ne sono ovvi esempi gli attuali controller DualShock 4 e Nintendo Switch, nonché il gamepad per Wii U (di cui parleremo più avanti).
Impatto a parte, cosa offre un Wiimote? In alto, insieme al pulsante power, troviamo un D-pad che, nonostante la strana posizione, funge perfettamente come un menù rapido in giochi come The Legend of Zelda: Twilight Princess e come metodo di controllo principale se utilizzato in orizzontale, diventando a tutti gli effetti un controller a là Nintendo Entertainment System visti anche i tasti “1” e “2” sull’altra estremità del controller, diventando un controller perfetto per i giochi platform 2D nonché gli stessi giochi per NES presenti nel catalogo della Virtual Console. Preso in verticale, esattamente sulla linea del pollice e indice troveremo un tasto grande “A” e un grilletto “B“, pronti immediatamente per l’uso mentre, sulla metà, troveremo invece i tasti home, “+” e “” (da questa generazione i veri sostituti dei tasti start e select); proprio sotto al tasto home, inoltre, vi è un piccolo speaker che riprodurrà alcuni effetti sonori dal gioco in esecuzione. Tuttavia un Wiimote, soprattutto se si vogliono giocare i giochi più belli, non è niente senza un Nunchuck, l’espansione naturale di questo controller: questa impugnatura offre al giocatore una buonissima levetta analogica e due ulteriori tasti, “C” e “Z“, sulla parte alta dell’impugnatura da premere con l’indice. I tasti effettivi, dunque sono sei (quattro se contiamo che “1” e “2” sono difficilmente raggiungibili in modalità Nunchuck), ma è chiaro che tutto ciò che viene a mancare viene compensato dai movimenti e dalle azioni da compiere, sia con il Wiimote che col Nunchuck, anch’esso parte dei motion control. Al lancio il Wiimote, che funge anche da puntatore (dunque un vero e proprio mouse), doveva includere sia accelerometro, che registra principalmente i movimenti, e un giroscopio che ne registra invece la posizione ma alla fine venne incluso solo il primo; più tardi fu rilasciato il Wii Motion Plus, un accessorio (una sorta di cubo) che ultimò definitivamente il controller per questa generazione aggiungendo il giroscopio, ma in seguito i futuri Wiimote furono costruiti con entrambi i componenti all’interno, rinominando il tutto in Wii Remote Plus. L’esperienza dei controlli per Wii furono strani e, tutto sommato, passeggeri ma i motion control sono a tutt’oggi presenti, in misure più o meno incisive (ma sicuramente meno presenti) a seconda dei giochi, come in Splatoon 2 o Super Mario Odyssey.

Per il resto Nintendo offrì un ulteriore controller a otto tasti rinominato Classic Controller, simile a un controller per Super Nintendo, per giocare al meglio i giochi della Virtual Console, specialmente quelli post-NES. Il Classic Controller Pro, che aggiunse principalmente due maniglie (a là DualShock) per una migliore presa, fu invece il metodo principale per giocare a giochi come Goldeneye 007 (2010) o Samurai Warrior 3 (tanto che venne incluso in bundle), sottolineando invece come i motion control, spesso, risultavano superflui e quanto invece servisse un controller semplice per godersi al meglio alcuni titoli.

L’annuncio del Wiimote colse tutti di sorpresa e fra quelli c’erano anche i concorrenti Microsoft e Sony. La prima lasciò perdere totalmente, almeno per l’inizio, in quanto investire immediatamente avrebbe rappresentato un rischio inutile, senza contare il fare la figura dei copioni, e poi l’analizzare con pazienza il trend dei motion control avrebbe permesso lo sviluppo di un set più originale e avanzato; ovviamente stiamo parlando del Kinect ma qui eviteremo di parlarne in quanto, essendo, sì, un metodo di controllo ma non un controller vero e proprio, non c’è nulla da “tenere in mano” e pertanto rimanderemo questa conversazione a qualche altro articolo. Sony invece cominciò a correre ai ripari in quanto, nonostante le critiche mosse al Wiimote, i motion control erano visti come la prossima grande cosa. Inoltre in pochi sanno che Sony aveva il DualShock 3 pronto sin dal lancio ma una causa legale contro la Immersion Corporation, proprio per la feature del rumble, li spinsero a togliere la vibrazione in favore dei motion control per offrire qualcosa di nuovo. Il Sixaxis fu annunciato otto mesi dopo l’annuncio del Wii Remote e in molti videro uno strafalcione del concetto offerto da Nintendo; il tutto fu aggravato non solo dal fatto che durante l’E3 del 2006 Warhawk fu l’unico gioco per PlayStation 3 a mostrare le capacità del Sixaxis ma gli sviluppatori alla Incognito Entertainment si lamentarono del fatto che il controller Sony arrivò soltanto 10 giorni prima dell’evento. PlayStation 3 fu lanciata fra il 2006 e il 2007 (in Europa) e agli imbarazzanti prezzo di lancio fu incluso un controller sconclusionato, le cui motion feature venivano utilizzate pochissimo, senza vibrazione e anche troppo leggero (dunque prono alla rottura in caso di caduta). Ciò che è peggio è che Phil Harrison, l’allora presidente della Sony Worldwide Studios, ebbe da dire che il rumble era una feature obsoleta e che il motion control era il futuro (senza contare che il Wiimote, seppur senza giroscopio, aveva motion control e vibrazione). I problemi per Sony finirono fra il 2007 e il 2008 quando il più efficiente e iconico DualShock 3, che (come abbiamo scritto nel precedente articolo) implementò i grilletti e la tecnologia wireless con batteria al litio ricaricabile, sostituì definitivamente il Sixaxis, finendo così la motion-avventura per Sony… o così sembrava!

La tecnologia Sixaxis finì direttamente all’interno di PS Vita, mentre su PlayStation 3, intenti e decisi a rilasciare un vero e proprio motion control, Sony rilasciò il PlayStation Move. Nonostante ancora scelsero di copiare direttamente ciò che faceva Nintendo, il nuovo controller Sony risultò ben costruito ed ebbe, fra alti e bassi, un buon successo: nonostante i movimenti potevano sostituire l’ausilio di qualche tasto, furono inclusi tutti i tasti di un DualShock intorno al controller e i primi giochi dedicati al Move, che dovevano essere giocati con la nuova ridisegnata Eye-toy, mostrarono degnamente il potenziale di questi controller. PlayStation Move, durante l’era della PlayStation 3, non ebbe il successo sperato ma questi furono interamente implementati per l’utilizzo di PlayStation VR, e dunque ancora oggi utilizzati dai giocatori di tutto il mondo.

(Nota: il Sixaxis non è presente in questa galleria in quanto differisce soltanto per la scritta “DualShock 3” sul lato alto del controller. Al di là dei motion control, che ovviamente in foto non si vedono, i due controller sono esteticamente identici.)

La mid-gen e i controller odierni

Con Wii Nintendo riuscì ad avvicinare molti casual gamer allontanando però molti hardcore gamer che nel frattempo, intenti a provare il gaming in HD, si spostarono verso Xbox 360 e PlayStation 3. Wii U fu rivelata durante l’E3 del 2011 e con essa il proprio “tablet controller”. Dopo una creativa disposizione dei tasti su Gamecube e un accantonamento generale durante la precedente generazione, Wii U proponeva un ritorno alle origini con una disposizione di tasti più vicina al Classic Controller Pro per Wii, un giroscopio e un touch screen per, letteralmente, vedere i giochi da una prospettiva totalmente diversa; insieme a tutto questo fu incluso un microfono, degli speaker e una telecamerina sulla parte alta dello schermo, dando come l’impressione che fosse una specie di Nintendo DS fisso. Nonostante le premesse, in pochi riuscirono a immaginare realmente un utilizzo innovativo del touchscreen, col risultato che pochissimi giochi sfruttarono al 100% le sue caratteristiche, come Pikmin 3, Splatoon ma soprattutto Super Mario Maker; insieme al controller, ad affondare fu l’intero sistema in quanto i developer difficilmente trovavano un vero utilizzo per il tablet controller, ma ciò che è peggio è che il pubblico non capì realmente cosa fosse il Wii U (un’espansione del Wii? una nuova console? Ne parleremo qualche altra volta).
In tutta questa grande confusione, il nuovo controller non sembrava piacere a tutti: c’era a chi piaceva e c’era chi lo odiava, e fra quelli c’erano sicuramente gli hardcore gamer, proprio quelli che la compagnia di Kyoto sperava di richiamare a sé. Fortunatamente per Nintendo, che si assicurò in ogni caso di rendere i precedenti Wiimote compatibili per il nuovo sistema, lanciò con la console anche il più versatile Pro Controller, molto più simile a un controller per Xbox 360. La particolarità di questo controller, come per il tablet, sta principalmente nel fatto di avere le levette analogiche allineate, entrambi sopra la parte inferiore in cui vi è il D-pad e i quattro tasti principali; in tutto questo, come ormai tutti i controller di quest’epoca, vi sono quattro tasti dorsali di cui due trigger. Il Pro Controller fu indubbiamente una mossa verso la direzione giusta ma, come sappiamo, non bastò per far spiccare Wii U fra Xbox One e PlayStation 4 lanciate l’anno successivo. L’esperienza di Wii U, anche in ambito di sistema di controllo, fu di grande aiuto in seguito per coniare Nintendo Switch.

Il nuovo controller per la Xbox One è una vera e propria evoluzione del già ottimo controller per Xbox 360, riportando in auge tutto ciò che rese grandioso il precedente controller, migliorandolo in maniera esponenziale. In seguito, Microsoft rilasciò anche l’Elite Wireless Controller con la quale, grazie a un kit dedicato, è possibile personalizzare il proprio controller con tasti programmabili sul dorso e anche sostituire levette e D-pad, offrendo un grado di personalizzazione mai visto in ambito controller.

Sony invece, forse anche un po’ a malincuore, sostituì l’ormai vecchio design del DualShock con uno nuovo più rotondeggiante, moderno e realmente all’avanguardia. Insieme alle novità del touch pad, dei sensori di movimento correttamente implementati e il led sul dorso del controller, il nuovo controller della PlayStation 4 si adatta ai tempi moderni offrendo al giocatore un immediato tasto share con la quale è possibile caricare sui social network i momenti salienti del proprio gameplay. In quanto a precisione, il controller per PS4 ha un retaggio che va indietro sino al primo DualShock, il che è senza dubbio un sinonimo di garanzia in quanto qualità dell’immissione degli input di gioco.

La natura ibrida di Nintendo Switch ha invece portato al concepimento di un controller formato da due pezzi, simile nell’esecuzione al Wiimote e il suo Nunchuck ma ben lontano dal suo concetto interamente focalizzato nei motion control. I due Joy-Con, sia in modalità portatile che in modalità fissa, offriranno al giocatore la tipica disposizione a diamante ormai tipica dei controller Nintendo, mentre le levette, a differenza del gamepad per Wii U o del suo Pro Controller, stavolta si presentano disallineate per permettere tramite un solo set di Joycon la possibilità di giocare in due giocatori semplicemente tenendo il controller in orizzontale; in tutto questo i controller sono stati muniti di accelerometro, giroscopio e la nuovissima feature HD Rumble, un particolare tipo di vibrazione in grado dare un layer ancora più profondo di realismo (tipico è l’esempio delle biglie in 1 2 Switch). I Joy-Con, purtroppo, si sono resi protagonisti di uno spiacevole malfunzionamento, ovvero quello del drifting dopo circa un anno assiduo di gameplay ma Nintendo, per fronteggiare il problema, si è offerta di riparare i Joy-Con anche dopo il superamento della data di garanzia.
Nel caso voleste evitare il problema del drifting, nonché prendere in mano un controller più tradizionale, allora vi converrà passare al più preciso Pro Controller che offre le stesse feature dei Joy-Con (persino il riconoscimento degli Amiibo) ma con una presa decisamente più comoda e rilassata. In più è presente un D-pad in quanto scartata nei Joy-Con per permettere due pezzi perfettamente speculari e che si prestassero al gioco in due giocatori. Se non vuoi essere considerato un principiante a vita allora ti converrà passare al Pro Controller stasera stesso!

Futuro?

Finisce così la nostra strada che ci ha portato dai joystick ai joypad ma ovviamente, nonostante gli headset VR e chissà quali future diavolerie, i controller saranno destinati ad accompagnare per sempre il giocatore. Quali saranno le future innovazioni per i controlli? Come si controlleranno i videogiochi di prossima generazione? E in tutto questo: qual è il vostro preferito? Fatecelo sapere nei commenti!




L’evoluzione dei controller Pt.1 – Dal digitale all’analogico

Da giocatori ci concentriamo spesso su tanti aspetti dei videogiochi: grafica, artwork, sonoro, storia, contenuti extra e molto altro, ma ciò che li lega realmente è la giocabilità. E cosa detta la giocabilità? Qual è quella bacchetta che dirige quella sinfonia rappresentata dal gioco? Ovviamente è il controller, un accessorio fondamentale per godersi appieno gli infuocati gameplay di moltissimi videgame. Facendo eccezione della cara accoppiata “mouse e tastiera“, entità indissolubile dalle postazioni PC, daremo uno sguardo ai controller first party delle console con la quale sono stati lanciati, dalla comodità alle innovazioni apportate, nonché eventuali evoluzioni come il passaggio dal controller originale PlayStation al Dual Shock.

Dal Joystick al D-pad

In principio c’erano le arcade e i loro ingombranti cabinati diedero una soluzione tanto facile quanto intuitiva. Il piano di controllo presentava solitamente uno stick e dei tasti per eseguire delle azioni, come sparare in giochi come Berserk e Space Invaders o saltare in Donkey Kong. I videogiochi dei tempi erano molto semplici e spesso e volentieri era molto raro trovarne uno che usasse più di un tasto. Nonostante tutto, i primi produttori di console ebbero parecchia difficoltà a tradurre quel set di controlli in un qualcosa di casalingo e a basso costo (proprio per questi  motivi gli arcade stick, come il controller base del Neo Geo, costano parecchio). Il Fairchild Channel F, lanciato nel 1976, si avvicinò parecchio al set da salagiochi, incorporando direzione e azione (nonché anche rotazione) sullo stesso stick, ma fu il controller dell’Atari 2600, rilasciata l’anno successivo, a restituire più fedelmente l’esperienza arcade in quanto più semplice e intuitivo. Anche soltanto vedendo in fotografia si riesce tranquillamente a immaginare l’impugnatura del contoller: la mano sinistra finisce per gestire lo stick mentre la mano destra si occupa di tener saldo il controller e con il pollice premere il tasto rosso che si andrà a posizionare perfettamente sotto di esso. La semplice impugnatura permise a chiunque di capire come funzionassero gli all’ora nuovi videogiochi e furono mosse del genere che portarono l’Atari 2600 di diventare la più venduta macchina da gioco della cosiddetta seconda generazione di console. Lo stile “joystick” fu emulato immediatamente, come dimostrano i controller base per Magnavox Odyssey² (punto cardine del nostro ultimo articolo), Colecovision e Commodore 64, ma la vera sorpresa è che questo set, nonostante la rivoluzione del D-pad e delle levette analogiche (di cui ovviamente parleremo più avanti), è sopravvissuto fino a oggi, principalmente come flight stick usati solitamente nei simulatori di volo per PC.
Va inoltre ricordato che Atari fu anche la prima compagnia a offrire dei controller wireless (radio) first party; più in là vennero prodotti controller wireless per tutte le console ma fu solo tanti anni dopo, col Nintendo Gamecube, che una compagnia first party prese in considerazione di produrre controller wireless per la propria console.

Parallelamente allo stile “Joystick“, anche nelle arcade apparvero giochi che sfruttavano quattro tasti disposti a croce che in un qualche modo indicavano la possibilità di eseguire qualcosa di direzionato: è il caso di Vanguard, famosissima prima hit della SNK, la cui navicella pilotata poteva sparare in quattro direzioni (ricordiamo che è possibile provare Vanguard nella SNK 40th Anniversary Collection). Il controller dell’Intellivision (di cui parlammo nel nostro vecchio articolo delle impressioni a caldo dell’Intellivision Amico) anticipò il concetto del D-pad con il suo strano dischetto metallico girevole in grado di registrare ben 16 direzioni ma il risultato non fu dei migliori in quanto concepito come una sorta di sostituto dello stick, dunque messo in alto nel controller, e perciò risulto scomodo e poco intuitivo.
In Giappone intanto un giovane Gunpei Yokoi, tornando a casa dal lavoro, vide un signore giochicchiare sulla metropolitana con la sua calcolatrice tascabile spingendo tasti a caso. Da quell’immagine il geniale inventore visionò un videogioco che fosse portatile, tascabile e possibilmente costruito con la stessa tecnologia della calcolatrice. Quello che ne venne fuori furono i primissimi Game & Watch, la prima incursione di Nintendo nel campo dei videogiochi portatili (la prima in assoluto fu la MB Microvision) e questo stesso concetto si evolverà in futuro nello stravolgente Game Boy. A ogni modo, i Game & Watch presentavano spesso metodi di controllo sempre diversi, a seconda del gioco, ma fu nel 1982 che il D-pad, come vera e propria crocetta direzionale, fece la sua prima apparizione nel Game & Watch di Donkey Kong, appartenente alla serie Vertical Multi Screen (a sua volta, questi particolari modelli con due schermi, apribili a conchiglia, ispireranno invece la creazione del Nintendo DS… vedi un po’!).

I Game & Watch erano piccoli e la loro tecnologia poteva permettere soltanto gameplay semplici e passeggeri, perciò il D-pad, per quanto innovativo, non veniva usato costantemente per questi portatili. Fu invece col Famicom che il D-pad prese piede e divenne un punto di riferimento per tutti i controller a venire: lo stile “Joystick” fu messo da parte per il nuovo modello “Joypad” in cui il controller passò da una presa verticale a una orizzontale che permetteva i movimenti con il pollice della sinistra e le azioni, una in più rispetto al controller di Atari, con quello della mano destra. Nintendo stava per lanciare il Famicom con tasti quadrati e di gomma ma poco prima del lancio il design dei controller fu cambiato in favore dei più classici tasti rotondi e di plastica, da sempre i più indicati in quanto quelli in gomma sono proni al deterioramento e spesso finiscono per funzionare sempre con più difficoltà (gli stessi tasti start e select dei controller Nintendo pre-N64 finivano per deteriorarsi). Con questo design furono girate le primissime pubblicità del Famicom: notate bene la forma dei tasti.

I controller del Famicom fuorono saldati all’interno della console e nel secondo controller i tasti start e select furono scartati in favore del microfono, caratteristica poco utilizzata ma che comunque diede un certo grado di innovazione, tanto che fece ritorno molti anni dopo col Nintendo DS. Il Famicom arrivò qualche anno dopo in America, Europa e Australia col nuovo nome Nintendo Entertainment System: oltre al nome fu rinnovato l’aspetto generale della console, più simile a un dispositivo HI-FI da mettere nello stesso mobile in cui venivano messi videoregistratori, mangianastri e giradischi, e ovviamente i controller, stavolta staccabili, con i cavi che uscivano dal lato lungo alto dei pad (e non dai lati corti come nel Famicom), più tozzi, senza la feature del microfono e con un nuovo design più serioso e futuristico.

Questo modello fu subito imitato da SEGA e Atari con le loro console Master System, terzo re-design della serie SG-1000, e Atari 7800 che rimpiazzarono loro vecchi joystick con dei joypad (Atari lanciò i suoi nuovi joypad soltanto in Europa). Il design del D-pad Nintendo era (ed è a tutt’oggi) un marchio registrato così i concorrenti aggiunsero una specie di dischetto nei loro controlli direzionali, una buona soluzione per evitare ripercussioni legali da parte di Nintendo. I loro nuovi controller furono tanto comodi quanto la loro controparte ma, per quanto il tasto start fu incorporato nei tasti d’azione, per mettere in pausa il gioco bisognava avvicinarsi alla console per premere l’apposito tasto per fermare il gameplay se si voleva fare una capatina in bagno.

La generazione 16-bit

Ad aprire le danze per le console di nuova generazione fu NEC con il suo PC-Engine (o Turbografx-16 negli Stati Uniti). Il controller in bundle con la console non portava alcuna innovazione, il suo design era pressappoco identico a quello del Famicom/NES, ovvero una croce direzionali, due tasti azione e due tasti menù; tuttavia, a rendere unico questo controller erano le sue levette per regolare il turbo, feature solitamente trovata in molti controller di terze parti qui invece inserite in un controller first party, probabilmente l’unico in tutta la storia dei videogiochi.

SEGA Mega Drive, o Genesis in Nord-America, arrivò in Giappone nell’Ottobre del 1988. Con il rinnovato hardware arrivò un nuovo precisissimo e più grande controller: la croce direzionale fu incastrata in un dischetto e il controller presentò un tasto d’azione in più e un tasto start di plastica al di sopra della stringa dei tre; questo controller fu inoltre il primo ad abbandonare il design quadrato “a telecomando” in favore del più moderno e comodo design tondeggiante, decisamente più ergonomico.

Nel 1990 Nintendo rispose al Mega Drive con il Super Famicom, la loro nuova macchina 16-bit (per vedere tutti i risvolti della grande console war dei 16 bit vi consigliamo di leggere questo articolo). Come Sega, Nintendo accompagnò il nuovo hardware con un nuovo rinnovato controller: anche la compagnia di Kyoto optò per un design più curvo ma aggiunse alla stringa dei due tasti d’azione del Famicom/NES un ulteriore stringa di due tasti al di sopra della prima, avviando così il trend del layout a diamante/romboidale, il tutto un po’ più obliquo rispetto al precedente controller i cui due tasti erano perfettamente orizzontali; in aggiunta alla nuova stringa doppia vennero anche aggiunti i due tasti dorsali “L” e “R” posizionati sul bordo alto del controller dove poggiavano naturalmente le dita indice di entrambe le mani, offrendo così al giocatore un controller a 6 tasti molto intuitivo e per nulla complicato.

Nonostante SEGA fosse il leader del mercato, il Mega Drive aveva solo tre tasti d’azione, tre in meno rispetto al Super Famicom/Super Nintendo  e la loro mancanza si sentiva principalmente per i super popolari Street Fighter II e Mortal Kombat che sfruttavano un set di sei tasti: per Street Fighter II: Special Champion Edition, la seconda versione del picchiaduro Capcom scelta come base per il porting per SEGA Mega Drive, bisognava alternare pugni e calci premendo il tasto start (togliendo al giocatore qualsivoglia possibilità di mettere il gioco in pausa) mentre per il porting di Mortal Kombat il tasto start fu impiegato per la parata dando al giocatore uno strano metodo per alternare pugno forte e pugno debole. SEGA più in là non poté fare altro che lanciare un nuovo controller a sei tasti, diversamente da quello Nintendo disposti a stringhe di tre uno sopra l’altro. Se non altro questo controller ricalcava perfettamente il set di tasti di Street Fighter II in Arcade e molti giocatori, ancora oggi, preferiscono questo specifico set per i tornei dei più recenti capitoli. Tuttavia SEGA dovette rinnovare il proprio controller mentre Nintendo rimase con lo stesso set dal lancio fino alla fine del ciclo vitale del Super Famicom/Super Nintendo, offrendo dunque un efficiente controller sin dall’inizio.

Il layout a tre tasti proposto da SEGA, sia a doppia stringa che a singola stringa, fu comunque ritenuto molto comodo e, così come la libreria dei giochi di Mega Drive e Super Nintendo, la disposizione dei tasti diventò anch’essa un motivo di preferenza. A testimonianza della sua comodità ne sono controller per Atari Jaguar e quello per 3DO che alla stringa di tre tasti, ne aggiunse due  dorsali e un tasto menù in più. Quest’ultimo controller è famoso per aver incluso, nel pad stesso, una porta per il multigiocatore (permettendo dunque, potenzialmente, a un infinito numero di giocatori di partecipare a un gioco multiplayer!) e un jack per gli auricolari, qui usato per ascoltare il sonoro ma che verrà ripreso, anni più tardi, per permettere ai giocatori di comunicare in ambiente online in controller come quello per Xbox e Dual Shock 3. Anche NEC utilizzò questo layout per lanciare il suo controller a sei tasti da lanciare col porting di Street Fighter II: Champion Edition per PC-Engine e lo stesso design (anzi, lo stesso controller) fu messo in bundle col PC-FX, suo successore meno fortunato.

La generazione 32/64-bit e l’arrivo degli analog stick

Ad avviare le danze per la nuova generazione fu SEGA che con il suo Saturn lanciò il suo nuovo controller che si rifaceva al Mega Drive: fu diminuita la corsa dei tasti per una maggiore precisione nei controlli e ne furono aggiunti due  dorsali per un totale di otto, a oggi il numero essenziale per ogni buon controller che si rispetti. In Nord-America ed Europa i controller che arrivarono avevano dimensioni diverse da quelli del Giappone: il design era sostanzialmente più massiccio e in molti lo trovarono scomodo; pertanto SEGA più in là sostituì i controller in bundle con la console con i più piccoli, comodi e leggeri controller destinati al Sol-Levante, stavolta di colore nero lucido come il design per la console in Nord-America e Europa. Questo controller non portò grandi innovazioni ma è a oggi uno dei più comodi e belli mai realizzati.

Come oggi si sa, PlayStation nacque da un accordo fallito fra Sony e Nintendo e il suo controller ne riflette le conseguenze: la disposizione dei tasti si rifà a quella del Super Nintendo, una forma a rombo più retta e per niente inclinata, con l’aggiunta di due tasti dorsali extra, facendo partecipare anche le dita medie di entrambe le mani al gameplay. Il controller Sony aggiunse due impugnature al di sotto del pad per una presa ancora più comoda e solida, l’ideale soprattutto per chi non avesse mai preso in mano un controller. Teiyu Goto, il suo designer, ebbe la geniale idea di utilizzare simboli, anziché lettere, che rappresentassero funzioni universali per qualsiasi videogioco:

  • Il triangolo verde rappresenta il punto di vista: alla punta del triangolo ci sarebbe la testa mentre la sua area rappresenta il suo campo visivo;
  • Il quadrato rosa rappresenta un foglio di carta: questo tasto sarebbe dovuto servire a richiamare i menù o i documenti;
  • La croce e il cerchio, rispettivamente blu e rosso, rappresentano il “no” e il ““: questi tasti sarebbero dovuti servire per prendere decisioni.

Anche se questo schema non fu mai assoluto, la disposizione dei simboli risultò molto intuitiva e fu molto facile memorizzare questo nuovo layout di tasti.

Tuttavia, la vera rivoluzione fu lanciata col controller Nintendo 64, il primo a includere (dal lancio) una vera levetta analogica, per un totale controllo dei movimenti a 360°. Il tridente, come spesso chiamato dagli appassionati, presentava una disposizione di tasti frontali con i due grossi “B” e “A” uno sopra l’altro e un set di tasti “Cdisposti a croce accanto ai primi due, dando al giocatore una disposizione simile a quella del Saturn ma chiaramente con funzioni diverse: i tasti “C“, di colore giallo, servivano a dare al giocatore un primordiale controllo dual analog in modo da offrire al giocatore un sistema per controllare la telecamera in giochi 3D come Super Mario 64 o Banjo Kazooie o mirare in sparatutto come Quake e Goldeneye 007. In quanto a dorsali il controller ne offriva tre ma, non ci si trovava mai con un gioco che sfruttasse tutti e nove i tasti, bensì sempre con otto: dietro l’impugnatura della levetta analogica si trova il tasto “Z” e pertanto, qualora il giocatore dovesse usare questa impugnatura, non gli verrà mai richiesto di premere il tasto “L” che si trova al di sopra dell’impugnatura col D-pad.
Nonostante in molti non trovassero ergonomico questo controller (in molti ancora oggi lo impugnano in maniera sbagliata) esso rappresentò il punto di svolta per tutti i controller a venire e, come risultato, Sony e SEGA dovettero rivisitare i propri mentre, Nintendo, ancora una volta, rimase con lo stesso pad dal lancio fino alla fine del suo ciclo vitale.

Chiusa una porta si apre un portone e infatti Sony rilasciò il più completo controller DualShock, con due levette analogiche per permettere tutto ciò che offriva  il rivale del N64, e l’innovativa funzione rumble inclusa all’interno del controller, a differenza del controller Nintendo a cui serviva attaccare il rumble pak. In aggiunta a queste feature innovative, le levette analogiche reagivano alla pressione esattamente come dei tasti, diventando ufficialmente “L3” e “R3“. Molti titoli furono ripubblicati per offrire i nuovi controlli analogici, come Resident Evil: Director’s Cut Dual Shock Ver., ma le future pubblicazioni si concentrarono nell’offrire sia il controllo analogico che il controllo tramite D-pad che, nonostante la coesistenza, cominciava a cedere il passo a questo nuovo tipo di controlli.
Il nuovo controller Sony fu così efficiente che il design generale, fra la prima PlayStation e la terza, subì pochissime rivisitazioni, offrendo al giocatore una presa e un controllo vicino alla perfezione: per la successiva generazione Sony cambiò i tasti digitali in tasti analogici, che ovviamente reagiscono alla quantità di pressione applicata, mentre su PlayStation 3 furono implementati i trigger analogici e resero l’intero controller wireless, con la possibilità di ricaricare la batteria a litio via USB. Alla fine il controller cambiò radicalmente soltanto con l’arrivo di PlayStation 4, con la quale fu implementato il piccolo led per identificare il giocatore, il touch pad e accelerometro a tre assi e giroscopio a tre assi, migliorando e implementando correttamente quello che non riuscirono a consegnare con il controller Sixaxis (di cui parleremo più avanti).

SEGA dal canto suo aggiornò il suo sistema di controllo con il nuovo e rinnovato 3D Pad, un controller decisamente più grande rispetto al modello base. Incluso in bundle con Nights into Dreams…, il 3D Pad può sembrare un controller scomodo e ingombrante ma in realtà è invece risulta ergonomico offrendo una presa più rilassata, particolarmente efficiente in giochi picchiaduro come Vampire Warriors: Darkstalkers’ RevengeStreet Fighter Alpha 2 o Virtua Fighter 2. Sebbene non abbia la funzione rumble e i controlli analogici non siano stati implementati per tutti i giochi a venire, il 3D pad fu invece il primo controller a implementare i Trigger analogici dorsali, caratteristica fondamentale di ogni buon controller per console o computer.

Col cambio della prospettiva, dai giochi 2D a quelli 3D, cambiarono anche i controller che da questo punto in poi, non sarebbero mai più stati gli stessi. Mutano i giochi, mutano i controller. Come sarebbero stati i controller successivi? Aspettate il prossimo articolo e continueremo a ripercorrere l’evoluzione dei controller fino al giorno d’oggi!




Oppaidius Summer Trouble! – Un’estate indimenticabile

Circa un anno fa avevamo parlato della demo scaricabile su Steam di Oppaidius Summer Trouble!, una particolarissima visual novel, sia per l’art style che per il suo umorismo molto parodistico, con giusto un pizzico di italianità. Ai tempi non abbiamo potuto fare a meno di lodare il già ottimo lavoro del creatore Vittorio Giorgi che è stato capace di consegnare un prodotto di altissima qualità (seppur in uno stadio ancora incompleto). Da Dicembre, dopo un kickstarter di successo, la full version di Oppaidius Summer Trouble! è arrivata su Steam e finalmente abbiamo avuto modo di conoscere la simpatica (e rotondissima) Serafina, una ragazza che appare al protagonista quasi come un miraggio. Come si snoda la nostra avventura grafica? Beh… Scopriamole… Cioè… Scopriamolo insieme!

L’estate non piace a tutti…

In Oppaidius Summer Trouble!, nonostante saremo in grado di scegliere il nome del nostro personaggio, controlleremo un tipo un po’ asociale, abbastanza nerd, che odia l’estate: non si diverte, la vive male per colpa dell’afa e perciò preferisce rimanere a casa a giocare ai videogiochi (con una console che sembra proprio essere un PC Engine Duo-RX). Un giorno però un’improvvisa visita a casa nostra cambierà la vita del protagonista per sempre: ecco Serafina, la nuova vicina appena trasferitasi in cerca di nuove amicizie e giusto di un po’ di Latte! Il nostro protagonista non potrà fare a meno di notare i suoi due ingombranti seni (e il fatto che chieda proprio il latte!) e comincia a non pensare ad altro, al punto di dubitare della sua esistenza. Lo scopo delle conversazioni e delle scelte da compiere, vero fulcro del genere visual novel, sta nell’ascoltarla, capirla ma anche capire il protagonista, sfruttando questa nuova conoscenza per imparare a crescere e superare i nostri limiti. Oppaidius Summer Trouble! in poche parole racconta una storia ed è una visual novel che poco si presta al carattere del giocatore; il personaggio controllato ha delle caratteristiche ben delineate e per tanto, per quanto ci possa divertire il selezionare le risposte in base a un nostro gusto personale, servono delle “risposte giuste” per ottenere il vero finale. Dopo la prima run (in cui si otterrà sempre il finale A) avremo modo di accedere al gioco+ in cui potremo saltare tutti i dialoghi e arrivare direttamente alla selezione delle risposte. Fra i sogni di Serafina, i save/load state e il gioco + il giocatore ha una vasta gamma di metodi che lo possano portare a ottenere il vero finale della storia e ciò non può che essere un grande punto a favore di ciò che riguarda l’interfaccia utente.

È ovvio che i punti focali di questo titolo sono il comparto testuale e quello grafico: le linee dei dialoghi riescono a farci ridere, soprattutto per le possibilità delle nostre risposte che vanno dal normale, all’assurdo e talvolta al pervertito! Non tutte le risposte incideranno sul finale e perciò, di tanto in tanto, potremo divertirci a dare qualche risposta un po’ fuori luogo. Non mancheranno valanghe di easter egg e riferimenti a videogiochi del passato, un tipico tocco di classe per un gioco che, in un modo o nell’altro, offre anche qualche spunto retrò – prima fra tutte la musica resa con il chip sonoro YM2151, utilizzato nei computer Sharp X68000 e in alcune schede arcade Konami e Sega, ma di questo parleremo più avanti –. Di tanto in tanto il gioco svia dalla classica visual novel e ci saranno momenti in cui ci ritroveremo a fare qualcosa di diverso dal leggere e dare risposte, come fare una nuotata a colpi di tasti “destra” e “sinistra”, controllare un ambiente col mouse come un punta e clicca o… Minigiochi di altro tipo! A volte lo storytelling ci offre una sorta di abbattimento della quarta parete, nulla di incisivo come in Undertale ma comunque il tutto è implementato in maniera molto intelligente per quanto semplice: a volte le risposte in un dialogo saranno un po’ “a senso unico”, qualche altra volta il mouse si sposterà da solo, ma su questo argomento non vogliamo dilungarci molto in quanto in generi come questo è molto facile dare spoiler per sbaglio. Il più grande difetto è la scarsa longevità e non ci vorrà molto dopo il primo finale “trovare” le risposte giuste per ottenere i finali B, C, e BC;
In tutto questo, insieme ai finali della storyline, sbloccherete piano piano le immagini della galleria la cui maggior parte saranno artwork utilizzati per segnalare determinate cutscene (in quanto qui non ci sono vere e proprie animazioni). Fra le immagini ce ne saranno alcune da sbloccare tramite il minigioco Oppaidius Poker dalle fattezze di un gioco per Nintendo Game boy. Ogni finale della visual novel ci darà un credito in più al poker (cinque mani) ma vincere, ovvero arrivare al punteggio preposto da un avversario, è tutt’altro che semplice: si gioca col mazzo intero per due persone (quindi costruire una qualsivoglia scala è sempre un grosso rischio) e le coppie al di fuori dei jack, regina, re e asso saranno utili solo per le doppie coppie. Insomma, le migliori strategie per giocare a poker non risultano sempre le migliori e spesso e volentieri si dovranno adottare strategie ben contrarie al senso comune.

Amore o pulsione?

Lo stile di Vittorio Giorgi, creatore, disegnatore e mente dietro Oppaidius Summer Trouble!, accenna sia gli stili più in voga in Giappone, dunque anime/manga, e probabilmente anche un tocco più occidentale visto che vengono a mancare molte di quelle caratteristiche prettamente nipponiche. La sua determinazione nel portare avanti una visual novel, genere dominato principalmente da developer giapponesi e pensato per un pubblico orientale, è veramente da imitare; il panorama videoludico italiano si apre a quello nipponico e lo fa restituendo un genere molto di nicchia e che in Europa (salvo le eccezioni di Phoenix Wright e pochi altri) è sempre stato poco considerato, soprattutto per il gap culturale. Oppaidius Summer Trouble! ha caratteristiche di humor e contesti prettamente italiani e dunque i giocatori occidentali potranno agire senza “sembrare fuori luogo” nonostante le tematiche romantiche/erotiche. Visto che ne stiamo discutendo, questa visual novel cade nel sub-genere ecchi, fatto per la maggior parte di scene “vedo-non vedo” e nessuna scena di sesso esplicito, ma dobbiamo purtroppo anticipare che ci sono scene di topless, quindi, si, rispettate il PEGI 18 o diventerete ciechi, specie se porterete il boobage level a 100 (esatto, è nelle opzioni), a quel punto vi esploderà il cervello – siete stati avvisati –! Per il resto, la grafica include dei bei background dalle fattezze di un gioco per il PC-98 della NEC o il PC Engine, sempre prodotto dalla medesima leggendaria compagnia giapponese, il tutto composto esattamente come se fosse un bel gioco dei primi anni ’90.
Altro punto da tenere in considerazione, che ci riporta all’epoca d’oro delle visual novel giapponesi, sono i temi che si avvalgono del chip sonoro YM2151, utilizzato nei computer Sharp X68000 e in alcune schede arcade Konami e Sega; i temi sono su uno stile synthpop, a cavallo fra anni ’80 e ’90, che si adatta perfettamente a questo genere in voga in Giappone, cresciuto esponenzialmente grazie soprattutto a computer casalinghi come i già citati PC-98, noto per aver ospitato una miriadi di graphic novel a stampo erotico, o il PC Engine. Tuttavia parlare di erotismo, per quanto giusto, non è tutto, specialmente per il fatto che Oppaidius Summer Trouble! tende a riportare (i giocatori più anzianotti) in estati fatte di divertimento spensierato, nuove scoperte ed esperienze, soprattutto in campo sentimentale e non necessariamente carnale, o per lo meno non nel senso più volgare. A testimonianza di ciò è la lettera che Norihiko Hibino, guest musician che ha lavorato in passato per saghe come Metal Gear, Zone of Enders e Bayonetta, ha voluto dedicare allo sviluppo di Oppaidius Summer Trouble! e allo splendido lavoro fatto da Vittorio Giorgi:

«è bello sapere che molte persone in tutto il mondo continuano ad apprezzare questo tipo di contenuti originariamente creati in Giappone. La canzone che ho composto per Oppaidius Summer Trouble! si intitola “One Summer Memory“, ed è un pezzo che rievoca le belle giornate estive. In Giappone le quattro stagioni sono molto distinte fra loro e il godersi la stagione in corso o ripensare a quelle trascorse è una parte molto importante della nostra cultura. Persino una calma mattinata invernale può richiamare un qualche sentimento nostalgico per le stagioni passate in ognuno di noi. Spero che l’ascolto di questa canzone potrà aiutare le persone ad apprezzare qualsiasi stagione in corso e, in particolare, richiamare una bella giornata estiva. Grazie per l’opportunità di essere parte di questo gioco»

Il grosso della colonna sonora stato composto da Luca della Regina, compositore dello SHMUP italiano in corso di lavorazione Xydonia, mentre i restanti guest musician comprendono Masashi Kageyama (Gimmick!, Sunsoft) e Tsuyoshi Kaneko (Segagaga, Yakuza, Thunder Force IV), entrambi compositori di altissimo rango e apprezzatissimi in tutto il mondo. Inutile dire che il lavoro consegnato è di altissimo livello.

(Da adesso… Solo pensieri innocui… Come due bei cuccioli… Due…)

Tempi migliori

Recensire una visual novel dalle nostre parti è molto difficile, principalmente per il fatto che al di fuori della saga di Ace Attorney e pochi altri giochi, questo genere non ha mai attecchito veramente, ma ciò non toglie che il lavoro compiuto da Vittorio Giorgi, che firma il tutto con il marchio SbargiSoft, è senza dubbio di alta qualità già a primo impatto. Sicuramente potevano essere migliorati molti punti come la longevità, e con esso l’aggiunta di più finali, l’interfaccia grafica del menù iniziale e della galleria e la modalità poker, ma rimane comunque un validissimo acquisto e un ulteriore titolo indipendente italiano che si aggiunge alla sua sempre più vasta scena videoludica nostrana, disponibile al prezzo di 6,99€ su Steam. Chissà se vedremo Oppaidius Summer Trouble! presto su altre piattaforme come Nintendo Switch o Sony PlayStation 4. Se siete interessati alle visual novel di stampo nipponico Oppaidius Summer Trouble! è sicuramente un titolo da non perdere: un’ottima prima opera per Vittorio Giorgi alla quale auguriamo un buon proseguimento di carriera!




Atari Jaguar: quando la potenza non è tutto

Atari: il marchio che introdusse i videogiochi al mondo negli anni ’80, un tempo magico, in cui la grafica e il suono venivano compensati con l’immaginazione del singolo giocatore. Come sappiamo e abbiamo accennato anche in un nostro precedente articolo, Atari godeva di grandissima fama, tanto da essere sinonimo di videogioco, ma la crisi del 1983 portò alla chiusura di Atari.Inc e il suo marchio cadde nell’oscurità, per sempre eclissato da Nintendo. Sotto la leadership di Jack Tramiel, fondatore di Commodore che acquistò i suoi asset hardware per poi rilanciarli sotto il nuovo brand Atari Corporation, la compagnia si rialzò in piedi con lancio di Atari 7800; sebbene la console non costituì un fallimento, grazie anche alla deliziosa feature della retrocompatibilità con Atari 2600, questa non riusciva a reggere il confronto con Nintendo a livello di marketing, software e supporto di terze parti, neppure con il computer/console Atari XEGS, rimanendo di conseguenza una console di nicchia e per pochi appassionati. Nel 1989 Atari lanciò Lynx, la prima console portatile a colori e con display retroilluminato, un anno prima del più aggressivo Sega Game Gear che presentava più o meno le stesse caratteristiche. Ancora una volta, nonostante le sue ottime capacità, la nuova console Atari (che cominciò il nuovo trend interno di chiamare le proprie console con nomi di specie feline) non ebbe lo stesso supporto del Nintendo Gameboy e Sega Game Gear, finendo dunque per rappresentare la nicchia. Vale ricordare però che il Lynx, come l’Atari 7800 e i computer XEGS e ST, erano molto popolari in Europa, specialmente in Regno Unito che rappresentò, in un certo senso, il nuovo core-market dell’azienda. Dopo il 1992 Atari, che fermò la produzione del 7800, non aveva più nulla sul fronte delle console casalinghe, mentre nel frattempo Nintendo e Sega se le davano di santa ragione “a colpi di bit”. Con l’arrivo di Sega Mega Drive (o Genesis in Nord America) i giocatori vennero messi di fronte alla nuova parolina “bit”, un termine che in realtà nessuno sapeva cosa significasse realmente ma stava a sottolineare, in un qualche modo, la potenza hardware di una determinata console o computer. Grazie “all’esposizione dei bit” Sega potè accaparrarsi un netto vantaggio contro il Nintendo Entertainment System con i suoi 16bit, otto in più rispetto alla controparte, ma con l’arrivo del Super Nintendo la guerra, da lì in poi, fu combattuta ad armi pari.
Atari, visto anche che il Turbografx 16 di NEC non decollava al di fuori del Giappone (dove si chiama PC Engine), capì che bastava “averlo grosso” per vincere la partita… Il numero dei bit – maliziosi che non siete altro –! In questo scenario Atari avviò ben due progetti capitanati dall’esperienza di alcuni ingegneri provenienti dal Regno Unito, uno che avrebbe permesso di sbaragliare la competizione corrente e un altro per la generazione futura, visto che la successiva generazione di console cominciava a prendere qualche sembianza; questa è la storia dell’Atari Jaguar, una console che più di tutti ricordò ai giocatori che la potenza non è tutto.

(Jaguar, Jaguar, JAGUARRRRRRRRRRR!!)

Sete di conquista

Prima di parlare del Jaguar bisogna parlare del Panther, la console 32bit che avrebbe dovuto competere originariamente contro Super Nintendo e Sega Genesis. Il progetto originale risale nel 1988 anno in cui Atari, spinta dal voler riconquistare il cuore dei giocatori di tutto il mondo, avviò il progetto di un prototipo utilizzando la tecnologia di un Atari XEGS e la scheda video del Atari Transputer Workstation. Lo sviluppo andava bene ma i progressi non entusiasmavano nessuno all’interno dell’azienda; Richard Miller, vicepresidente di Atari Corporation (che fonderà più in là la VM Labs che ha portato il mondo il Nuon), andò a chiedere aiuto alla Flare Technolgy, una piccola compagnia inglese fondata da tre ex ingegneri di Sinclair Research, ovvero Martin Brennan, Ben Chese, che andò a lavorare più in là con Argonaut Games alla quale si deve il chip FX montato nelle cartucce dei giochi 3D dello SNES come Star Fox e Stunt Race, e John Mathieson, suo ex collega e amico. Flare era nota per aver prodotto il chip Flare 1 montato in alcune schede arcade ma soprattutto nel Konix Multisystem, console 100% inglese che fu cancellata per diversi motivi: il chip poteva permettere uno scaling mai visto prima, ancora più veloce di quello nell’Atari ST. Atari diede dei fondi a Flare per migliorare il chip esistente e inserirlo nel Panther e avviare parallelamente il progetto del chip Flare 2, che sarebbe stato parte dell’Atari Jaguar.
Grazie al supporto di Atari, Flare potè cominciare lo sviluppo di una nuova console 32bit contenente il nuovo chip migliorato, che venne chiamato Panther come l’automobile della moglie di Martin Brennan (la Panther Kalista) e, presto, la denominazione del chip finì per rinominare l’intero progetto e il prodotto definitivo. In tutto questo, con due progetti avviati, Atari sperava prima di mettere in difficoltà la competizione corrente col Panther e poi, successivamente, lanciare il Jaguar con i suoi 64bit, anticipando la prossima generazione e porsi dunque come la più potente (visto che si vociferava già delle console 32bit). Il Panther era quasi pronto ma i suoi dev kit, da distribuire agli sviluppatori, non funzionavano una volta assemblati; Atari avrebbe dovuto investire ulteriori risorse per risolvere questo problema ma per sua fortuna lo sviluppo del Jaguar era in netto anticipo e perciò si deliberò nel non continuare a produrre il progetto 32bit. Al Consumer Electronic Show del 1991 Atari annunciò la cancellazione del Panther ma in compenso annunciò quella del Jaguar che sarebbe stato pronto per il 1993, un predatore pronto a fare a brandelli la concorrenza e riconquistare il suo trono all’interno del mercato dei videogiochi.

Dall’annuncio al lancio

L’annuncio a sorpresa al CES del 1991 non solo infiammò la stampa ma convinse anche i giocatori; il Jaguar si poneva sia come una console più potente di SNES e Mega Drive che una console di prossima generazione in grado di competere, persino superare, le future rivali 3DO, Sega 32X, Saturn e PlayStation. In tutto questo Atari riuscì anche ad accaparrarsi degli ottimi 3rd party come Micro Prose, Virgin Interactive, Gremlin Graphics, Activision, InterplayUbisoft, che lanciò proprio nel Jaguar il primo Rayman, e molti altri. Per tutto il 1993 Atari svelò a poco a poco le specifiche della console e futuri add-on come il Jaguar CD, un headset VR e un modem per il gioco in rete (questi due prodotti non uscirono mai), il tutto fino all’uscita su tutto il suolo americano previsto per il primissimo 1994. Nel Novembre del 1993 furono inviate 50.000 unità fra New York e San Francisco in test market e i risultati furono strabilianti: la console andò sold out in un giorno e poco dopo i pre-order in Europa toccarono le 2 milioni di unità. Arrivati a questo punto IBM, che produceva i componenti della console, si ritrovò con le spalle al muro non potendo soddisfare una domanda così grossa e così Atari, contro il suo stesso interesse, decise di concentrarsi sul mercato americano, accantonando il mercato dove andavano più forti; di conseguenza, al lancio, in Gran Bretagna arrivarono solamente 2.500 unità.
Ciononostante, per Atari le cose stavano girando per il verso giusto: insieme all’eccellente test market a New York e San Francisco, il Jaguar vinse nel Gennaio del 1994 il premio il “best new game system” su Videogame Magazine, “best new hardware system” su Game Informer e “technical achievement of the year” su DieHard GameFan. I più tecnici furono certamente attratti dalle potenti qualità del Jaguar: la console di base era in grado di creare oggetti 3D con texture, poteva produrre sprite alti 1000 pixel, era possibile cambiare la risoluzione nei background 2D (in modo da poter rendere, per esempio, meno visibile un layer più lontano, creando un ottimo effetto di profondità) e ostentava effetti luce e altri effetti speciali veramente all’avanguardia.
La console attrasse inizialmente una base di giocatori di tutto rispetto grazie sia a un’aggressiva campagna di marketing, il cui slogan principale era “do the math” (più o meno “fai i conti”, in quanto le pubblicità sottolineavano il “gap dei bit” fra il Jaguar e le restanti console), e una buona linea di titoli di lancio e altri che arrivarono man mano; dopo gli iniziali Cybermorph, Raiden e Evolution: Dino Dude arrivarono l’incredibile Tempest 2000, Wolfenstein 3D e Doom, i cui porting erano i più belli e i più vicini al PC (ai tempi) e Alien vs Predator che diventò la killer app del sistema. In aggiunta a tutto questo, a metà del 1994 Atari vinse una causa legale contro Sega per violazione di brevetto: la compagnia giapponese dovette pagare alla compagnia di Jack Tramiel 50 milioni di dollari in spese giudiziarie, fu costretta ad acquistare azioni Atari per 40 milioni e rilasciare alcuni giochi esclusivi Sega su Atari Jaguar (che non uscirono mai). Jaguar aveva tutte le carte in tavola per diventare un competitor importante nel mercato ma Atari non aveva fatto i conti con il nemico numero uno della macchina: la sua stessa scheda madre.

(Il controller del Jaguar, come quello del ColecoVision e Intellivision, aveva un tastierino numerico sulla quale era possibile attaccare degli overlay. È stato, probabilmente, l’ultimo controller con una tale feature.)

Tom & Jerry

Sin dal lancio i giocatori si accorsero che Cybermorph, che era uno shooter sulla falsariga di Star Fox ma presentava una struttura più aperta, era molto più avanzato di Raiden e Evolution: Dino Dudes e che questi due  sembravano dei normalissimi giochi 16 bit. Col tempo, nonostante la console ricevette tanti grandi titoli, i giocatori si accorsero che qualcosa andava storto e che non tutti i giochi sfruttavano le vere capacità dell’Atari Jaguar. Si dice appunto che questa console è in realtà una console 32+32bit e che dunque non è una vera macchina 64bit; ma qual è la verità?
Il cuore della macchina era un processore Motorola 68000 ma in realtà era supportato da altri due processori RISC chiamati “Tom” e “Jerry“: Tom si occupava di tutto il piano grafico, dunque era la GPU e generava gli oggetti in 3D, mentre Jerry si occupava del comparto sonoro, dunque processava i segnali audio e gli effetti sonori. In pratica i programmatori dovevano programmare grafica e sonoro separatamente su quei due chip in modo che venissero mandati al Motorola 68000 che avrebbe processato il tutto e “generato” il gioco al giocatore; John Mathisen descrisse il chip principale come un project manager, che non fa nessun effettivo lavoro ma è lì per dire a tutti cosa fare. Programmare sul Motorola 68000 era molto più facile visto che era un chip montato nei primi computer Macintosh, il Commodore Amiga, l’Atari ST e persino il Sega Mega Drive; per venire in contro alle date di scadenza, visto che il sistema Tom & Jerry non era chiaro a tutti, i giochi venivano programmati direttamente sul Motorola 68000 in quanto molti programmatori avevano già programmato per quel determinato chip, e perciò molti dei giochi vennero fuori con una veste tutt’altro che 64bit, alcuni porting erano persino più carenti delle controparti 16bit. La credibilità del Jaguar si sgretolava piano piano e, contrariamente alle previsioni di Jack Tramiel che si aspettava almeno 500.000 unità vendute in un anno, alla fine del 1994 i dati di vendita riportarono solamente circa 100.000 unità. Adesso per Atari arrivava l’anno 1995, anno in cui il Jaguar sarebbe dovuto entrare in competizione con Sega Saturn e Sony PlayStation.

(I due grossi chip sulla sinistra sono Tom e Jerry, mentre il chip più grosso sulla destra è il Motorola 68000)

La seconda fase

Al CES del Gennaio 1995 Atari comincia l’anno nuovo col botto: vengono annunciate le date di uscita e il prezzo per il Jaguar CD, insieme all’annuncio di dei dischi proprietari dalla capienza di 790Mb, Jaglink, che premette di collegare due Jaguar, per il VR headset (annunciato per il Natale ma mai uscito) e per moltissimi giochi. Due mesi dopo viene annunciato un price drop di 149,99$ e Atari dedide di non sviluppare molti dei suoi prodotti: la produzione di XEGS, ST e Falcon si fermano sin da subito mentre il Lynx verrà abbandonato alla fine del 1995. Era chiaro, a quel punto, che Atari era pronta a tutto pur di vendere il Jaguar. Sam Tramiel, figlio di Jack che prese le redini di Atari alla fine degli anni ’80, per fronteggiare l’imminente uscita di Sega Saturn e Sony PlayStation, si rese disponibile per molte interviste al fine di promuovere la loro console casalinga ma a molti sembrava che si stesse arrampicando sugli specchi: ad Aprile, su Next Generation Magazine, disse che Saturn e PlayStation erano destinate a fallire per il loro prezzo (che a lui sembrava esorbitante), mentre a Luglio, nella medesima rivista, dichiarò che il Jaguar aveva venduto 150.000 unità, che il 50% degli utenti Jaguar avrebbe comprato il Jaguar CD, che “l’interno del Saturn era un casino”, ignorando il proprio complicato sistema Tom & Jerry e che il Jaguar presentava le stesse caratteristiche, se non più potente, del Saturn e poco più debole di PlayStation (mentre in reltà la console Sega era, su carta, più potente di della console Sony!).
Le affermazioni di Sam Tramiel gli si rivoltarono contro quando prima Sega Saturn e poi Sony PlayStation superarono di molto, già nel periodo di lancio, le vendite complessive di Jaguar di un anno di attività; persino 3DO, rimasta inizialmente indietro, superò la console Atari con 500.000 unità vendute. In tutto questo, i giochi promessi al CES 1995 tardavano ad arrivare e l’accordo con Sega, per la perdita di quel caso giudiziario, non uscirono mai. Nell’Ottobre del ’95, un mese dopo l’uscita del Jaguar CD, Atari decise di destinare meno risorse al Jaguar, tentando di reinvestire ciò che è rimasto nella produzione hardware e software PC; successivamente, a Novembre, venne chiuso lo studio Atari che produceva i giochi first party e nel natale del 1995 il Jaguar fu venduto per 99,99$, l’ultimo e definitivo price drop. Come se non bastasse, Sam Tramiel subì un lieve attacco di cuore che costrinse il padre Jack di nuovo alla direzione dell’azienda che aveva comprato dalla Warner Communication.

Dalla chiusura alla seconda vita di Jaguar

Nel Gennaio 1996 furono riportati i disastrosi dati di vendita di Atari Corporation: l’azienda fatturò solamente 14.6 milioni di dollari, significativamente meno dei 38.7 milioni del 1994, mentre nell’anno trascorso furono venduti solamente 125.000 unità, decisamente meno rispetto a quanto dichiarato da Sam Tramiel su Next Generation Magazine; a tutto questo si aggiungevano 100.000 unità invendute e solo 3.000 unità vendute in Giappone, dove fu distribuito in pochissimi negozi. Sebbene nel 1996 alcuni giochi continuavano a uscire, la produzione di Atari Jaguar terminò di lì a poco. Atari Corporation, in Aprile, si fuse con JT Storage e più tardi, nel 1998, vendettero il nome ad Hasbro.
Contrariamente a ogni aspettativa, la sfortunata console riemerse dal dimenticatoio: nel Maggio 1999 Hasbro non rinnovò la licenza sull’Atari Jaguar, facendo ricadere i diritti sul dominio pubblico; da quel momento in poi, qualsiasi sviluppatore, grande o piccolo, è libero di produrre e vendere un gioco per Jaguar senza il permesso di Hasbro. Furono rilasciati subito tre giochi precedentemente cancellati, uno dei quali della Midway e ancora oggi, l’Atari Jaguar è casa di una scena homebrew veramente vasta; l’ultimo titolo uscito per la console è stato Fast Food 64, rilasciato il 23 Giugno del 2017. Dal 2001 al 2007 i rimanenti Jaguar sono stati venduti dalla catena di negozi inglese Game per 30£, fino al price drop finale di 9,99£. E ancora, come se non bastasse, lo stampo industriale per creare la console esterna è stato usato dalla compagnia Imagin per creare un utensile per dentisti e riutilizzata di nuovo per il gaming nel fornire il design esterno della console cancellata Retro VGS/Coleco Chameleon. Che dire? È una bestia che proprio non ne vuole sapere di morire!

(Un video dell’utente bframe che ci mostra tutti i giochi dell’Atari Jaguar)

Mamma, possiamo tenerlo?

Come abbiamo accennato, Atari Jaguar è di dominio pubblico e perciò abbiamo tutto il diritto di emulare la console e i giochi. Tuttavia, al di là dei recenti sviluppi sull’emulazione, stando a molti utenti l’emulazione di Jaguar è ancora un po’ carente e spesso e volentieri molti giochi presentano bug o si bloccano improvvisamente (e non è un problema relativo ai PC). Dunque l’alternativa, visto che ancora nessuno ha prodotto un sistema clone (e Polymega non ha annunciato un modulo dedicato), è proprio quella di comprare un Atari Jaguar originale. Anche se i prezzi sono un po’ più alti del loro prezzo originale, bisogna dire che per una console che ha venduto meno di 300.000 unità è un prezzo equo; andare a caccia dei videogiochi, dunque delle orrende cartucce (in senso buono) con la maniglia in alto, è un discorso a parte in quanto dipende sempre dalla reputazione di un gioco e dalla tiratura e come abbiamo visto, contrariamente a ciò che si possa pensare, ce ne sono tanti. Assicuratevi che la console vi arrivi con il suo cablaggio proprietario per montarlo alla TV via RCA. Discorso a parte va fatto per il Jaguar CD: questo particolare add-on, a differenza dei più comuni Sega CD o PC-Engine CD, è famoso per essere particolarmente fragile ed è facile incappare in uno dei tanti Jaguar CD non funzionanti e, se lo collegherete alla TV, ve lo farà sapere con la famosa “red screen of death” che indica un problema di comunicazione fra la base e l’add-on; come se non bastasse, l’add-on è ancora più raro della console in sé e perciò rischiate di sprecare oltre 200€ per un Jaguar CD morto. È un acquisto che va fatto molto attentamente, anche per la base, ma se state attenti e siete interessati alla sua particolare libreria di giochi potrete portare a casa una gran bella console che ha detto molto e, sorprendentemente, ha ancora molto da dire!




Polymega: la nuova frontiera del retrogaming

Le librerie digitali di PC e console sono inondate da titoli dall’aspetto vintage ma per ora, dopo la chiusura di LOVEroms e LOVEretro e dell’effetto domino che si è venuto a creare, gli interessati a riscoprire i veri e propri titoli del passato per ora non vivono giorni facili. Sia Steam che gli store digitali delle console non stanno offrendo una vera alternativa alle tanto amate ROM e i rivenditori su eBay sembrano voler girare il coltello nella piaga. Per quanto nero possa sembrare lo scenario attuale qualcuno si sta già muovendo e un ambiziosissimo progetto avviato un anno fa sta per vedere la luce: stiamo parlando della Polymega, una console di una nuova compagnia chiamata Playmaji e fondata da ex dipendenti di Insomniac e Bluepoint games (senza contare che questi hanno lavorato a giochi tripla A come Ratchet & Clank e Titanfall) e che promette compatibilità con ben 13 sistemi (in realtà 30 se contiamo che questa “frankenmacchina” è region free). Questi, per la gioia dei più appassionati, sono:

  • Sony PlayStation
  • Neo Geo CD
  • Turbografx 16/PC Engine
  • Turbografx 16 CD/PC Engine CD-ROM2
  • Supergrafx
  • Super CD ROM2
  • NES
  • SNES
  • Sega Mega Drive
  • Sega CD
  • Sega 32X
  • Sega CD32X
  • Sega Saturn (quest’ultima annunciata a sorpresa con il trailer di lancio per l’apertura dei preorder)

Chiunque di fronte una tale lista rimarrebbe senza fiato e i retrogamer di tutto il mondo potrebbero ritrovarsi un sistema che potrebbe risolvere un’infinità di problemi, dallo spazio in casa ai soldi da spendere per i sistemi, i giochi ed eventuali pezzi di ricambio o per la manutenzione di quest’ultime (specialmente per le console a CD costruite con un sacco di pezzi mobili o batterie RAM da cambiare). Ma cosa è esattamente questa macchina? Come può promettere una compatibilità così ampia e come risolverebbe l’attuale fame del retrogaming?

I can make this work

Il termine “frankenmacchina” che abbiamo usato poco fa descrive perfettamente la natura di questo prodotto – cara Accademia della Crusca, il mio codice IBAN è… –: la console è composta da una base, il cuore della macchina, in cui è presente il lettore CD che permette di leggere tutti i sistemi a supporto ottico (dunque ben sei sistemi) e a questa possono essere aggiunti dei moduli che leggeranno le cartucce originali, le cui ROM verranno caricate nel sistema interno per essere emulate (pertanto non sarà necessario inserirle ogni volta che vogliamo giocare con un determinato gioco), e saranno compatibili con i controller originali. Nella base troveremo inoltre due porte USB (come spiega la sezione FAQ del sito di Polymega e da come possiamo vedere dal trailer introduttivo), sarà compatibile con bluetooth e, visto che gli sviluppatori promettono aggiornamenti per il sistema operativo interno, sarà possibile connettere la macchina a internet per accedere a un futuro store, che verrà lanciato nell’ultimo quarto del 2019, dove poter scaricare giochi e, se l’obiettivo dei 500.000$ verrà raggiunto nei primi 35 giorni, persino mandare il proprio gameplay in streaming su Twitch e YouTube. Il sito ha da poco aperto i preorder: il modello base, che comprende un controller standard simil PlayStation 4 per giocare ai sistemi CD, costa 249,99$ (al cambio attuale, in Euro, sono circa 215,60€) mentre i singoli moduli, che verranno venduti insieme a dei controller cablati simili a quelli dei sistemi emulati, costeranno 59,99$ (attualmente 51,74€) e al loro interno saranno caricati ben cinque giochi. Essendo un sistema moderno, l’attacco principale della console sarà l’HDMI ma, come un NES mini o SNES mini ci permette, sarà possibile regolare l’immagine e pertanto decidere se scegliere il formato 4.3 o 16:9, se mostrare tutti i pixel, mostrare gli “scalini” o avere un’immagine “pixel perfect“. Come già accennato, questa console estrarrà le ROM dalle cartucce per poi, essenzialmente, emularle all’interno dei moduli (e permettere tutto quello quello che permettono gli emulatori: save e load state, fare screenshot, registrare il gameplay, etc) ma gli sviluppatori hanno promesso di creare degli emulatori da zero, senza l’ausilio di altri software preesistenti.

Cosa significa Polymega per l’industria?

Prima di sottolineare come Polymega potrebbe incidere sul mercato vogliamo, per prima cosa, evidenziarne alcuni aspetti. Innanzitutto, questa console viene incontro alle richieste dei retrogamer finora rimaste inascoltate; nessuna terza compagnia, le molte che operano nel campo del retrogaming per offrire nuovi dispositivi per le vecchie macchine, aveva finora pensato alle piccolezze di alcune di queste, come offrire la compatibilità con il 32X per i cloni del Sega Mega Drive, offrire un’alternativa moderna agli ormai costosissimi Turbografx 16/PC Engine, senza contare che il loro modulo leggerà, praticamente, le sei cartucce del Supergrafx (console che si sarebbe dovuta comprare a parte anche possedendo una delle due versioni della console NEC), ma soprattutto offre la prima vera soluzione per i giochi su compact disk la cui compatibilità, grazie agli aggiornamenti firmware, potrà essere espansa a ben altre console a supporto ottico in futuro come il Sega Dreamcast (continuamente citato nella sezione FAQ) il 3DO o persino la PlayStation 2. Non dimentichiamoci inoltre che l’annunciata compatibilità con i giochi per Sega Saturn è molto importante perché da sempre questa console ha avuto la negativa fama di essere la più difficile da emulare per via del suo arduo sistema dual core, parallelamente all’essere una delle più ricercate fra i retrogamer. Similarmente, i moduli da comprare a parte, che potranno anche essere sviluppati da altre compagnie, continueranno ad uscire per offrire ai giocatori nuove soluzioni per console come il Nintendo 64, Atari 2600 o chissà cosa!
La console, diversamente da altre come il Retron 5 di Hyperkin o l’AVS di Retro USB, vuole porsi letteramente come un faro per i retrogamer e, come già citato precedentemente, vuole lanciare uno store digitale dove offrire legalmente tutte le ROM apparse finora nei maggiori siti di emulazione come emuparadise.me; questo significa anche, e soprattutto, raggiungere gli sviluppatori originali e coinvolgerli in tutto e per tutto nel progetto Polymega, ponendosi come una quarta console attuale ma dedicata esclusivamente al retrogaming. Alcune grandi compagnie come Capcom o Irem hanno già espresso interesse verso questo particolare mercato fornendo, pur sempre in quantità limitate, delle cartucce commemorative funzionanti e operative prodotte da RetroBit di Street Fighter II, Mega Man 2 e Mega Man X, R-Type III e Holy Diver (ebbene sì, un gioco ispirato a Ronnie James Dio e ai Black Sabbath! Un giorno ne parleremo), senza contare che altre compagnie, anche senza il consenso dei publisher, hanno prodotto molte reproduction cartridge per giochi ormai andati persi nelle obbrobriose aste eBay come Nintendo World Championship. Grazie a Polymega potrebbe esserci un rinnovato interesse in questi prodotti repro che potrebbero persino coinvolgere i giochi su disco, cosa che finora nessuna compagnia ha mai preso in considerazione, e dunque vedere delle nuove stampe – dei reproduction disk oseremo dire – di molti giochi per Saturn, Neo Geo CD o TG16/PC Engine CD, spesso dimenticati nel vastissimo oceano retrò. Playmoji, probabilmente visti i recenti sviluppi, non si è espressa sul tema ROM da caricare via USB o backup, per ciò che riguarda i giochi su CD, però hanno lasciato intendere che una volta caricata l’immagine sul sistema, potranno essere patchati; questo aprirebbe Polymega all’intera scena hack e delle traduzioni. Che dunque che potrà esistere un modo per permettere tutto questo? Probabilmente lo sapremo solo una volta che metteremo le mani su questo fantastico prodotto.

Questioni sul sito e il chip FPGA

Un po’ di tempo addietro, il sito è stato chiuso per qualche giorno e, alla riapertura, che ha lanciato definitivamente i preorder, sono state cambiate alcune specifiche del sistema: tutti i cambiamenti sono stati spiegati in un articolo su Nintendolife, redazione molto vicina alla compagnia che sta producendo il Polymega. Playmoji ha aperto uno stand durante l’ultimo E3 in cui era possibile provare la base della console e alcuni moduli, il tutto ancora in stadio di prototipo; lì hanno raccolto i primi feedback dei potenziali consumatori e in molti si sono lamentati dei lag durante l’emulazione dei giochi per PlayStation. Gli ingegneri hanno considerato attentamente l’opinione dei giocatori e così si è optato per ottimizzare l’hardware della console cambiando il vecchio processore FPGA quad core Rockchip RK3288 di 1.8Ghz che emula i sistemi in questione, un tipo di chip montato in console come l’Analogue NT o l’AVS; per spiegarlo in breve, le schede madre delle vecchie console non vengono ricreate da capo o in una maniera diversa per evitare questioni con le case produttrici originali, ma l’intero hardware viene emulato all’interno di un processore chiamato FPGA. Adesso, all’interno del modulo base, il chip in questione è stato sostituito da un più potente Intel CM8068403377713 dual core, il ché dovrebbe un fattore positivo (e che avrebbe probabilmente permesso l’emulazione per Sega Saturn) ma non è un chip specifico FPGA che permette l’emulazione ibrida dei sistemi sopracitati; per altro, questi chip dovrebbero essere inseriti all’interno di ogni modulo ma adesso il tutto grava sul nuovo chip montato all’interno della base. È possibile che il cambio del processore non gravi per nulla sull’emulazione dei sistemi e che i competenti sviluppatori in questione sanno quello che fanno (senza contare che un prototipo funzionante è apparso all’E3 e presentava solamente problemi per l’emulazione PlayStation) ma dalla riapertura del sito Playmoji non ha rilasciato nessuna dichiarazione ufficiale oltre all’articolo su Nintendolife e le domande degli appasionati alla ricerca dell’emulazione perfetta sono ancora senza una risposta ufficiale. Ad alcuni non interessa e sono certi, visto che il nuovo processore è più potente del precedente (e dunque semplicemente facendo 2 + 2), che il sistema possa essere addirittura migliorato ma ad altri sorgono altri dubbi, specialmente visto lo strano silenzio della compagnia dopo il rilascio dell’articolo e la riapertura del sito. Bisogna dire che la zona FAQ del sito è veramente esaustiva ma ancora molte domande necessitano di una risposta abbastanza tempestiva.
Vale ricordare inoltre, che il Polymega non è un kickstarter o un crowdfunding ma c’è un reward system dalla quale, in base alle prevendite, si raggiungeranno degli obbiettivi che permetteranno di creare nuove feature per gli acquirenti, come compatibilità espansa per il lettore CD e nuovi moduli; se l’obiettivo minimo di 500.000$ non verrà raggiunto le console verranno richiamate e rilanciate successivamente seguendo il feedback dei compratori ed è per questo che Playmoji, ora più che mai, deve garantire una buona comunicazione con chi sta per prendere in considerazione l’acquisto del sistema. Di certo non si tratta di una truffa come il Coleco Chameleon (tratteremo questo tema in futuro) in quanto il sistema è già stato mostrato funzionante all’E3 e le persone dietro al progetto sono davvero competenti ma le uniche domande che per ora gli appassionati si pongono sono: sarà un sistema all’altezza delle aspettative? Vale la pena comprare questo sistema al lancio? E se il lancio va male?

Aggiornamento del 13/09/2018

Proprio di recente, per fortuna, gli sviluppatori hanno dato prova della potenza del loro  sistema e tutto sembra essere tornato alla normalità. Sul loro canale YouTube sono apparsi ben tre video di gameplay di alcuni giochi per Sega Saturn, che si avviano dalla selezione dei titoli nel sistema operativo; con questa mossa gli sviluppatori hanno dimostrato che il processore è in grado di emulare perfettamente questa macchina problematica (visto che alcuni si sono lamentati del fatto che alcuni video di gameplay mostrati nel trailer di lancio appartenessero ad alcune controparti arcade) e perciò, se è in grado di emulare il Saturn, è fondamentalmente in grado di emulare tutto il resto. In breve, la console 32 bit di Sega era la prova del nove e Polymega l’ha superata. Il primo video mostra un gameplay variegato: vengono caricati Guardian Heroes, Sega Rally Championship, Panzer Dragoon Zwei, Fighting Vipers, Dungeons and Dragons Collection: Shadow Over Mystara (questo titolo è molto importante poiché richiede l’esclusiva cartuccia RAM da 4 Mb da inserire nel Saturn, dunque questa è la prova che è anche in grado di emulare questo hardware esterno) e House of the Dead (giocato col controller, visto che le lightgun dei tempi non funzionano più coi televisori nuovi). Il secondo e il terzo video mostrano un ulteriori gameplay di Sega Rally Championship e Fighting Vipers girare a 60 FPS, meglio di come potrebbe fare un Sega Saturn originale. In tutti i video, insieme al gameplay cristallino, viene inoltre mostrata la capacità di creare dei save state e ricominciare esattamente dal punto in cui si lascia l’azione, sottolineando dunque che la macchina estrae letteralmente l’immagine per poi emularla. A questo punto, tutti i peccati di Playmoji sono stati assolti ma rimane giusto qualche dubbio: l’ultima cosa che gli utenti vorrebbero solamente vedere, stando ai commenti sui video, è uno stream su Twitch/YouTube in cui mostrano gli sviluppatori giocare effettivamente con la Polymega, inserire qualche disco e vedere il sistema che estrae l’immagine, provare e scambiare qualche modulo, etc… Si spera dunque che gli sviluppatori diano ancora più prove a sostegno della versatilità di Polymega (anche se, in realtà, ne hanno date abbastanza all’ultimo E3) ma a ogni modo, finalmente, alla preoccupazione più grande, ovvero l’efficienza del nuovo chip, è stata data una risposta molto esaustiva.
Per le comunicazioni ufficiali da parte degli sviluppatori vi basterà seguirli sul loro canale YouTube e sulla loro pagina Facebook.

(video del gameplay variegato)

(Sega Rally Championship a 60 FPS)

(Fighting Vipers a 60 FPS)



Dusty Rooms: uno sguardo al MSX

L’obiettivo di questa rubrica è principalmente quello di far scoprire quelle parti di retrogaming curiose, interessanti e, possibilmente, non ancora prese in esame. Oggi, qui a Dusty Rooms, daremo uno sguardo ai computer MSX, un sistema ancora non comune e che forse non lo sarà mai, probabilmente per via della sua scheda madre, un prodotto da vendere su licenza a terze parti affinché la producessero con i loro mezzi. Certo, il Commodore 64, l’Amstrad, l’Apple II e i computer Atari sono stati sicuramente i più popolari negli anni ’80 ma se oggi lo scenario dei personal computer è come lo conosciamo, lo si deve principalmente a queste favolose macchine MSX che finirono per dettare degli standard in quanto a formati e reperibilità dei software. Per capire l’innovazione portata da questi computer, utili sia per il gaming che per la programmazione, bisogna dare uno sguardo allo scenario tecnologico di quegli anni.

Non fare il Salame! Compra un computer!

Negli anni ’80 i computer cominciarono a far parte della vita di milioni di persone e, sia in termini di costi che di dimensioni, erano decisamente alla portata di tutti; in Nord America si assistette a un’impennata per via del crollo del mercato dei videogiochi del 1983, in quanto i genitori erano più propensi a comprare un PC per i loro figli con la quale poter sia giocare che studiare, e in Europa, e molte altre parti del mondo, avevano preso piede ancor prima delle console rudimentali come Atari 2600, Philips Videopac (Magnavox Odyssey 2 in Nord America) o il Coleco Vision. Tuttavia, in negozio, scegliere un computer rispetto a un altro era un impresa tutt’altro che facile: ogni macchina era in grado di leggere videogiochi e eseguire programmi gestionali, creativi o educativi ma, ogni compagnia, proponeva il proprio sistema e linguaggio di programmazione e perciò, senza uno standard, la compatibilità fra le macchine era pressoché nulla; il tutto era aggravato inoltre dalle centinaia di pubblicità che proponevano sempre il loro computer come il più veloce e generalmente migliore rispetto alla concorrenza. Lo scenario era ben diverso da quello odierno in cui sono presenti principalmente due sistemi operativi dominanti e, indipendentemente dal modello fisico che si prende in esame, è molto più facile orientarsi in un mercato che dà meno alternative e in cui la compatibilità è sempre più ampia.

(Pensate, compravate un Commodore 64 per la vostra azienda ma poi, una volta a casa, accendevate la TV e c’era Massimo Lopez che vi proponeva il suo migliore computer SAG e voi entravate in paranoia!)

Negli anni ’70 un giovane Kazuhiko Nishi, studente dell’Università di Waseda, cominciava a interessarsi al mondo dei computer, software ed elettronica con il sogno di costruire una console con i propri giochi e poterla rivendere ma, dopo una visita alla fabbrica della General Instruments, capì che non poteva comprare dei chip in piccole quantità per poter sperimentare e perciò dovette rinunciare momentaneamente al suo sogno. Cominciò a scrivere per alcune riviste d’elettronica affinché potesse mettere a disposizione la sua conoscenza per la programmazione ma, se voleva trarne il massimo vantaggio da questa attività, doveva necessariamente fondare una sua compagnia e fare delle sue pubblicazioni. Dopo aver lasciato l’università, Nishi fondò la ASCII per poter pubblicare la sua nuova rivista I/O, che trattava di computer, ma nel 1979 la pubblicazione cambiò nome in ASCII magazine che si interessava più generalmente di ogni campo dell’elettronica, inclusi i videogiochi. Con il successo della rivista Kazuhiko Nishi poté tornare al suo progetto originale, ovvero creare una macchina tutta sua, ma per farlo aveva bisogno di un linguaggio di programmazione; egli contattò gli uffici Microsoft riuscendo a parlare, con la prima telefonata, con Bill Gates e più tardi, quello stesso anno, riuscirono a incontrarsi. Entrambi avevano la stessa passione per l’elettronica, più o meno lo stesso background sociale (entrambi avevano lasciato gli studi accademici) e dopo diversi meeting aderirono per fare del business assieme. ASCII diventò la rappresentante di Microsoft in Giappone e Kazuhiko Nishi divenne vicepresidente della divisione giapponese della compagnia americana. Grazie a questa collaborazione Nishi poté inserire il BASIC nel PC 8000 di Nec, la prima volta che veniva incluso all’interno di un computer, ma nel 1982, quando Harry Fox e Alex Weiss raggiunsero Microsoft per poter creare dei software per il loro nuovo computer chiamato Spectravideo, egli vide le basi per coniare il suo progetto iniziale e cominciare a produrre una linea di PC compatibili fra loro visto che la macchina era costruita intorno allo Zilog Z80, un processore che faceva da punto in comune fra diversi computer e persino console (essendo incluso nel Coleco Vision, console che, prima dell’avvento del NES, andava molto forte). Kazuhiko Nishi voleva che il suo computer fosse piccolo, come quelli che aveva prodotto alcuni anni prima per Kyocera, doveva contenere almeno uno slot per delle cartucce ROM, essere facilmente trasportabile ed espandibile e doveva contenere una versione di BASIC migliore dei computer IBM; così composto era la sua perfetta visione di computer in grado di poter garantire uno standard fra queste macchine. Poco dopo Nishi contattò tutte le più grandi compagnie giapponesi come Casio, Mitsubishi, Fujitsu, Kyocera, SonySamsung e Philips, rispettivamente, che decisero di investire in questo nuovo progetto; fu così che nacque lo standard MSX.

(Kazuhiko Nishi e Bill Gates)

Software per tutti!

Come abbiamo già detto, le macchine MSX nascono dall’unione di ASCII e Microsoft nel tentativo di fornire uno standard per i manufattori di PC. Era parere comune, ai tempi, che “MSX” stesse per “MicroSoft eXtended” ma Kazuhiko Nishi, più tardi, smentì queste voci dicendo che la sigla stava per “Machine with Software eXchangeability“. Con questo nuovo standard, tutti i computer che esponevano il marchio MSX erano dunque compatibili fra loro; perciò, cosa rendeva un’unità uguale a un’altra? Per prima cosa la CPU 8-bit Zilog Z80A, chip creato dall’italiano Federico Faggini e che ne costituisce il cervello della macchina, poi abbiamo la VDP (Video Display Processor) TMS9918 della Texas Instrument che offre una risoluzione di 256 x 192, 16 colori per sprite di 32 pixel, il chip sonoro AI36910 della Yamaha che offre tre canali e tre ottave di tonalità e infine la ROM di 32kb contenente il BASIC di Microsoft; il computer è comprensivo di tastiera ed è possibile attaccare mangianastri, strumento essenziale per i computer dell’epoca, lettore floppy, almeno una porta per i joypad e ha anche una porta d’espansione. Tipico di molti MSX era un secondo slot per le cartucce che, inserendone una seconda, permetteva miglioramenti, cheat e persino espansioni per un determinato software (dopo vi faremo un esempio). Per via delle diverse aziende che producevano i computer MSX è difficile arrivare a un numero preciso di computer venduti nel mondo ma, per darvi un idea, nel solo Giappone sono stati venduti ben cinque milioni di computer, praticamente la migliore macchina da gaming prima dell’arrivo del Famicom. Le macchine ebbero successo anche in altri paesi come Olanda, Spagna, Brasile, Corea del Sud, Arabia Saudita e persino in Italia e Unione Sovietica. Al fine di proporre una macchina sempre più potente, ci furono ben altre quattro generazioni di MSX: MSX2, rilasciato nel 1985, MSX2+, nel 1988, e MSX TurboR nel 1990. La differenza nelle prime tre stava nel nuovo processore Z80 che poteva permettere molti più colori su schermo e una velocità di calcolo maggiore, mentre l’ultimo modello presentava un processore 16-bit R800 ma purtroppo, essendo a quel punto rimasta solamente Panasonic a produrre gli MSX, non fu supportato a lungo. Come abbiamo accennato, i computer MSX erano le macchine dominanti per i videogiochi casalinghi in Giappone, anche se per poco tempo visto che il Famicom arrivò poco dopo, lo stesso anno; tuttavia, nonostante il dominio generale della console Nintendo, il sistema fu supportato fino all’ultimo e tante compagnie, come Hudson Soft e Compile, sfruttarono ogni capacità di questa curiosa macchina; l’eccezione va fatta per Konami che, nel 1983, fondò un team dedicato per produrre giochi su MSX, un anno prima di firmare per Nintendo. Finita la festa, nel 2001 Kazuhiko Nishi ha annunciato il revival del MSX rilasciando liberamente l’emulatore MSXPLAYer, dunque, eticamente, siamo liberi di goderci questi giochi sul nostro PC (anche perché il Project EGG, una piattaforma simil Steam per i giochi per computer giapponesi, qui non c’è); tuttavia, nulla vieta di recuperare l’hardware originale anche se dovete tener conto dell’alto prezzo dei giochi; un’ultima buona alternativa è recuperare la Konami Antiques MSX Collection per Sony PlayStation e Sega Saturn che vi permetterà di giocare a molti titoli (la versione per la prima è divisa in quattro dischi mentre la seconda include tutti i giochi). Diamo uno sguardo a 10 giochi essenziali di questa macchina (ci scusiamo in anticipo se la maggior parte dei giochi saranno Konami!).

10. King’s Valley 2

Un platformer che unisce elementi puzzle alla Lode Runner. Per procedere ai livelli successivi servirà collezionare tutte le pietre dell’anima sparse negli stage utilizzando i vari strumenti presenti, cui potremmo utilizzarne solo uno per volta. Man mano che si procede, gli scenari diventeranno sempre più grandi e difficili perciò non bisogna prendere questo gioco sottogamba. Una feature interessante, molto avanti per i suoi tempi, era l’editor dei livelli: una volta completati si potevano salvare in un floppy e scambiarli con gli amici.

9. Treasure of Usas

Un action platformer poco conosciuto ma comunque molto curioso che potrebbe interessare molto ai fan di Uncharted e Tomb Raider. Wit e Cles sono due cacciatori alla ricerca del tesoro di Usas e dovranno attraversare cinque città antiche per poterlo ritrovare. Il primo ha una pistola e migliori abilità nel salto mentre il secondo è un maestro di arti marziali e più agile. Le loro abilità sono migliorabili collezionando le monete negli stage e il gioco presenta la curiosa meccanica degli umori:  nello stage infatti, sono sparse le cosiddette carte dell’umore che, una volta raccolte, cambieranno i nostri attacchi. Una vera chicca se siete amanti di Castlevania o Mega Man.

8. Penguin Adventure

A Hideo Kojima game… ebbene si! Prima di Snake e i loschi tipi di Death Stranding (di cui non sappiamo ancora nulla) il noto programmatore ha prodotto questo gioco “puccioso” in cui dobbiamo far riunire Pentaro alla sua amata principessa. Nonostante il gioco abbia una struttura arcade apparentemente semplice, ovvero una sorta di platformer automatico simil 3D  (oggi potremmo definirlo un runner per smarphone), questo gioco ha molte meccaniche intriganti come un in-game store, warp zone, tanti easter egg e persino un finale alternativo. Mai giudicare un libro dalla sua copertina!

7. King Kong 2

Essendo liberamente ispirato al film King Kong Lives (o King Kong 2), controlleremo Hank Mitchell alla ricerca di Lady Kong. Raccomandiamo questo titolo ai fan del primo The Legend of Zelda in quanto molto simile e con tante caratteristiche interessanti che lo rendono davvero un bel gioco. Siate sicuri di trovare la rom patchata” poiché non è mai stato rilasciato in Europa.

6. Vampire Killer

Sembrerebbe un porting per MSX2 di Castlevania per NES ma così non è; sebbene il gioco abbia più o meno la stessa grafica, esso presenta un gameplay totalmente diverso. Questo titolo, anziché concentrarsi nelle sezioni di platforming, è più basato sull’esplorazione e il puzzle solving: per avanzare bisognerà trovare la skeleton key e per farlo ci serviranno armi, oggetti e chiavi per aprire forzieri contenti power up che si riveleranno utili allo scopo. Il gioco ha un pacing ben diverso dall’originale per NES ed è raccomandato ai giocatori più pazienti (anche perché le vite sono limitate e mancano i continue) ma anche ai più accaniti fan della saga.

5. Aleste

Unico gioco non Konami di questa lista, è uno shoot ‘em up sensazionale di Compile; uscito originariamente per Sega Master System, questa versione presenta due stage extra e una difficoltà più abbordabile. Di questo gioco stupiscono principalmente la grafica, la strabiliante colonna sonora resa con un chip FM montato sulla cartuccia e l’azione velocissima (tipica della serie) che da vita a battaglie in volo spettacolari. Provare per credere!

4. The Maze of Galious – Knightmare II

Concepito originariamente per competere con Zelda II: The Adventure of Link, The Maze of Galious è un difficilissimo metroidvania per i più allenati. In questo popolarissimo titolo per MSX, bisognerà esplorare un castello immenso alla ricerca delle dieci sub aree, dove risiedono demoni da sconfiggere, ma anche degli oggetti sparsi nel castello che espanderanno le abilità dei nostri Popolon e Aphrodite. The Maze of Galious è il secondo titolo della saga Knightmare, il cui primo titolo era un top down shooter alla Ikari Warriors e il terzo un RPG (per MSX2), ed è certamente il più bello. Nel 2002, questo titolo è stato soggetto di un curioso remake non ufficiale e il suo acclamato gameplay è stato ripreso nel similissmo La Mulana, considerato il suo sequel spirituale. Se siete fan dei metroidvania questo è certamente un titolo da giocare, anche per coloro che apprezzano le vere fide come Ghosts ‘n Ghouls, il già citato Zelda II o, chissà, magari anche Dark Souls! Vi raccomandiamo di giocarci con un walkthrough o almeno una mappa del castello; se siete dei masochisti fate pure senza!

3. Nemesis 2 e 3 + Salamander

Un pari abbastanza assurdo ma vi assicuriamo che non c’era modo per rendere giustizia a questi tre spettacolari titoli. I primi due sono dei sequel di Gradius mentre il Salamander proposto su MSX è completamente diverso dalla controparte per NES. Questi titoli della saga di Gradius su MSX presentano, insieme a delle colonne sonore squisite espresse con l’esclusivo chip SCC, un gameplay profondissimo attraverso power up espandibili, oggetti e sezioni bonus nascosti nei livelli e lo storytelling più dettagliato della saga. In Salamander, inoltre, per ottenere il finale migliore bisognerà inserire la cartuccia di Nemesis 2 nel secondo slot per completare il vero livello finale e mettere fine alla minaccia dei bacterion; altro che DLC e Amiibo! Nemesis 2 e Salamander sono i titoli più difficile mentre Nemesis 3: The Eve of Destruction è il più accessibile, perciò, se volete provarli, vi consigliamo di partire da lì. Tuttavia, dovrete abituarvi allo scrolling “scattoso” di questi titoli in quanto gli MSX, prima della seconda generazione, non erano in grado di offrire un’azione fluida e senza problemi;

2. Metal Gear e Metal Gear 2: Solid Snake

È più che risaputo che la saga di Metal Gear ha origini nel MSX2 e che quelli per NES non sono i veri punti iniziali della saga (per Snake’s Revenge, sequel non canonico del primo titolo, Hideo Kojima non era neppure stato chiamato per lo sviluppo del gioco). Entrambi i Metal Gear, soprattutto il secondo, sono dei giochi incredibili per essere dei giochi in 8-bit e, nonostante in molti ignorino questi due titoli, sono fondamentali per la fruizione dell’intera saga. Molte degli elementi visti in Metal Gear Solid come le chiavi sensibili alla temperatura, l’assalto all’interno dell’ascensore, l’abbattere l’Hind-D con i missili stinger e lo sgattaiolare nei condotti d’aria erano già stati introdotti in Metal Gear 2: Solid Snake; altri due titoli immancabili per MSX e giocabili persino in Metal Gear Solid 3: Subsistence. Non avete scuse per non giocarli!

1. Space Manbow

Questa rubrica si chiama Dusty Rooms e, pertanto, lo scopo è quello di farvi riscoprire titoli dimenticati e particolarmente interesanti; considerate quest’ultima entrata come un nostro personale regalo. Space Manbow è uno shoot ‘em up strabiliante pieno d’azione e retto da una grafica dettagliatissima per essere un gioco 8-bit, una colonna sonora spettacolare resa col chip SCC e un gameplay vario e mozzafiato, reso ancora più intrigante grazie allo scrolling fluido del MSX2 (cosa di cui i titoli di Gradius non poterono godere). Nonostante le lodi di critica e fan, Space Manbow rimane, a tutt’oggi, relegato a MSX e Konami, al di là di qualche cameo in qualche altro titolo, non ha mai preso in considerazione l’idea di un sequel (anche se ne esiste uno non ufficiale fatto dai fan uscito tanti anni dopo su MSX2), né allora né tanto meno adesso. Diamo a questo capolavoro l’attenzione che merita!

Honorable mentions

Che dire? Dieci posizioni sono veramente poche per una console che ha dato così tanto ma qui, vi vogliamo dare un altro paio di titoli da rivisitare su MSX:

  • Snatcher & SD Snatcher: altri due titoli di Hideo Kojima. Il primo è una visual novel mentre l’altro ricalca la stessa storia ma in veste RPG. Recuperate il secondo su MSX2 ma giocate Snatcher altrove in quanto la versione per MSX è incompleta e inconcludente.
  • Xevious: Fardraut Saga: da un semplice coin-op per arcade a uno SHMUP moderno con trama ed espansioni varie. Un titolo decisamente da recuperare!
  • Eggerland 2: il secondo gioco della saga di Lolo e Lala. Un puzzle game da capogiro per riscoprire le origini dello studio Hal.
  • Ys (I, II & III): una delle saghe RPG più strane e sottovalutate di sempre. Giocare questi titoli su MSX non è raccomandabile per via della barriera linguistica ma il loro aspetto su questo computer è decisamente sensazionale.
  • Quarth: un puzzle game Konami molto interessante che metterà alla prova il vostro ingegno. Un’altro bel gioco da recuperare

(Per finire, vi lasciamo con questa bella intervista con Bill Gates e Kazuhiko Nishi riguardo i computer MSX)

(E questa fantastica pubblicità italiana!)



Come scegliere un monitor da gaming o da lavoro

La scorsa volta abbiamo parlato di come funzionano i monitor e come sceglierli per l’uso standard. Questa settimana invece parleremo nello specifico di come scegliere i monitor in base all’utilizzo, gaming o lavoro.
Tratteremo molti aspetti presenti in un monitor da gaming. Decidere cosa è meglio, soprattutto quando il budget è basso non è facile, essendoci molte possibili scelte che possono destare confusione e un marketing ancora poco preciso per chi vuole comprare un monitor. Quindi qui presenteremo la nostra opinione su ciò che un appassionato di videogiochi dovrebbe prendere in considerazione, che non sono regole assolute ma, alcuni fattori possono dipendere dal livello di abilità dei giocatori.

Risoluzione

Quando si tratta di videogame, la maggior parte dei giocatori ritiene che più pixel ci siano più tutto risulterà migliore, ma questo è vero fino a un certo punto. Sì, è importante avere una densità di pixel sufficiente a rendere le immagini uniformi e realistiche, ma ovviamente più pixel si hanno, più potenza grafica servirà. Se si vuole la massima risoluzione disponibile sul desktop, esistono alcune limitazioni che bisogna accettare: il più grande di questi è la frequenza di aggiornamento dove le attuali interfacce video non supportano velocità superiori a 60Hz per i segnali UHD (4096×2160) e, anche se lo facessero, bisogna avere una scheda video potente per muovere realmente 8,2 milioni di pixel oltre i 60fps. Per esempio NVIDIA GTX Titan X riesce a malapena a gestire tutto ciò se si abbassano i livelli di dettaglio. L’attuale punto debole sembra essere la risoluzione QHD (2160×1440) in cui, nelle dimensioni fino a 32 pollici si avrà una buona densità e un’immagine dettagliata ma non troppo difficile da gestire per le schede video di fascia media. Naturalmente se si desidera la massima velocità, il FHD (1920×1080) fornirà i framerate più alti. Prima di fare un acquisto bisogna quindi valutare il proprio hardware.

Tecnologia del pannello

Come abbiamo detto i pannelli con tecnologia TN sono veloci e offrono una buona precisione e contrasto dei colori. Sono relativamente economici e i monitor FreeSync da 24 pollici con risoluzione FullHD sono in vendita anche a meno di 200 euro. Ma, visto le informazioni elaborate sulla qualità dell’immagine, e i desideri degli utenti per schermi da 27 pollici o più grandi, probabilmente si sarà più soddisfatti con l’immagine fornita da un display IPS o VA. Lo svantaggio è il loro costo più alto: i monitor da gioco IPS sono concentrati nella fascia più alta della scala mentre VA, con il suo contrasto leader di classe, è difficile da trovare a qualsiasi prezzo.

Adaptive Refresh

Il G-Sync, apparso per la prima volta quattro anni fa, è stata davvero una rivoluzione nell’elaborazione video. Dal momento che i giochi rendono il loro contenuto a un framerate costantemente variabile, è diventato necessario creare un monitor che potesse variare il suo ciclo di aggiornamento al passo con l’output della scheda video. G-Sync ha abilitato questa funzione per le schede basate su Nvidia pagando qualcosa in più rispetto ai normali monitor mentre, il concorrente AMD FreeSync ha un approccio diverso: semplicemente, aggiungendo nuove funzioni alle specifiche DisplayPort esistenti, un monitor può avere un aggiornamento adattativo senza sacrificare performance. Entrambe le tecnologie sincronizzano il framerate della scheda video con il monitor per evitare il fastidioso problema di bande sullo schermo; l’artefatto si verifica quando i frame non corrispondono: il computer invia un nuovo frame prima che il monitor abbia finito di disegnare il precedente e, assegnando il controllo della frequenza di aggiornamento alla scheda grafica, questo artefatto viene eliminato. Quando si sceglie tra i due, l’ovvia considerazione è su quale hardware si ha già investito: se si è possessori di una GTX 1080Ti, la scelta è chiara. Se si è indecisi su quale tecnologia adottare, tuttavia, ecco alcuni dettagli che potrebbero aiutare. Entrambi hanno un range operativo limitato: i monitor G-Sync funzionano sempre da 30Hz fino al massimo consentito dal monitor. I display di FreeSync non sono così coerenti e in genere supportano il refresh adattivo fino al massimo, ma è il limite inferiore che si deve prendere in considerazione. Questo può essere un problema se la scheda video non è in grado di mantenere i framerate sopra quel livello. Il Low Framerate Compensation (LFC), è una soluzione valida, ma funzionerà solo se il refresh massimo è almeno più del doppio rispetto al minimo. Per esempio, se il massimo è 100Hz, il minimo deve essere 40. Se l’intervallo è troppo piccolo, LFC non entra in gioco. Quindi se il proprio budget indica una scheda video da metà a bassa velocità, è preferibile scegliere il G-Sync con ovviamente una scheda Nvidia mentre, in caso di display FreeSync si sceglie AMD.

Refresh Rate

Quando sono usciti i primi display dedicati ai videogiochi, una caratteristica fondamentale era la loro capacità di funzionare a 144 Hz. Questa era una risposta alle prestazioni sempre più elevate offerte dalle schede video veloci. Ovviamente se si ha una scheda video che potrebbe far girare un gioco a 100 fps, è opportuno che anche il monitor sia abbastanza veloce. Un 60Hz semplicemente non basterà più. Oggi esistono schermi che girano a 144Hz, 200 HZ e addirittura 240 Hz. Quindi la domanda è una: è così importante la velocità di aggiornamento? La risposta ovviamente è si. Comprare un display con una frequenza alta, a lungo termine eviterà la necessità di cambiare  il monitor in poco tempo. Per coloro che spendono meno, tuttavia, 144 e persino 120 Hz sono molto veloci e consigliati. Nella maggior parte dei casi si ottiene un ritardo di input sufficientemente basso, un movimento fluido e un elevato carico di prestazioni per la maggior parte dei titoli in commercio.

Motion Blur Reduction e Overdrive

La riduzione della sfocatura e l’overdrive sono due caratteristiche che si trovano in molti schermi da gaming. In effetti l’overdrive è praticamente presente su tutti i monitor indipendentemente dal tipo e funziona, consentendo una certa quantità di overshoot durante le transizioni di luminosità. L’obiettivo di progettazione è che i singoli pixel anticipino la tensione richiesta per un particolare livello di luminosità. Se eseguito correttamente, il pixel raggiunge rapidamente quel livello, per poi cambiare nel fotogramma successivo prima che la tensione diventi troppo alta. Quando si verifica un overshoot, appare come un artefatto chiamato ghosting: Possiamo vederlo usando il test UFO di BlurBusters che si può trovare qui. È semplice da interpretare: bisogna guardare l’UFO mentre si cambiano  diverse opzioni OD. Quando è visibile una scia bianca dietro il “piattino”, si è andati troppo lontano. Nel contenuto reale, l’artefatto appare in transizioni ad alto contrasto come quelle tra oggetti scuri e chiari. Le implementazioni dell’overdrive differiscono notevolmente tra i monitor.

Come scegliere un monitor da lavoro

Gli utenti professionali hanno alcune esigenze speciali che devono essere considerate. Stiamo parlando di fotografi, tipografi, web designer, artisti di effetti speciali, game designer o chiunque abbia bisogno di un controllo preciso del colore lungo tutta la loro catena di produzione. Solo pochi monitor sono effettivamente certificati dai loro produttori ma se si vuole un display che sia preciso e pronto all’uso, è il modo migliore per garantire la qualità. Siamo d’accordo con i nostri lettori sul fatto che i monitor professionali dovrebbero essere pronti per il lavoro senza necessità di regolazioni, ma crediamo anche che un monitor professionale dovrebbe avere la flessibilità e la capacità di essere regolato in modo preciso. Ci sono due modi per farlo: l’OSD e il software. La maggior parte dei schermi ha un OSD, più o meno completo. Esistono OSD di grandi dimensioni dotati di cursori RGB per le scale di grigio, preimpostazioni del gamma e un sistema di gestione del colore. A volte i produttori si affidano a software che consentono all’utente di creare modalità personalizzate. Qualunque sia il metodo che si preferisce, è importante che un display professionale includa opzioni per diverse gamma di colori, temperature di colore e curve di gamma. Dovrebbero essere  presenti gli standard sRGB e Adobe RGB, le temperature di colore che vanno da 5000 a 7500K e le preimpostazioni di gamma da 1,8 a 2,4. I monitor utilizzati per la produzione televisiva o cinematografica dovrebbero anche supportare lo standard gamma BT.1886. Tutte le impostazioni dovrebbero essere identiche alle loro etichette e l’OSD dovrebbe avere regolazioni sufficienti per raggiungere la precisione.

Profondità di bit

Nella maggior parte dei casi, un pannello a 8 bit non sarà adatto per il lavoro di grafica professionale. Gli utenti solitamente richiedono almeno 10 bit, o preferibilmente 12. Questo è abbastanza comune tra i display professionali, ma è importante che gli utenti considerino l’intera catena del segnale quando superano gli 8 bit. In sostanza più bit si hanno più i colori risulteranno fedeli però, ovviamente, per usare un monitor del genere serve una scheda video che supporti oltre gli 8 bit; in caso contrario il monitor inserirà le informazioni aggiuntive, ma solo per interpolazione. Proprio come con il ridimensionamento dei pixel infatti, un display non può aggiungere informazioni che non sono presenti in primo luogo, può solo approssimarsi. La maggior parte delle schede video di fascia consumer sono limitate all’uscita a 8 bit in questo momento. Alcuni esempi premium possono inviare informazioni a 10 e 12 bit sul display, ma la soluzione migliore per un professionista è utilizzare qualcosa basato sui processori Nvidia Quadro o AMD FirePro.

Compensazione di uniformità

Alcuni display incorporano una compensazione di uniformità nel loro elenco di funzionalità. Questo ha lo scopo di eliminare le aree luminose o scure dallo schermo e bilanciare la luminosità in ogni zona. Alcuni produttori, NEC in particolare, hanno fatto di tutto per risolvere il problema, creando una tabella di ricerca per ogni singolo monitor che esce dalla catena di montaggio. Non si può semplicemente applicare le stesse correzioni a ogni pannello. L’unico modo per eliminare un hotspot in un campo nero è aumentare la luminosità delle altre zone a quel livello. Questo ha l’ovvio effetto di aumentare i livelli di nero e ridurre il contrasto: all’estremità luminosa della scala, i punti deboli vengono compensati abbassando l’uscita nelle zone rimanenti, riducendo anche il contrasto. La compensazione dell’uniformità non è molto utile perché i suoi benefici sono ampiamente superati dalla riduzione dell’output e del contrasto che ne risulta. Quindi, in sintesi, gli utenti che acquistano uno schermo di livello professionale dovrebbero cercare entrambe le opzioni di gamma di colori sRGB e Adobe RGB, una calibrazione certificata dalla fabbrica, un OSD completo con regolazioni precise e un pannello con profondità di colore nativa a 10 o 12 bit.

 

Conclusione

Ecco perché è così importante decidere l’uso che si farà con il proprio PC prima di comprare un monitor. Se sei un giocatore o stai mettendo insieme un sistema a livello professionale, il lavoro è praticamente finito. Tutti i principali mercati dei produttori si focalizzano principalmente per questi due scopi, gaming e lavoro e, grazie alle richieste degli utenti e alla copertura completa nei media, se una società afferma che il proprio monitor è appropriato per giocare o per lavorare, è davvero così. Sono finiti i giorni in cui un monitor poteva semplicemente essere stilizzato in un certo modo e chiamato da “gaming”. Deve essere supportato con funzionalità come l’aggiornamento adattivo e la risposta rapida del pannello. Il mercato così non sarà ingannevole per chi si avvicina per la prima volta in questo mondo. Lo stesso vale per gli ambienti professionali: dati i prezzi elevati che definiscono il genere, elementi come l’ampia gamma e la calibrazione di fabbrica sono obbligatorie se un produttore deve essere preso sul serio.