Archive for 10/26/13

La manette DualShock 4 de Sony sera compatible Windows


La DualShock 4La DualShock 4
Un responsable de Sony a confirmé sur Twitter que la prochaine manette de la société, la DualShock 4, sera compatible avecWindows. Aujourd’hui, la DualShock 3, demande des pilotes tiers pour fonctionner sur un PC. Pour mémoire, la PS4 et la DualShock 4 sont attendues le 29 novembre 2013 en France.

Sony se lance sur le marché des manettes pour PC

Sony tente donc de rivaliser avec Microsoft dont les manettes fonctionnent naturellement avec Windows. Il prendra même de l’avance puisque la manette de la Xbox One ne sera pas compatible avec Windows avant 2014, selon son fabricant.
Sony explique que les pilotes prendront en charge les « les fonctions basiques ». On imagine que cela signifie la prise en charge des boutons et joysticks, mais que la surface tactile ou le bouton Share devront attendre. La firme n’a pas expliqué si elle allait utiliser l’API Xinput, qui permettrait à sa manette d’être reconnu comme une manette de Xbox, ce qui accroît la compatibilité dans les jeux. On peut aussi penser que la firme se prépare à la sortie de la Steam Box qui sera compatible avec les contrôleurs pour PC.
samedi 26 octobre 2013

Jouer en 4K : votre PC est-il prêt ?[2]

Malheureusement, nous ne pouvons pas utiliser l’interface DisplayPort pour le test. En effet, FCAT s’appuie sur la capture vidéo réalisée au niveau du périphérique d’affichage, laquelle est ensuite soumise à plusieurs scripts Perl pour analyse. En l’état actuel des choses, l’enregistrement d’un flux en 2560x1440 pousse la carte de capture vidéo Datapath Ltd. dans ses derniers retranchements. Cependant, le fait de séparer le flux en deux signaux HDMI rend le processus de capture faisable puisque l’on travaille sur deux sources en 1920x2160.
Le reste du protocole de test est très similaire à l’analyse FCAT que nous avons adoptée il y a plusieurs mois. Bien que la vidéo fasse apparaitre le flux d’une seule des deux dalles, la carte graphique produit un rendu pour les deux : les performances mesurées sont donc représentatives de l’environnement global.
Notons que toutes les cartes graphiques utilisées sont conçues par NVIDIA : une GTX Titan seule, deux GTX 770, deux GTX 780 et enfin une paire de GTX Titan. Cette sélection a été dictée par des contraintes logicielles : le frame-pacing (technologie permettant d’optimiser le rythme auquel les images sont envoyées au périphérique d’affichage) récemment implémenté par AMD dans ses Catalyst ne fonctionne pas avec une définition supérieure à 2560x1600 actuellement. Par ailleurs, l’écran en « tuiles » de l’Asus PQ321Q nécessite l’Eyefinity, fonctionnalité pour le moment inaccessible sur ce moniteur.
Plutôt que de publier une série de graphiques illustrant une fois de plus un grand nombre d’images partiellement affichées ou perdues, nous avons décidé de faire l’impasse sur le CrossFire pour le moment. AMD est tout à fait conscient de la situation et nous espérons donc qu’une mise à jour des Catalyst permettra de résoudre de problème d’ici à la fin de l’année. Cette future version devrait donc prendre en charge les définitions très élevées avec Eyefinity, DirectX 9 et OpenGL.
Configuration du test
Composants
ProcesseurIntel Core i7-4960X (Ivy Bridge-E) 3,6 GHz par défaut, 4 GHz maximum en Turbo Boost, LGA 2011, 15 Mo de cache L3 partagés, Hyper-Threading et économies d'énergie activées
Carte mèreASRock X79 Extreme5 (LGA 2011) chipset X79 Express, BIOS 2.40
DRAMG.Skill 32 Go (8 x 4 Go) DDR3-2133, 2x F3-17000CL9Q-16GBXM CAS 9-11-10-28 pour 1,65 V
StockageSamsung 840 Pro SSD 256 Go SATA 6Gb/s
Cartes graphiquesNvidia GeForce GTX Titan 6 Go

Nvidia GeForce GTX 780 3 Go

Nvidia GeForce GTX 770 2 Go
AlimentationCorsair AX860i 860 Watts
Logiciels et pilotes
OSWindows 8 Professionnel 64 bits
DirectX DirectX 11
GraphiquesNVIDIA GeForce 327.19
Benchmarks
Battlefield 3Qualité Ultra, sans v-sync, 3840x2160, DirectX 11,  mission Going Hunting, 90 secondes, FCAT
Arma 3Qualité Ultra, DirectX 11, FSAA 2X, sans v-sync, 3840x2160, mission Infantry Showcase, 30 secondes, FCAT
Grid 2Qualité Ultra, sans v-sync, 3840x2160, benchmark intégré, FCAT
The Elder Scrolls V: SkyrimQualité Ultra, FXAA désactivé, 3840x2160, benchmark THW, 25 secondes, FCAT
BioShock InfiniteQualité Elevée, DirectX 11, 3840x2160, benchmark THW, 75 secondes, FCAT
Crysis 3Qualité Elevée, SMAA MGPU (2x), résolution des textures élevée, 3840x2160, benchmark THW, 60 secondes, FCAT
Tomb RaiderQualité Ultra, FXAA, filtrage anisotrope 16X, TressFX, 3840x2160, benchmark THW, 45 secondes, FCAT
http://www.tomshardware.fr

Jouer en 4K : votre PC est-il prêt ? [1]

Les performances des cartes graphiques ont tellement augmenté sous l’effet de la guerre sans merci entre AMD et NVIDIA que depuis quelques temps, on voit plusieurs cartes graphiques haut de gamme bridées par le processeur auquel elles sont associées, ou bien sous-exploitées par tel ou tel jeu.
Parallèlement à cette tendance de fond, des titres comme Crysis 3, Metro : Last Light ou encore Arma 3 nous montrent que les développeurs sont encore tout à fait capables de repousser les limites : même les cartes graphiques les plus chères sont rapidement en souffrance lorsque l’on pousse les réglages d’un de ces trois jeux au maximum. Pour peu que l’on décide de jouer sur trois écrans en AMD Eyefinity/NVIDIA Surround, c’est alors une paire de bonnes cartes graphiques ou plus qui s’imposent. De nombreux benchmarks ont été effectués au labo en 5760x1080 et nous sommes en mesure d’aller jusqu’en 7680x1440 si besoin est.
Nous constatons un intérêt croissant pour les moniteurs à très haute résolution et après avoir vu les écrans QHD se démocratiser, place au 4K UHD avec une définition native de 3840x2160. Certes, il faut encore se contenter d’un ratio 16:9, mais on peut tout de même être enthousiaste en voyant ce format faire ses premiers pas du côté des moniteurs.
Comme c’est le cas avec chaque nouveau format, les contenus sont indispensables pour toucher le grand public. Ceci explique en partie pourquoi les possesseurs de téléviseurs 4K sont rares dans nos entourages. La situation est complètement différente du côté des PC : on peut acheter un moniteur UHD, l’installer sur son bureau et travailler sur des classeurs Excel géants comme si de rien n’était. Plus intéressant encore, la perspective de jouer à Skyrim en 3840x2160 avec le pack de textures HD : le rendu visuel est à tomber par terre sachant que l’on s’épargne bien entendu la gêne engendrée par les bords d'écrans sur les configurations multi-écrans.
La vraie question devient ainsi la suivante : quelle est la puissance graphique nécessaire pour un débit d’image fluide sur 8,3 millions de pixels ? Il va de soi que pour chacun d’entre nous ou presque, la réponse sera largement supérieure à ce dont nos PC sont capables.
Jouer en 4K Ultra HD en 2013
Imaginons que l’on cherche aujourd’hui un écran Ultra HD sans savoir quel modèle prendre. La première chose à connaître est la capacité de son PC à gérer une telle résolution avec une fréquence de rafraîchissement adaptée.
Les TV 4K premier prix peuvent être reliés à un seul câble HDMI tout en plafonnant à 30 Hz compte tenu des limites en bande passante propres à cette interface. On voit même des modèles de ce genre à 700 $ outre atlantique, comme par exemple le Seiki Digital SE39UY04. L’Asus PQ321 est un des rares écrans 4K à pouvoir atteindre 60 Hz. Outre le fait de devoir débourser 3400 euros pour avoir droit à cette fréquence, il faut nécessairement utiliser un câble DisplayPort … ou deux câbles HDMI, possibilité pour l’instant réservée au modèle disponible en Amérique du nord et en Asie.
Deux câbles HDMI ?
Le PQ321Q est un écran en « tuiles » : son écran de 31,5 pouces se compose de deux dalles 1920x2160 accolées. L’utilisation de deux sorties vidéo sur la carte graphique signifie que chaque port HDMI est géré de manière indépendante. Il est également possible d’utiliser une connectique DisplayPort rév. 1.2 (ou supérieur), laquelle alimentera un démultiplexeur intégré à l’écran pour sortir deux flux de données.
D’après NVIDIA, Asus utilise deux technologies pour éviter le phénomène de tearing entre les deux dalles : fliplock force chaque GPU à vider son tampon mémoire de manière synchrone, tandis que scanlock oblige chaque GPU (et périphérique d’affichage) à afficher les scanlines en synchronisation. Ces technologies viennent tout droit de l’imagerie professionnelle où la synchronisation est nécessaire sur de multiples périphériques.
Lorsque le PQ321Q est arrivé sur le marché, les pilotes NVIDIA n’étaient manifestement pas prêts. La firme au caméléon a travaillé sur son logiciel pour sortir les ForceWare 329.19, lesquels apportaient entre autre une structure EDID (Extended Display Identification Data) remaniée permettant au moniteur de se présenter comme un écran en « tuiles » au pilote (cette approche est maintenant intégrée au standard DisplayID v.1.3). En clair, le pilote se sert de cette information pour configurer l’affichage en Surround 2x1.
Ceci ne veut pas dire que, malgré un nouveau pilote chez NVIDIA et un nouveau firmware d’Asus, le PQ321Q est devenu parfaitement fonctionnel. A l’allumage du PC, on voit systématiquement l’écran Windows parqué du côté gauche de l’écran. Après avoir fraîchement installé Windows 8, il nous a tout simplement été impossible d’installer le pilote 327.19 vu que le PC plantait à chaque tentative. Par ailleurs, nous avons constaté que certains jeux se lançaient à une résolution différente de celle définie au préalable avec un phénomène de flashs sur le bureau, même s’il faut signaler que nous utilisions alors deux câbles HDMI ainsi que le répartiteur DVI indispensables aux tests FCAT. Lorsque le PQ321Q est paramétré pour accepter un flux MST (Multi-Stream Transport) et la connexion entre le moniteur et PC assurée par un câble DisplayPort, l’expérience est nettement meilleure sans pour autant être irréprochable : on voit toujours le logo Windows plaqué d’un côté de l’écran et une des deux dalles est susceptible de scintiller avant l’autre au lancement d’un jeu. On peut cependant considérer qu’il s’agit de défauts inhérents aux écrans en « tuiles ». Plus étonnant, le fait de choisir une définition inférieure à 3840x2160 a pour effet de rogner le bureau plutôt que de le mettre à l’échelle.
Notons qu’il va encore falloir patienter un bon moment avant que la technologie d’affichage passe à un seul contrôleur, un an peut-être, sachant que les écrans en « tuiles » ne disparaitront pas brutalement pour autant. Il va donc falloir se faire à la technologie existante d’ici là.

2

Make moey now

Make moey now
bienvenue chez nous ... chez le monde de l'informatique et si tu aime ! clique sur partager...

save as PDF .

Informatique Astuces et Info

Popular Post

Blogger templates

Powered By Blogger

Pages vues le mois dernier

Fourni par Blogger.

Make money now

Make money now
ShareCash

Pages - Menu

Blog Archive

About

Informatique Astuces et Info

- Copyright © Informatique Astuces et Info -Metrominimalist- Powered by Blogger - Designed by Johanes Djogan -