Sony

[Humeur]La grande mode du partage connecté…

Publié le Mis à jour le

Roh, mais sérieusement, qu’est-ce qu’ils ont tous à vouloir nous faire partager de courtes vidéos de nos parties, hein ? Partage sur PS4, partage sur Xbox One, et maintenant Nvidia qui nous pond un truc pour que les GeForce fassent elles aussi de l’enregistrement…

Eh bien je dis non ! Y en a marre ! C’est bien ça le problème actuellement, on nous propose de plus en plus de fonctions connectées, sauf qu’en contrepartie, on en a de moins en moins pour partager les expériences de jeu dans son propre salon. C’est quand même un comble, non ? Nos télés sont de plus en plus grandes, les machines de jeu de plus en plus puissantes, le support d’au moins 4 manettes est censé être le standard absolu, et pourtant, le multijoueur en local est une denrée qui se fait de plus en plus rare. Tellement en fait que la poignée de jeux proposant encore cette fonctionnalité est souvent un carton (admirez la logique quand même, ça cartonne, mais il en sort de moins en moins chaque année).

Parce que c’est bien joli les services de jeux en ligne et les réseaux sociaux. Mais le jeu vidéo, à la base, c’est une expérience qui se vit depuis toujours en priorité depuis son chez soi, avec de vrais gens, avec ses vrais potes avec qui on partage de vrais moments. Personnellement, je ne me suis jamais autant éclaté en multijoueur que quand on s’est fait des parties tous ensemble dans le même salon, que ce soit sur consoles ou en LAN, j’ai beaucoup plus de mal en ligne avec des gens que je ne côtoierai virtuellement que le temps d’une partie, ou que les quelques mois que je passerai sur un jeu, et encore si je prend la peine de me lancer de façon régulière dans les modes multijoueurs.

Donc voilà, tout ça pour dire que cette grande mode du partage vidéo, ça sera comme le reste, toujours de l’optionnel qu’on nous fera passer pour de l’indispensable, pendant qu’on nous privera toujours un peu plus de ce dernier…

Publicités

Nvidia tâcle la PS4 : mauvaise foi or not mauvaise foi ?

Publié le Mis à jour le

Depuis l’annonce de la Playstation 4 le 20 février dernier, nous avons droit pratiquement chaque semaine à des interviews dans lesquels les divers acteurs de l’industrie s’expriment sur le potentiel de la future machine de Sony. Jusque-là, nous avions essentiellement les avis des officiels de Sony et d’AMD vantant bien évidemment le produit de leur collaboration, ceux des développeurs enthousiasmés par l’architecture PC de la machine, et enfin ceux des journalistes plus spécialisés matos PC, justement, et qui eux tempéraient un brin les ardeurs d’un marketing prompt à « dépasser les PC pour les années à venir ». Et voilà que cette semaine, c’est une autre voix majeure qui se fait entendre, celle du concurrent de toujours d’ATI/AMD dans le domaine des cartes graphiques, Nvidia.

Nvidia, qui avait un pied dans le marché des consoles depuis une douzaine d’années maintenant avec la fabrication du GPU de la Xbox puis de la PS3, n’a décroché aucun contrat avec aucun des trois grands fabricants pour la génération en cours de déploiement : Wii U, PS4, future Xbox, toutes ont ou auront une puce graphique AMD sous le capot. C’est Tony Tamasi, senior vice-president des contenus et de la technologie chez Nvidia, qui a tiré à boulets rouges sur la PS4, en s’appuyant sur ce que nombre d’observateurs ont déjà constaté : « un processeur central d’entrée de gamme et un processeur graphique entre l’entrée et le milieu de gamme », comparant le tout avec l’un des modèles-phare de la marque, la GeForce 680 GTX lancée il y a 1 an de cela, et dont la future console de Sony n’aurait que la moitié de la puissance. Alors, info ou intox ? Sont-ce là le point de vue d’une entreprise en froid avec un marché qui l’a rejeté, ou est-ce que les propos du sieur Tamasi ne font ressortir qu’une froide vérité, loin du grandiloquent discours du marketing de masse ? Une petite analyse nous permet de commencer à esquisser un semblant de réponse, tout du moins vis-à-vis du CPU dont on peut plus facilement imaginer les performances, je laisse de côté la puce graphique étant donné les éléments bien plus nombreux qui peuvent faire varier les performances.

D’abord, penchons-nous sur la place occupée par l’architecture Jaguar, laquelle anime le processeur de la PS4, dans la gamme de son fabricant. Chez AMD, les futurs processeurs utilisant Jaguar sont amenés à remplacer ceux utilisant l’architecture Bobcat qui est, et là nous avons effectivement un premier élément sur lequel le représentant de Nvidia a raison mais qui avait déjà été souligné par de nombreux observateurs, présente dans les APU (CPU + GPU sur la même puce chez AMD) d’entrée de gamme des séries C et E qui équipent les netbooks ainsi que les portables et tours à très bas prix. Dans ses annonces sur Jaguar, qu’on verra aussi arriver d’ici à la fin de l’année pour PC, AMD annonce 10 à 15% de performances en plus par rapport à Bobcat.

Voyons ensuite ce que ça peut donner en extrapolant à partir d’un APU Bobcat E-350 (double coeur, cadencé à 1,6 GHz comme le processeur qui animera la PS4) et des résultats obtenus sur le dernier 3DMark, dont le panel de test assez large représente je pense une assez bonne référence pour se faire une vague idée de ce qui nous attend.

Puisqu’on va tenter ici d’entrevoir les performances du processeur central uniquement, il faut se concentrer sur les tests physiques des deux premières scènes Ice Storm (DirectX 9, soit le niveau de rendu des consoles HD actuelles, charge de calculs physique assez légère pour des PC étant donné qu’Ice Storm testera aussi smartphones et tablettes quand 3DMark sera disponible pour Android et iOS) et Cloud Gate (DirectX 10, charge physique déjà bien plus lourde). Le test de la troisième scène, Fire Strike, faisant appel en plus au GPU pour les calculs physiques, le résultat n’est pas intéressant dans le cas présent.

  • Sur le test physique d’Ice Storm, le E-350 obtient un score de 31 images/seconde. En prenant en compte le plus grand pourcentage de hausse des performances prévu par AMD pour Jaguar, donc 15%, cela nous amène à pratiquement 36 img/s. Et si l’on part du principe que la hausse du nombre de coeur fait augmenter les performances de manière parfaitement proportionnelle, on passe de 2 à 8 coeurs pour le CPU de la Playstation 4, ce qui nous donne un résultat de 144 img/s.
  • Sur celui de Cloud Gate, on est aux environs de 2 images/seconde pour le E-350. Avec les 15% de performances supplémentaires, ça nous fait 2,3 img/s, et à 8 coeurs, 9,2 img/s.

Bon, maintenant qu’on a les résultats hypothétiques, qu’est-ce que ça donne face au reste de l’offre PC, sachant que, d’après certains développeurs, la Playstation 4 est censée coller un gros vent à ces dernier et à leurs successeurs dans les années à venir ? Eh bien, sur le plan du CPU, et évidemment si mes résultats s’avèrent en phase avec ce qu’on aura en pratique, on est quand même plus proche des attaque venant de chez Nvidia que des propos enthousiastes des développeurs.

Parce que si effectivement avec une charge CPU légère comme sur Ice Storm les résultats hypothétiques sont meilleurs que pour la plupart des processeurs à environ 150€ ou moins, sur Cloud Gate, c’est nettement moins évident puisque même un vieillissant Phenom II 945  de chez AMD (3 GHz, 4 coeurs) fait mieux. Un Core i3 3220 (3,3 GHz, 2 coeurs + Hyper-Threading) fait également mieux, et n’en parlons pas quand on passe sur du Core i5, du Core i7 ou du FX de chez AMD. Je rappelle également que, pour simuler les performances, je n’ai retenu que les scénarios les plus favorables (15% de perfs en plus, 4 fois plus de coeurs = 4 fois plus de perfs).

Toutefois, n’oublions pas que les choses ne sont pas aussi simples, car le processeur ne sera pas le seul élément qui compte, il y aura aussi la puce graphique, et les 8 Go de GDDR5 à priori bien plus rapide que la DDR3 qui équipe actuellement les PC. S’il est clair qu’au niveau de l’architecture, le CPU de la Playstation 4 n’a rien d’impressionnant, appartenant à l’entrée de gamme d’AMD, l’utilisation correcte des 8 coeurs aura une place prépondérante dans ses bonnes ou mauvaises performances, et on commence d’ailleurs à voir ce qui se passera dans les années à venir avec un jeu comme Crysis 3 mieux optimisé pour exploiter les processeurs à plus de 2/4 coeurs : alors que les Core i5 et i7 d’Intel sont d’ordinaire archi-dominateurs face aux FX d’AMD dans le domaine des jeux, sur le dernier FPS de Crytek, le FX-8350 (4 GHz, 8 coeurs) vient se placer devant la quasi-totalité de l’offre concurrente. A moins de 200€, le fleuron d’AMD risque de devenir des plus intéressants dans les mois à venir…

Le mot de la fin : Nvidia n’a effectivement pas de soucis à se faire, les nouvelles consoles n’enterreront pas plus les PC que celles qui les ont précédés, par contre, et en cela les fabricants de composants devraient plutôt êtres soulagés, elles vont les aider à enfin exploiter  dans les jeux tout le potentiel de leurs processeurs et cartes graphiques qui n’attendent que ça depuis des années (technologies DirectX 10/11, processeurs quad et octo-coeurs).