COMPTOIR
  
register

×

C'est-ti pas beau, toute cette ingénierie ?

ARM lance son nouveau design, le Cortex-A78
C'est-ti pas beau, toute cette ingénierie ?

Suivant la cadence toujours constante des nouvelles finesses de gravure disponibles chez TSMC, ARM a annoncé il y a quelques jours son nouveau design bénéficiant de la lithographie en 5 nm : le Cortex-A78.

 

Pas de surprise au niveau de la nomenclature, le nouveau venu succède au Cortex-A77 dévoilé l’an dernier. Sur ce modèle, et à notre grande satisfaction, ARM a préféré délaisser la course effrénée à la puissance pour se concentrer sur une puce plus économe, principalement par le biais d’ajustement de buffers. Certains se voient en effet étant augmenté, comme, là où d’autres — dont la fenêtre de réordonnancent des instructions ou les L1-I et L1-D qui passent en option à 32 kio — perdent en capacité. Globalement, la structure reste très proche de son prédécesseur : un out-of-order capable de traiter 6 micro-OPs par cycle (quand il ne rapatrie puis ne décode pas ses 4 instructions maximum depuis le L1).

Le prédicateur de branchement, lui, s’améliore, et peut désormais supporter deux prédictions par cycle, soit un débit doublé ; et le pipeline d’exécution s’élargit avec une unité de multiplication entière rajoutée, portant leur total à deux.

 

C'est-ti pas beau, toute cette ingénierie ? [cliquer pour agrandir]

 

D’ailleurs, cet équilibrage se traduit net sur la taille du die : en mettant de côté les améliorations dues à la gravure N5, le die (rétroporté en N7, donc) serait 5 % plus petit que celui du A77, pour un gain moyen en consommation de 4 %. Heureusement que la lithographie est là pour affermir ces tendances !

 

Au niveau des performances, le bousin serait 20 % plus rapide que l’A77 à consommation égale d’un watt par cœur... ce qui se traduit par une fréquence de 3 GHz sur l’A78 contre 2,6 GHz sur l’A77, soit 15 % de différence. Sans surprise, à fréquence égale, l’avantage est moins marqué avec seulement 7 % d’amélioration du temps d’exécution sur le benchmark SPECint 2006. Enfin, pour retourner les chiffres dans tous les sens, un score de 30 sur ce même benchmark sera réalisable en utilisant moitié moins d’énergie : de quoi faire rêver quant à l’autonomie des bidules équipés.

 

arm logo

 

En parlant justement de ces bidules, il s’agit bien ici d’un design disponible pour les partenaires tels MediaTek ou Qualcomm, et non d’un SoC complet l’intégrant : autant dire que les puces équipées ne sortiront pas de suite. Habituellement, les firmes prennent entre 6 mois et un an pour digérer ces tracés : rendez-vous en 2021 pour les premiers modèles ! (Source : WikiChip)

Un poil avant ?

Nous avons essayé • Glorious PCGR Model D

Un peu plus tard ...

Une version girly du CR-1100 chez JONSBO ? Et pourquoi pas !

Les 27 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Une ragoteuse à forte poitrine d'Occitanie, le Jeudi 04 Juin 2020 à 06h54  
par Etropmej en Île-de-France, le Mercredi 03 Juin 2020 à 09h49
C'est surtout qu'Apple est pingre sur la RAM, et qu'Android a eu la très mauvaise idée d'avoir choisi Java comme langage et qu'il compense par le caching avec ART.[...]
Après de nombreux resets et echanges avec le SAV samsung... One UI est juste bourré des fuites des rams et le seul moyen d'y remedier c'est un reboot C'est pas pour rien que sur le S10 ils sont passé à 8gb de ram ! Sur ma S6 avec 8go je mets 3-4 jours avant de le ressentir, par contre sur le S9 je dois le rebooter au moins un jour sur 2. Et j'ai le strict minimum d'apps installé, pas de root ou même de tweaks (comme BXActions ou Fluid Navigation Gesture, les apps qui utilisent l'accessibilité ).

Après je n'ai jamais dis qu'Apple étaient des génies de l'optimisation, je trouve qu'au contraire Mac Os X super gourmand depuis El Capitan. iOS 11 était extrêmement lent et bugué. Mais Android ? Ils ont toujours eu un retard face à iOS ( ou feu windows phone), quand aujourd'hui même avec le meilleur hardware du marché t'as régulierements des sautes, la rotation est lente, des refresh du home screen, des apps qui coupent en arrière plan... iOS est toujours très limité et je préfère vivre avec les défauts d'Android, mais vivement qu'on passe à autre chose comme le projet Fuschia de Google.
par Etropmej en Île-de-France, le Mercredi 03 Juin 2020 à 09h49  
par Une ragoteuse à forte poitrine d'Occitanie, le Mercredi 03 Juin 2020 à 09h03
ça c'est surtout car Android est optimisé avec le cul ! Un iPhone avec 3gb de ram garde bien plus d'apps en arrière plan qu'un smartphone Android avec 6go de ram. J'ai une Galaxy Tab S6 avec 8go de ram si je ne la reboot pas plusieurs fois par semaine elle peut à peine garder 3/4 apps en arrière plan avec toutes les fuites de mémoires qui trainent entre l'os, la surcouche et les apps. Et je n'ai quasiment que des apps de streaming dessus !

C'est encore pire sur mon S9 avec 4gb de ram qui ne peut rien garder en arrière plan, alors que je viens d'iDevices avec 2go de ram (un 6s et un Air 2) qui pouvaient garder de nombreuses apps en arrière plan sans broncher, ou juste me laisser Deezer ou mon appli de running sans couper toutes les 10 minutes !
C'est surtout qu'Apple est pingre sur la RAM, et qu'Android a eu la très mauvaise idée d'avoir choisi Java comme langage et qu'il compense par le caching avec ART.

Par contre, que tes devices prennent autant de RAM c'est pas possible, y'a un énorme problème surtout si tu dois reboot (y'a que toi qui a ça) ou que ça ne garde pas d'apps en arrière plan même si Samsung est réputé pour être la surcouche la plus lourde qui existe.
Si tout le monde s'en sort avec 2/3Go de RAM en multitasking pour les téléphones bas de gamme et toi non, c'est que le problème est de ton côté et que t'as une apps que t'as installé qui est mal codée.

Après, qu'apple fait dans de l'optimisé est complètement faux, quand tu vois l'ultra limité macOS qui te demande 4Go de RAM minimum alors que Windows 10 peut se contenter de 2Go de RAM... Sachant que la barrière entre macOS et iOS n'a jamais été aussi fine.
par Une ragoteuse à forte poitrine d'Occitanie, le Mercredi 03 Juin 2020 à 09h03  
par Un ragoteur Gaulois en Wallonie, le Lundi 01 Juin 2020 à 16h41
Sans oublier que l'augmentation de mémoire dans les smartphones vient aussi du fait que, si la demande augmente, ça fait plus de rentrées pour les fabricants. Nous sommes dans une économie de marché, pour gagner plus d'argent, il faut vendre plus et dire aux gens qu'ils ont besoins de consommer plus pour leur vendre plus.
ça c'est surtout car Android est optimisé avec le cul ! Un iPhone avec 3gb de ram garde bien plus d'apps en arrière plan qu'un smartphone Android avec 6go de ram. J'ai une Galaxy Tab S6 avec 8go de ram si je ne la reboot pas plusieurs fois par semaine elle peut à peine garder 3/4 apps en arrière plan avec toutes les fuites de mémoires qui trainent entre l'os, la surcouche et les apps. Et je n'ai quasiment que des apps de streaming dessus !

C'est encore pire sur mon S9 avec 4gb de ram qui ne peut rien garder en arrière plan, alors que je viens d'iDevices avec 2go de ram (un 6s et un Air 2) qui pouvaient garder de nombreuses apps en arrière plan sans broncher, ou juste me laisser Deezer ou mon appli de running sans couper toutes les 10 minutes !
par Un ragoteur blond en Île-de-France, le Lundi 01 Juin 2020 à 18h56  
par chambolle, le Lundi 01 Juin 2020 à 17h30
Le flash n'avait pas que des defauts ! Ca pouvait eviter de la conso de la bande passante...
Tout est un peu lié et comme je l'ai dit : on deconne certainement un petit peu partout et à la fin "Hello world" sur une page web fait 10 Mo ! La ou tu as raison c'est sur la taille des prog: regarde un .h de C vs un include de C++ et la on pleure
Ca reste toujours mieux qu'en Java ou JS (ce dernier + Electron) qui sont les pires... jusqu'à l'arrivée de WebAssembly.

Après, un binaire C++ ne me choque pas tant que ça par rapport au C.
par chambolle, le Lundi 01 Juin 2020 à 17h33
pour info ce qui pompe la batterie des portables c'est : le wifi, la luminosité de l'ecran et la luminosité du clavier. J'ai un Dell à 3000€, pour pouvoir l'utiliser pendant la traversée de l'atlantique il faut que je fasse gaffe a ces trois trucs. Sinon c'est pas bon Le lecteur video est important aussi (MPC-HC consomme 8% alors que windows Media consomme 20% chez moi)
Ah merci pour ton retour sur MPC-HC, t'as fait des mesures avec VLC ?

Par contre, la luminosité du clavier ?

Le ventilo pompe pas mal aussi, si t'arrives à cap l'utilisation CPU/GPU juste ce qu'il faut pour décoder sans que ça allume le ventilo tu devrais bien gagner.

Après, le WiFi pendant la traversée de l'Atlantique... ben mets tes films local.
par Un ragoteur blond en Île-de-France, le Lundi 01 Juin 2020 à 18h48  
par Un ragoteur Gaulois en Wallonie, le Lundi 01 Juin 2020 à 16h41
Sans oublier que l'augmentation de mémoire dans les smartphones vient aussi du fait que, si la demande augmente, ça fait plus de rentrées pour les fabricants. Nous sommes dans une économie de marché, pour gagner plus d'argent, il faut vendre plus et dire aux gens qu'ils ont besoins de consommer plus pour leur vendre plus.
Pour les smartphones et l'augmentation démesurée de la, c'est comme les bordures ultra fins voire inexistants ou les bordures courbés, personne n'avait demandé ça.

En 2015, on trouvait que 4Go de RAM c'était énorme alors qu'on faisait surtout du 2Go de RAM pour les flagships. Aujourd'hui, il y a des phones avec 12Go de RAM, soit plus que dans la majorité de PC et laptops.

Pour nous users, ça va vouloir dire rachat forcé, car vu la logique des premiers commentaires ("pourquoi j'optimiserais ne serait-ce qu'un minimum alors qu'on a des machines toujours plus puissantes ?" ), on n'est pas sorti de l'auberge.

Après je suis totalement d'accord avec toi sur le fait qu'ils ont crée de la demande pour vendre plus.

Tu me fait d'ailleurs penser à une chose auquel je repense assez souvent question consommation et où je ne trouve pas de réponse: Si les prix ne cessent d'augmenter mais que les salaires n'arrêtent pas de stagner, à un moment on ne pourra plus acheter autre chose que les trucs vitaux. Sachant que les plus riches sont les plus à même à bloquer la circulation d'argent car ils ne font que amasser.
Que se passera t'il pour l'économie ?
par chambolle, le Lundi 01 Juin 2020 à 17h33  
pour info ce qui pompe la batterie des portables c'est : le wifi, la luminosité de l'ecran et la luminosité du clavier. J'ai un Dell à 3000€, pour pouvoir l'utiliser pendant la traversée de l'atlantique il faut que je fasse gaffe a ces trois trucs. Sinon c'est pas bon Le lecteur video est important aussi (MPC-HC consomme 8% alors que windows Media consomme 20% chez moi)
par chambolle, le Lundi 01 Juin 2020 à 17h30  
par Un ragoteur blond en Île-de-France, le Lundi 01 Juin 2020 à 17h25
J'en viens même à regretter la disparition de flash, qui lui au moins était killable et ne consommait pas autant de ressources que les sites d'aujourd'hui. C'est dire.
Le flash n'avait pas que des defauts ! Ca pouvait eviter de la conso de la bande passante...
Tout est un peu lié et comme je l'ai dit : on deconne certainement un petit peu partout et à la fin "Hello world" sur une page web fait 10 Mo ! La ou tu as raison c'est sur la taille des prog: regarde un .h de C vs un include de C++ et la on pleure
par Un ragoteur blond en Île-de-France, le Lundi 01 Juin 2020 à 17h25  
par chambolle, le Lundi 01 Juin 2020 à 16h16
Ca depend ici on parle de ram, donc ce que tu gaspilles eventuellement c'est de l'electricité. En plus encore faut-il etre certain que la baisse de l'utilisation de la RAM ne s'accompagne pas d'une hausse du CPU (pour refaire des calculs par exemple).
Pour le web, c'est essentiellement la faute des sites.

Je ne vois pas bien ou tu vois de la surconsommation ? passe ton ecran en 720p, va tu des sites uniquement texte et tu consommeras certainement moins.
J'avais complètement oublié la consommation de jus. Ca consomme pas grand chose (5W par barrette de mémoire ) mais sur laptop ça joue énormément.

A la base, le caching est comme tu le dis sensé être là pour éviter de refaire des calculs (entre autres), sauf qu'il n'y a qu'une petite partie qui est vraiment réutilisée.
Parce que l'usage majoritaire consiste surtout à tout pré-cacher pour "augmenter les performances"/ne pas optimiser alors que c'est inutile.
Un peu comme pré-charger 3h de vidéo sur Youtube en RAM alors que t'es pas sûr que le gars va regarder toute la vidéo et trois fois, du coup, ça tape aussi dans le CPU mais pour rien par exemple.

Quand je parle de surconsommation, c'est par exemple utiliser 15Mo de RAM pour une simple page web au lieu de 2Mo il y a 7 ans, les apps Electrons, etc.
Effectivement mes remarques concerne surtout le web, et tout ce qui ne devrait pas y être rattaché.

J'en viens même à regretter la disparition de flash, qui lui au moins était killable et ne consommait pas autant de ressources que les sites d'aujourd'hui. C'est dire.
par Un ragoteur Gaulois en Wallonie, le Lundi 01 Juin 2020 à 16h41  
par Un ragoteur blond en Île-de-France, le Lundi 01 Juin 2020 à 10h14
Si pour une même chose tu consommes déraisonnablement plus de ressources (ce qui est de plus en plus le cas), c'est du gaspillage.
Sans oublier que l'augmentation de mémoire dans les smartphones vient aussi du fait que, si la demande augmente, ça fait plus de rentrées pour les fabricants. Nous sommes dans une économie de marché, pour gagner plus d'argent, il faut vendre plus et dire aux gens qu'ils ont besoins de consommer plus pour leur vendre plus.
par chambolle, le Lundi 01 Juin 2020 à 16h16  
par Un ragoteur blond en Île-de-France, le Lundi 01 Juin 2020 à 10h14
Si pour une même chose tu consommes déraisonnablement plus de ressources (ce qui est de plus en plus le cas), c'est du gaspillage.
Ca depend ici on parle de ram, donc ce que tu gaspilles eventuellement c'est de l'electricité. En plus encore faut-il etre certain que la baisse de l'utilisation de la RAM ne s'accompagne pas d'une hausse du CPU (pour refaire des calculs par exemple).
Pour le web, c'est essentiellement la faute des sites.

Je ne vois pas bien ou tu vois de la surconsommation ? passe ton ecran en 720p, va tu des sites uniquement texte et tu consommeras certainement moins.
par Un ragoteur blond en Île-de-France, le Lundi 01 Juin 2020 à 10h14  
par Scrabble, le Lundi 01 Juin 2020 à 03h39
Ce n'est pas parce qu'un logiciel utilise beaucoup de RAM, qu'elle est "gaspillée". Les exemples de programmes que tu donnes sont optimisés. Bien sûr, si c'est juste pour faire un éditeur de texte, tu n'a pas besoin de beaucoup de RAM. Mais les navigateurs internet, aujourd'hui, sont de vraies machines virtuelles. Perso, il y a déjà bien longtemps, j'avais acheté 32 Go de RAM DDR3 pour mon i5-2500 pour 150 €, alors que les prix n'étaient pas chers. Et je ne me pose plus de questions.
Si pour une même chose tu consommes déraisonnablement plus de ressources (ce qui est de plus en plus le cas), c'est du gaspillage.

En ce qui concerne les navigateurs web par exemple, le multiprocess pour éviter que tout le browser tombe quand c'est le cas d'un onglet existe depuis très longtemps. Mais la consommation de RAM ne cesse encore d'augmenter pour afficher les mêmes choses.
Le web est justement ce qu'il y a de moins optimisé d'ailleurs.

Après, pourquoi cautionner le poussage à la sur-consommation ? C'est comme la population humaine, à un moment il faut poser des limites.
Ce n'est pas parce que tu peux upgrade ta RAM que ça devrait être la voie à suivre (le fameux WorksForMe?).

Parce que coment tu fait pour les smartphones dont le CPU est encore largement capable de faire tout ce qu'on lui demande ? (ex: Galaxy S3, Nexus 4, Nexus 5, etc). Tu rachètes un autre téléphone ?
Idem pour les laptops avec la ram soudée (de plus en plus répandus).
par Scrabble, le Lundi 01 Juin 2020 à 03h39  
par Un ragoteur blond en Île-de-France, le Dimanche 31 Mai 2020 à 22h17
Parce que personne ne lance un truc lourd tout seul aujourd'hui, le cas browser (Facebook/Instagram, 2/3 onglets + streaming musique, etc) + app electron (Discord) + jeu moyen, ça peut très facilement monter à 8Go total d'utilisé, alors que pour la même chose il y a 7 ans c'était avec 4Go de RAM max (ou 6Go avec un jeu ultra gourmand en RAM).

Bref, on aurait pu utiliser cette RAM disponible pour avoir des choses meilleurs encore au lieu de la gaspiller pour un quasi même résultat qu'il y a des années.
Ce n'est pas parce qu'un logiciel utilise beaucoup de RAM, qu'elle est "gaspillée". Les exemples de programmes que tu donnes sont optimisés. Bien sûr, si c'est juste pour faire un éditeur de texte, tu n'a pas besoin de beaucoup de RAM. Mais les navigateurs internet, aujourd'hui, sont de vraies machines virtuelles. Perso, il y a déjà bien longtemps, j'avais acheté 32 Go de RAM DDR3 pour mon i5-2500 pour 150 €, alors que les prix n'étaient pas chers. Et je ne me pose plus de questions.