27/01/2011

La nanotechnologie en 2011

graphène.gif

LA NANOTECHNOLOGIE EN 2011

Que serait le processeur sans le nanotechnologie ? La révolution invisible, l'infiniment petit dont les limites sont sans cesse repoussées. Pour exemple, dans les années 1970, un transistor, soit le composant de base essentiel de tout nos microprocesseurs mesurait 12 micromètres(01), le standard actuel est de 32 nanomètres(02) pour le fondeur Intel numéro un dans le monde des processeurs.

 

 Simon Deleonibus.jpgL'ITRS(03) (International Technologie Roadmap fo Semiconductors) prévoit pour les années à venir des composants de 10 nanomètres aux alentours de 2020. Ainsi comme le résume Simon Deleonibus(04), directeur scientifique au CEA-Leti(05) qui est le laboratoire de recherche spécialisé dans l'électronique « cela fait longtemps que l'électronique a franchi la frontière du nanomonde ».

 

  

gordon-moore-004.jpgDès 1965, la miniaturisation de l'électronique est en pleine essor, cette année Gordon Moore(05) et oui encore lui, cofondateur du géant du processeur Intel, prévoit en effet que le nombre de transistors que l'on peut ajouter au sein d'une puce électronique devrait doubler tous les deux ans. Depuis, cette prévision connue sous le nom de la loi de Moore(06), n'a jamais été démentie.

 La raison est facile à comprendre : Des transistors plus petits ont pour conséquence des processeurs plus rapides (plus ils sont petits, plus ils sont proches entre eux), ils seront moins chers (puisque plus de puces pourront être gravées sur la galette de silicium), et ils seront bien moins gourmand en énergie. On comprend l'intérêt de la miniaturisation et son gage de performances technologiques renouvelées et son profits croissants.

 La barre des 100 nanomètres a été franchie en 2002, et déjà à cette époque le monde de l'électronique se heurte inévitablement aux lois physiques essentielles. Ainsi depuis une dizaine d'années, les chercheurs doivent rivaliser d'ingéniosité pour ajuster impératifs industriels et contraintes inhérentes à l'échelle nanométrique. Si l'on considère d'après les études récentes sur le nanomètre, la limite acceptable sera atteinte entre 3 ou 2 nanomètres et devrait nous conduire jusqu'en 2030. Les transistors se rapprochant à grand pas de l'échelle de l'atome, c'est une toute nouvelle électronique qui est actuellement en gestation dans les laboratoires car à un moment donnée il sera impossible de franchir les barrières imposées par les physiques fondamentales.

 

graphene_sheet.jpgDepuis 2002 les chercheurs travaillent sans relâches pour découvrir un remplacement au silicium qui va rapidement être en fin de vie et laisser la place à de nouveaux composants dont certains sont déjà des vedettes comme le graphène(07). Tout les scientifiques rêve du graal de l'informatique : l'ordinateur quantique(08). Dans le cas d'un ordinateur ordinaire, les informations sont stockées sous la forme de bits prenant les valeur 0 ou 1, des bits quantiques (ou qubits(09)) pourraient simultanément prendre les valeur 0 et 1.

 

Le matériau qui semble irrémédiablement lié à l'électronique : le silicium. Mais à l'heure ou la miniaturisation des composants atteint l'échelle atomique, sera-t-il demain l'élément phare de la nanotechnologie ? Si on observe la montée en puissance du graphène, rien n'est moins sûr. Depuis sa découverte en 2004, ce matériau bidimensionnel composé d'une unique couche d'atome de carbone formant un réseau en nid d'abeille est la star des congrès de nanotechnologie. Avec de bonnes raisons. Alors qu'à faible épaisseur, la plus par des matériaux cessent de conduire le courant électrique, le graphène reste le seul matériau connu actuellement et aussi bon conducteur que le cuivre. La mobilité des électrons du graphène est près de 50 à 500 fois plus élevée que dans le silicium.

On comprends mieux l'intérêt de ce matériau par les spécialistes de la microélectronique pour concevoir de minuscules composants affichant des performances démentielles. Un tout premier transistor au graphène a vu le jour en 2007 mis au point par les chercheurs André Geim et Konstantin Novodelov, prix Nobel de physique 2010 et en 2008, ces chercheurs ont élaboré le plus petit transistor jamais conçu. Attention les yeux, ce transistor atteint la petitesse d'une épaisseur d'un atome et de 10 atomes de long. Voici pourquoi depuis cet exploit, des équipes ont emboîté le pas, montrant tout l'intérêt du graphène pour le nanoélectronique, notamment hautes fréquences.

Alors croissons les doigts, si l'électronique à base de graphène parvient à passer de la phase prototype à l'intégration de milliards de transistors sur une même puce (microprocesseurs), la théorie est crédible.

DICTIONNAIRE DES DÉFINITIONS

-MICROMÈTRE(01) : (Symbole μm) Unité de mesure équivalant à un millionième de mètre vaut 10-6 = 0,000001 mètre. On dit aussi micron ancien nom utilisé auparavant. Le symbole qu'il utilisait (μ) est maintenant réservé pour le préfixe SI (longueur su Système International).

-NANOMÈTRE(02) : Un nanomètre (Symbole nm) représente un milliardième de mètre ou 10 -9 mètre (0,000000001 mètre), un millionième de millimètre ou 10 -6 millimètre (0,000001 mm) ou 10 -3 micromètre (0,001 µm). Par exemple, un nm est environ un million de fois plus petit qu'un grain de sable.

-ITRS(03) : L’ITRS (International Technology Roadmap for Semiconductors) est une agence fondamentale dans le développement de nouvelles finesses de gravure. C’est elle qui va définir la valeur en nanomètre qui va servir à désigner un processus de fabrication. Pour en savoir plus cliquez sur ce lien : http://www.presence-pc.com/tests/transistor-wafer-finesse...

-SIMON DELEONIBUS(04) : Directeur de recherche du CEA, IEEE Fellow, IEEE Distinguihed Lecturer, Lauréat Grand Prix de l'Académie des Technologies 2005. Pour voir son CV en totalité, cliquez sur ce lien (fichier PDF) : http://e2phy.in2p3.fr/2006/Programme/Deleonibus_CV.pdf

-CEA-Leti(05) : Pour faire connaissance avec le CEA-Leti, direction le site Internet en cliquant sur ce lien : http://www-leti.cea.fr/ Une ressource incontournable pour approfondir ses connaissance en nanotechnologie.

moore_intel-02.gif-GORDON EARLE MOORE(05) : Né le 03 janvier 1929 à San Francisco est un docteur en chimie et un chef d'entreprise américain. Il est le cofondateur avec Robert Noyce et Andrew Grove de la société Intel en 1968 (fabricant n°1 mondial de microprocesseurs). Il est connu pour avoir annoncé lé loi de Moore en 1965. Il est diplômé d'un Bachelor of Science en Chimie de l'Université de Californie à Berkeley en 1950 puis d'un doctorat en chimie et en physique du California Institute of Technology en 1954. Il rejoint William Shockley (un camarade d'université, Prix Nobel pour l'invention du transistor) au laboratoire Shockley Semiconductor Laboratory de la société Beckman Instrument, puis la quitte pour fonder la société Fairchild Semiconductor avec sept colloborateurs de son ex-employeur surnommés les 8 traitres aux État Unis : lui-même, Robert Noyce, Sheldon Roberts, Eugene Kleiner, Victor Grinich, Julius Blank, Jean Hoemi et Jay Last.

-LOI DE MOORE(06) : Les perspectives des calculs et simulations numériques sont excellentes grâce à la loi de moore, qui prédit un doublement des vitesses des machines tous les 18 mois à deux ans. A noter que cette loi date de 1965 et Moore s'était alors basé sur les 10 ans qui précédaient (sa loi originale stipulait que le nombre de transistors par puce doublait tous les deux ans). Depuis 1975, la loi de Moore se vérifie avec un doublement tous les 1.3 à 1.8 ans. Pour en savoir lire l'histoire de la loi de moore en cliquant sur ce lien : http://www.volle.com/travaux/moore.htm

article_nobel.jpg

-GRAPHÈNE(07) : Le graphène est un cristal bidimensionnel (monoplan)de carbone dont l'empilement constitue le graphite. Il fut isolé en 2004 par André Geim et Konstantin Novoselov du département de physique de l'université de Manchester prix Nobel de physique en 2010. Il peut être produit de deux manières : par extraction mécanique du graphite (graphite exfolié-01) dont la technique à été mise au point en 2004, ou par chauffage la libération des atomes de silicium (graphite epitaxié-02).Graphène exfolié

molecule-graphene.jpg

 (graphite exfolié-01)

Le principe consiste à arracher une très fine couche de graphite du cristal à l'aide d'un ruban adhésif, puis de renouveler l'opération une dizaine de fois sur les échantillons ainsi produits afin que ces derniers soient les plus fins possibles. Ils sont ensuite déposés sur une plaque de dioxyde de silicium où une identification optique permettra de sélectionner les échantillons constitués d'une unique couche.

(graphite epitaxié-02)

Il s'agit de produire du graphène à partir de carbure de silicium. Un échantillon de ce dernier est chauffé sous vide à 1 300 °C afin que les atomes de silicium des couches externes s'en évaporent. Après un temps bien déterminé, les atomes de carbone restants se réorganisent en fines couches de graphène.

-ORDINATEUR QUANTIQUE(08) : Un ordinateur quantique opère ses calculs grâce, entre autre, à la superposition d'états quantiques. La mémoire d'un ordinateur classique est faite de bits. Chaque bit porte soit un 1 soit un 0. La machine calcule en manipulant ces bits. Un calculateur quantique travaille sur un jeu de qubits. Un qubit peut porter soit un un, soit un zéro, soit une superposition linéaire des deux. Le calculateur quantique calcule en manipulant ces distributions.

-QUBIT(09): On nomme qubit (quantum + bit ; prononcé /kyoobit/), parfois écrit qbit, l'état quantique qui représente la plus petite unité de stockage d'information quantique. Il se compose d'une superposition de deux états de base, par convention nommés |0> et |1> (prononcés : ket 0 et ket 1). Un état qubit est constitué d'une superposition quantique linéaire de ces...) (quantum + bit ; prononcé /kyoobit/), parfois écrit qbit, l'état quantique qui représente la plus petite unité de stockage d'information quantique. Il se compose d'une superposition (En mécanique quantique, le principe de superposition stipule qu'un même état quantique peut posséder plusieurs valeurs pour une certaine quantité observable (spin, position, quantité de mouvement etc.)) de deux états de base, par convention nommés |0> et |1> (prononcés : ket 0 et ket 1). Un état qubit est constitué d'une superposition (En mécanique quantique, le principe de superposition stipule qu'un même état quantique peut posséder plusieurs valeurs pour une certaine quantité observable (spin, position, quantité de mouvement etc.)) quantique linéaire de ces deux états. Une mémoire (D'une manière générale, la mémoire est le stockage de l'information. C'est aussi le souvenir d'une information.) à qubits diffère significativement d'une mémoire (D'une manière générale, la mémoire est le stockage de l'information. C'est aussi le souvenir d'une information.) classique.

 COMPLEMENT D'ARTICLE

wafer-graphene,B-Y-237598-3.jpg

Des dies n'utilisant que du carbone

Des chercheurs du centre électro-optiques de l’Université de Pennsylvanie ont affirmé avoir perfectionné une méthode de fabrication permettant d’obtenir des wafers de 100 mm constitués uniquement de feuilles de graphène.

Faire disparaître le silicium

Selon les scientifiques, une telle puce pourrait être 100 à 1 000 fois plus rapide que son alter ego en silicium, en raison du fait que les électrons traversent plus rapidement le premier matériau. Pour arriver à leurs fins, ils ont développé une technique de fabrication appelée « sublimation de silicium », qui retire thermiquement une grille de silicium qui va servir de motif pour le graphène, ne laissant derrière que le carbone pur sur lequel les chercheurs fabriquent des transistors à effet de champ.

Un pied en dehors des laboratoires

Le centre de défense naval de Philadelphie travaille en étroite collaboration avec les Universitaires pour la création de puces utilisant cette technologie et des prototypes sont déjà sortis d’usines. On note aussi qu’Intel a récemment fait une donation au laboratoire de nanofabrication de l’Université.

Les chercheurs espèrent arriver à porter leurs techniques sur des wafers de 200 mm, qui sont largement utilisés dans les usines actuelles. Un tel succès permettrait au graphène de remplacer le silicium et donner des puces atteignant le THz.

Source info : http://www.presence-pc.com/

Transistors au graphène améliorés : bientôt des transistors de 10nm ?

transistor-graphene-bruit.jpg

Une équipe de chercheurs du Watson Research Center d'IBM (NY) a trouvé un moyen d'améliorer significativement les performances des transistors au graphène, en disposant deux feuillets l'un au dessus de l'autre au lieu d'un seul.

Le graphène est une monocouche d'atomes de carbone organisée en un réseau (Un réseau informatique est un ensemble d'équipements reliés entre eux pour échanger des informations. Par analogie avec un filet (un réseau est un « petit rets », c'est-à-dire un petit filet), on appelle nœud (node) l'extrémité...) bidimensionnel hexagonal, qui permet de réaliser des transistors de 10nm de large (contre 45nm pour les plus petits transistors à semiconducteur), particulièrement performants pour les signaux Radio Fréquences. Cependant ils sont toujours en proie au problème de bruit (Dans son sens courant, le mot de bruit se rapproche de la signification principale du mot son. C'est-à-dire vibration de l'air pouvant donner lieu à la création d'une sensation auditive.) électrique qui limite fortement la qualité des signaux, mais avec la découverte des chercheurs d'IBM, le bruit électrique est divisé par un facteur 10. Les résultats sont publiés dans le journal Nano Letters.

Le graphène est le premier candidat pour remplacer le silicium dans l'industrie du semi conducteur, grâce à ses propriétés électroniques et thermiques excellentes. Sous une tension donnée (Dans les technologies de l'information (TI), une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction d'affaire, d'un événement, etc.), le graphène peut supporter un courant bien plus grand que le silicium, car les électrons se déplacent de 50 à 500 fois plus vite, ce qui permet des vitesses de commutation très rapides pour une alimentation plus faible. Cependant, plus on réduit la taille du composant et plus le bruit augmente: en effet, les particules chargées du substrat à proximité du graphène dévient une partie des porteurs de charges qui parcourent le feuillet. Cela agit comme une barrière au flux (Le mot flux (du latin fluxus, écoulement) désigne en général un ensemble d'éléments (informations / données, énergie, matière, ...) évoluant dans un sens commun. Plus précisément le terme est employé dans les domaines suivants :) du courant et peut déformer significativement le signal ( Termes généraux Un signal est un message simplifié et généralement codé. Il existe sous forme d'objets ayant des formes particulières. Les signaux lumineux sont employés depuis la nuit des temps par les hommes pour communiquer entre eux à distance. Le signal électrique est une des...) amplifié.

En plaçant deux couches de graphène l'une au dessus de l'autre, les chercheurs ont découvert que le facteur de bruit est divisé par un facteur 10. Ils ont obtenu les deux couches de graphène par exfoliation mécanique (Dans le langage courant, la mécanique est le domaine des machines, moteurs, véhicules, organes (engrenages, poulies, courroies, vilebrequins, arbres de transmission, pistons, ...),...) à partir d'un morceau de graphite (qui est en fait une grosse pile de feuillets de graphène, dont ils ont gardé seulement 2 couches), et ont placé ces deux couches entre deux électrodes sur un substrat pour former un transistor à effet de champ (Un champ correspond à une notion d'espace défini:). Les deux courants parcourant les feuillets de graphène sont ainsi couplés et chaque électron (L'électron est une particule élémentaire de la famille des leptons, et possèdant une charge électrique élémentaire de signe négatif. C'est un des composants de l'atome.) libre est recombiné avec un trou formant (Dans l'intonation, les changements de fréquence fondamentale sont perçus comme des variations de hauteur : plus la fréquence est élevée, plus la hauteur perçue est haute et inversement. Chaque voyelle se caractérise par son timbre spécifique. Le timbre est déterminé par deux formants (et plus pour les voyelles antérieures) f1 et f2. Ce sont les...) des paires qui résistent aux charges positives ou négatives dans le substrat. Avec une seule couche de graphène, certains électrons ne sont pas recombinés avec un trou mais déviés par une charge (La charge utile (payload en anglais ; la charge payante) représente ce qui est effectivement transporté par un moyen de transport donné, et qui donne lieu à un paiement ou un bénéfice non pécuniaire pour être transporté.) du substrat.

Cette technique permet d'améliorer les performances des transistors au graphène, mais d'autres obstacles empêchent pour le moment leur commercialisation, comme en particulier la production de masse de transistors hautes performances.

Source info : http://www.techno-science.net/

14:42 Écrit par CPU History-fr | Lien permanent | Commentaires (13) |  Facebook |

26/02/2009

Caractéristiques principales du processeur

2010

 

JOYEUX NOËL A TOUS

 

00010002

Bien que les manifestations autour du phénomène de Noël soient importantes, on ne trouve que très peu de logiciels et jeux intéressants consacrés à cette période. La plupart de ces programmes souffrent de graphismes pauvres et ne sont souvent pas terminés. Heureusement, Clubic est là pour vous faire découvrir les bons programmes aux couleurs des fêtes de fin d'année ! Aux graphismes colorés et soignés, Gift Quest : Christmas Edition est un jeu de puzzle gratuit complet et amusant. Cet opus vous offrira quatre modes de jeux différents reprenant les règles du fameux Bejeweled :

 

  • Aventure : quêtes et tableaux à débloquer.

  • Quads : niveaux plus complexes,

  • Puzzle : casse-têtes à résoudre,

  • Relax : parties libres.

En plus de pierres précieuses, vous découvrirez ici de nombreux trésors et autres bonshommes en pain d'épice. Votre objectif sera d'aligner trois ou quatre symboles similaires afin de réaliser des combos et décrocher ainsi de nombreux cadeaux et bonus multiplicateurs. Pour un jeu gratuit, les graphismes sont plus que réussis et collent parfaitement au thème. Seul point faible, l'ambiance sonore. Nous vous conseillons ainsi de la désactiver au profit de vos playlist préférées.

A TELECHARGER ICI : http://www.clubic.com/telecharger-fiche268964-gift-quest-...

 Gift Quest : Christmas Edition est un jeu de puzzle amusant et gratuit offrant de nombreux tableaux de difficultés croissantes. À découvrir pour une bulle de détente festive !

Caractéristiques principales du processeur

L_Intel-FV524RX400%20(bottom)-02pentium

Comme vous avez pu le constater, un certain nombre de concepts plus ou moins complexes reviennent couramment dans les débats sur les processeurs. Je vais vous expliquer les trois paramètres principaux qui contribuent à identifier un processeur.  Les deux éléments primordiaux à son identification est sa  largeur et sa fréquence. La fréquence est une notion relativement simple à appréhender. Elle se mesure en mégahertz (MHz) ou en gigahertz (GHz) et correspond au nombre de millions ou de billions de cycles par seconde que le processeur est capable d’effectuer. Bien entendu plus cette valeur est élevée, plus le processeur sera rapide. La largeur de bande d’un processeur est un concept déjà plus complexe, car le processeur possède en fait trois variables exprimés sous la forme d’une largeur, nos trois paramètres :

1)    Le bus d’entrées/sorties de données ;

2)    Le bus d’adresses ;

3)    Les registres internes ;

Bus d’entrées/sorties de données

Si vous avez parcouru mon blog, vous savez déjà que dans un ordinateur, les données sont envoyées sous forme d’informations numériques, langage binaire. Dans un même laps de temps, l’ordinateur génère une tension de 3,5 Volt ou 5 Volt pour signaler un bit de donnée 1, et une tension de 0 Volt pour communiquer un bit de données 0 (pour info voir mon article sur le langage binaire). Plus le nombre de fils est important, plus le nombre d’octets (1 octet = 8 bits) transférés en intervalle de temps donné est grand. Tous les processeurs modernes, depuis le Pentium jusqu’au dernier Core 2 Duo, et même Core i7, disposent d’un bus de données d’une largeur de 64 bits, soit 8 octets (8 octets x 8 bits = 64 bits). Ils peuvent ainsi transporter 64 bits de données en même temps vers ou depuis le chipset de la carte mère ou la mémoire système.

Tableau depuis 1971 à 2008 des architectures avec largeur de bus de données

Date

Nom

Nombre de
transistors

Finesse de
gravure (µm)

Fréquence
de l'horloge

Largeur
des données

MIPS

1971

4004

2 300

108 kHz

4 bits/4 bits bus

1974

8080

6 000

6

2 MHz

8 bits/8 bits bus

0,64

1979

8088

29 000

3

5 MHz

16 bits/8 bits bus

0,33

1982

80286

134 000

1,5

6 MHz

16 bits/16 bits bus

1

1985

80386

275 000

1,5

16 à 40 MHz

32 bits/32 bits bus

5

1989

80486

1 200 000

1

25 à 100 MHz

32 bits/32 bits bus

20

1993

Pentium

3 100 000

0,8 à 0.28

60 à 233 MHz

32 bits/64 bits bus

100

1997

Pentium II

7 500 000

0,35 à 0.25

233 à 450 MHz

32 bits/64 bits bus

300

1999

Pentium III « !!! »

9 500 000

0,25 à 0.13

450 à 1400 MHz

32 bits/64 bits bus

510

2000

Pentium 4

42 000 000

0,18 à 0.065

1,3 à 3.8 GHz

32 bits/64 bits bus

1 700

2004

Pentium 4D « Prescott »

125 000 000

0,09 à 0.065

2.66 à 3.6 GHz

32 bits/64 bits bus

9 000

2006

Core 2™ Duo

291 000 000

0,065

2,4 GHz (E6600)

64 bits/64 bits bus

22 000

2007

Core 2™ Quad

2*291 000 000

0,065

3 GHz (Q6850)

64 bits/64 bits bus

2*22 000 (?)

2008

Core 2™ Duo (Penryn)

410 000 000

0,045

3,33 GHz (E8600)

64 bits/64 bits bus

~24 200

2008

Core 2™ Quad (Penryn)

2*410 000 000

0,045

3,2 GHz (QX9770)

64 bits/64 bits bus

~2*24 200

2008

Intel Core i7 (Nehalem)

731 000 000

0,045 (2008) - 0,032 (2009)

2,93 GHz (Core i7 940) - 3,2 GHz (Core i7 Extreme Edition 965)

64 bits/64 bits bus

?

 

Pour bien comprendre la manière dont les informations circulent, je vais prendre l’exemple le plus utilisé par les analystes, celui de l’autoroute. Donc si une autoroute ne comprend qu’une seule voie dans chaque sens, on peut en déduire qu’une seule voiture pourra se déplacer à la fois dan un sens. Pour augmenter le trafic, il est possible d’ajouter une seconde voie ce qui permettra d’avoir deux fois plus de véhicules qui pourront circuler dans le même laps de temps. Le processeur 8 bits peut être comparé à une autoroute à une voie unique, puisque seul un octet peut circuler sachant que un octet équivaut à 8 bits. Afin d’augmenter encore le trafic, on peut décider de construire une autoroute à quatre voies dans chaque sens. Cet exemple et le modèle type d’une architecture correspondant à un bus de données 32 bits, capable de transférer 4 octets d’informations simultanément. Si l’on pousse un peu plus loin notre exemple on obtiendra un bus de données de 64 bits que l’on peut comparer à une autoroute à huit voies dans chaque sens.

On nomme ces données extrêmement importante que l’on vient d’expliquer, la largeur du bus de données d’un processeur. Importante, car c’est cette valeur qui conditionne aussi la taille d’un banc de mémoire vive. Les processeurs Pentium (dont le Pentium III, Celeron, Pentium 4, ainsi que les modèles Athlon et Duron) lisent et écrivent 64 bits de données à la fois dans la mémoire. Logique étant données que les barrettes de mémoire de types SIMM (Single Inline Memory Module, module de mémoire à rangée de contacts unique) à 72 broches ont une largeur de 32 bits seulement. C’est pour cette raison qu’elles pouvaient être à l’époque installées une par une sur la plupart des ordinateurs de type 486. Sur les ordinateurs de type Pentium, elles devaient impérativement être installées par paire.

Ensuite sont arrivée les barrettes de mémoire DIMM (Dual Inline Memory Modules, modules de mémoire à double rangée de contacts) avec une largeur de 64 bits. Elles peuvent donc être installées dorénavant une par une sur les ordinateurs à partir de la classe Pentium III. Donc chaque barrette DIMM correspondait à un banc de mémoire entier ce qui à l’époque a facilité grandement la configuration des ordinateurs.

Ensuite avec une très courte durée de vie sont arrivée les nouvelles barrettes de mémoire RIMM (Rambus Inline Memory Modules, modules de mémoire à rangée de contacts Rambus) très onéreuse ce qui explique son manque de succès. Cette mémoire applique des règles de jeu bien différent et disposera en principe que d’une largeur de 16 ou 32 bits. En fonction du type de module et du type de mémoire, elles seront employées soit individuellement ou par paire.

Encore très utilisé de nos jours et avec l’arrivée du Pentium 4, les modules mémoire DIMM DDR  (Double Data Rate, modules de mémoire à double taux de transfert) vont faire table rase sur tous les anciens modules. Son bus est comme pour les modules de mémoire DIMM de 64 bits avec un connecteur de 184 broches à la différence qu’elle double le taux de transfert de données en un cycle d’horloge (les données circulent dans un même laps de temps dans un front montant et un front descendant du bus système).

Dernier modules de mémoire actuel, la DIMM DDR-II (Double Data Rate Two, modules de mémoire à double taux de transfert à débit deux fois plus élevé) qui pour différence avec la DDR de pouvoir augmenter le taux de transfert par deux et de traiter quatre mot de données par cycle d’horloge.

Bus d’adresses

Le bus d’adresses est l’ensemble des fils qui transportent les informations d’adressage utilisées pour d’écrire la zone de mémoire dans laquelle les données sont envoyées ou depuis laquelle les données proviennent. Tout comme pour le bus de données, chaque fil transporte un seul bit d’information. Ce bit est toujours un chiffre unique de l’adresse. Plus il y a de fils (chiffres) utilisés pour calculer ces adresses, plus le nombre de zones d’adresses est important. La taille ou largeur du bus d’adresses indique la quantité de RAM maximale que le processeur peut adresser.

Pour reprendre l’exemple de notre autoroute, si le bus d’entré/sortie de données est représenté par l’autoroute et que sa taille correspond au nombre de voies, le bus d’adresses correspond au numéro de maison ou plus simplement à l’adresse dans la rue. On peut que la taille du bus d’adresse correspond au nombre de chiffres du numéro de la maison. Par exemple, si vous habitez une rue où il n’y a que des adresses à deux chiffres (en informatique binaire, base 10), il ne peut y avoir que cent adresses (00-99) distinctes dans votre rue que l’on écrira 10 puissances 2. Si l’on ajoute un chiffre, le nombre d’adresses passera à mille (000-999), soit 10 puissance 3.

La taille du bus de données est une indication de la capacité de déplacement d’informations du processeur ; La taille du bus d’adresses indique la quantité de mémoire qui peut être gérée par la puce.  Il faut retenir que la taille des bus peut fournir de précieuses informations concernant la puissance relative d’un processeur mesurée suivant deux méthodes intéressantes.

Registres internes (bus de données internes)

La taille des registres internes d’un processeur est également un bon indicateur de la quantité d’informations que celui-ci peut gérer en un temps données et de la façon dont il déplace les données en interne. Il est quelquefois référencé par les techniciens sous l’appellation « bus de données interne ». La taille des registres internes est sensiblement égale à celle du bus de données interne. C’est quoi un registre ? Une cellule de stockage située à l’intérieur du processeur. A titre d’exemple, le processeur peut additionner des nombres dans deux registres différents, puis stocker le résultat dans un troisième registre. Il faut retenir que la taille d’un registre détermine la quantité de données que le processeur peut traiter. Mais le plus important cette taille décrira également les types de logiciels ou de commandes et d’instructions que le processeur peut exécuter.

Presque tous les processeurs modernes utilisent des registres internes de 32 bits, ils peuvent par conséquent faire fonctionner les systèmes d’exploitation identiques et les mêmes logiciels 32 bits. Certains processeurs comme par exemple le Core 2 Duo est compatible pour faires fonctionner les logiciels et systèmes d’exploitations soit en 32 bits ou 64 bits car il intègre en son cœur les deux variantes de registres internes. Si l’on prend des processeurs destinés aux serveurs comme par exemple l’Intel Itanium a pour sa part des registres internes de 64 bits, ce qui suppose qu’il ne pourra faire fonctionner que des systèmes d’exploitation et des logiciels en 64 bits.

Les registres internes ont souvent une taille supérieure à la largeur du bus de données, ce qui signifie que le processeur à besoin de deux cycles d’horloges pour remplir un registre avant que celui-ci ne soit exploitable. Par exemple les anciens processeurs comme l’Intel 386SX et 386DX avaient tout deux des registres internes de 32 bits, mes les 386SX devaient s’y reprendre à deux fois pour les remplir, alors que les 386DX pouvaient le faire en une seule passe ou on dirait plutôt de nos jours en un seul cycle d’horloge. Il en était de même lorsque les données quittaient les registres pour revenir dans le bus système.

Les Pentium par contre reposent sur une architecture inverse. Tous les pentiums remplacés actuellement par l’architecture Core (Core 2 Duo, Core 2 Quad), possèdent un bus données 64 bits comme on a pu le voir plus haut, mais des registres de seulement 32 bits. Cette structure était apparemment problématique pour Intel car le Pentium était équipé de deux pipelines internes (sorte de tuyau ou sont traité les données) de 32 bits (2 x 32 bits = 64 bits) permettant de gérer le flux d’informations. On disait à l’époque que le Pentium équivalait à deux puces 32 bits en une. Problématique car il fallait beaucoup plus de temps pour traiter les données par rapport à un bus de données unique de 64 bits qui assurait un approvisionnement bien plus efficace. On dit d’un processeur qui utilise plusieurs pipelines comme le Pentium, qu’il est d’une architecture superscalaire.

Pour information les processeurs de sixième génération les plus avancés, tels le Pentium III ou le Pentium 4 possèdent pas moins de six pipelines internes pour exécuter les instructions alors que le Core de Duo possède des pipeliens plus court, plus large avec moins d’étages ce qui explique ses excellentes performances. Certains de ces pipelines internes étaient aussi réservés pour des fonctions spéciales afin de pouvoir exécuter trois instructions en un même cycle d’horloge.

 

10:43 Écrit par CPU History-fr dans Informatique | Lien permanent | Commentaires (2) |  Facebook |

01/12/2008

Le cerveau contre processeur

Le cerveau contre processeur, combat inégal

103486370_81444cfdbccerveau

 

Depuis longtemps les chercheurs rêvent de remplacer les milliards de neurones de notre cerveau par l’ordinateur, curieusement les scientifiques on rapidement remarqués que les neurones et le cerveau se ressemblent étrangement. On pourrait choisir comme exemple que les organes du corps humain, les yeux, les oreilles, le nez ou la peau s’identifieraient aux éléments de l’ordinateur qui lui permettent de recevoir de l’information de l’extérieur tels que les périphériques semblables au clavier, à la souris, ou au scanner.

 

Le cerveau de l’ordinateur sur nos machines c’est le microprocesseur, il traite les informations, les données qui ressortent ensuite sous forme de réponses vers d’autres périphériques, l’écran (affichage), l’imprimante (support papier) ou les haut-parleurs (pour le son). Chez l’humain toutes les stimulations captés par nos récepteurs sensitifs, sont tout comme l’ordinateur analysé par notre cerveau et ressortent une fois traitées tout comme sur les périphériques par nos cordes vocales ou les fibres musculaires. L’homme commence enfin à réaliser et à découvrir l’importance des neurones et de leur principe de fonctionnement qui reste enfin de compte très proche du langage binaire utilisé par nos processeurs.

 

Si on peut avancer l’hypothèse que l’ordinateur ressemble au cerveau humain, un grand fossé de différences existe entre ces deux fascinantes machines à calculer. La mémoire vive de nos ordinateurs est lilliputienne comparée au 100 milliards de neurones de notre cerveau, et ce n’est pas tout, le niveau d’information traité par notre cerveau est phénoménale on apprend extrêmement vite, on stocke plus d’information que le plus gros disque dur existant, on peut penser, aimer, créer etc.… L’ordinateur lui ne peut pas penser, sentir et rien apprendre et les chercheurs savent très bien ce qui bloque.

Le microprocesseur de l’ordinateur à un « cerveau » beaucoup trop structuré, son réseau de transistors dont la quantité ne cesse d’augmenter aux fils des années (loi de Gordon Moore) ne sont pas mobiles et ne peuvent pas de déplacer ou modifier leurs connections entre eux comme pourrait le faire les connexions des neurones. Seconde différence cette fois à l’avantage des microprocesseurs qui disposent dorénavant d’une puissance exceptionnelle et sont bien plus rapides que le cerveau humain pour effectuer les calculs de nombres démesurés en une seconde.

Grâce à la science de la neurotechnologie et la nanotechnologie les chercheurs on énormément progressés dans la connaissance du cerveau et de la miniaturalisation des transistors il reste encore considérablement de pistes inexplorées ou en cours d’expérimentation. Je pense notamment à la technologie de greffe de neurones sensitifs que l’on nomme « biocapteurs » (biocapteurs, greffe de neurones vivants sur du silicium de puces informatique) afin qu’elles puissent vraisemblablement détecter des odeurs et reconnaitre des images. Seconde piste des chercheurs plus simple à mettre en pratique les « bio-puces » qui consiste à miniaturiser l’ensemble des composants électronique formant les neurones.

Mais voila si cette dernière technologie est plus facile à appliquer ces bio-puces n’ont pas la faculté et encore moins les propriétés d’être vivants. Conclusion il reste encore un très long chemin à parcourir avant que notre machine remplace le cerveau humain. Si le microprocesseur possède la vitesse de d’exécution, il n’a toujours pas le pouvoir d’intégrer 100 milliards de neurones qui peuvent s’interconnecter en de milliards de réseaux différents. Mon opinion personnelle, l’ordinateur qui remplace le cerveau n’est par pour demain même si sa reste une merveilleuse machine ludique, rien ne pourra détrôner ce merveilleux muscle encore plein de mystères qui est notre cerveau.

Ecrit le 21 Novembre par Christian Cousin

Complément du sujet par PresencePC

L'ordinateur modifie notre cerveau ? Un chercheur de UCLA estime qu’être exposé quotidiennement aux ordinateurs, à Internet et aux Smartphones altère la façon dont notre cerveau fonctionne.

Théorie

Dr. Gary Small estime que lorsqu’un cerveau passe plus de temps à exécuter des tâches portant sur les technologies d’aujourd’hui et moins de temps à interagir avec des personnes réel (MSN ne compte pas), le cerveau perd certaines capacités sociales fondamentales, comme la possibilité de lire les messages envoyés par le visage d’une personne avec qui on peut avoir une conversation.

Cela suggèrerait, selon le psychiatre et universitaire, que les circuits cérébraux associés à cette capacité se sont affaiblis. Les résultats directs sont des difficultés à communiquer et comprendre les messages non verbaux, ce qui peut dans des cas extrêmes, engendrer l’isolation sociale du sujet.

Sceptique

Dr. Small avoue qu’il n’a pas encore toutes les preuves pour affirmer scientifiquement que les circuits cérébraux sont altérés par un excès ou un manque de technologie (a contrario, si trop de technologie affaiblie les circuits sociaux, trop peu de technologie, selon le chercheur, affaiblirait les circuits permettant la manipulation des nouvelles technologies).

L’ordinateur altère-t-il réellement la manière dont notre cerveau fonctionne ? Certains sont sceptiques comme Robert Kurzban un psychologue de l’Université de Pennsylvanie. Il manque encore des données scientifiques pour prouver que les connexions neurologiques changent au fur et à mesure que l’on passe de plus en plus de temps sur Internet.

En attendant, il est aujourd’hui évident que l’abus de technologie peut engendrer des troubles du comportement. Est-ce que cela est le résultat d’une réorganisation des connexions cérébrales ? Il faudra encore attendre un peu pour en avoir le coeur net. Néanmois, ne prenons pas de risque : finissez de lire les actualités et les articles sur Tom’s Hardware et allez prendre l’air.

Source : http://www.presence-pc.com/

JEU DE NOEL GRATUIT SANTA RIDE

 

01820248

Si vous cherchez à plonger vos enfants dans l'ambiance de Noël, vous êtes sur la bonne page. Clubic possède dans sa hotte logicielle, un jeu amusant et gratuit qui leur plaira surement !

Comme son nom l'indique Santa Ride ! 2 est un opus à l'atmosphère colorée et joyeuse de Noël. Le scénario est simplement d'actualité. Vous incarnerez le Père Noël aux commandes de son traineau tiré par ses rennes. Votre objectif sera de délivrer le plus rapidement possible un maximum de cadeaux pour que les enfants continuent à croire à la magie de Noël. Ainsi, il vous faudra sillonner au galop une ville endormie et toucher les cadeaux éparpillés sur un parcours aux multiples dangers. Dans votre épopée, vous garderez un œil attentif à la barre de croyance située à gauche et tenterez de la maintenir à un niveau constant en accélérant la cadence. Les bonus cachés faciliteront votre progression :

·         Les chaussures améliorent votre dextérité,

·         Les carottes vous permettent d'aller plus vite,

·         Les cookies doubleront votre score.

Le tout se déroule dans un décor en 3D bien réalisé et parfaitement décoré aux couleurs de Noël. L'ambiance sonore malheureusement répétitive est basée sur la mélodie bien connue : « Jingle Bells ». Que les parents se rassurent, vous pourrez réduire le volume musical à l'aide des touches « + » et « - ». pour le télécharger cliquer sur le lien ci-dessous le fichier fait un peu plus de 55 mo :

ftp://clubicvisiteur20617:1229856661@ftpclubic7.clubic.co...

Réponse à une question d'un lecteur

Quelles sont les différences au point de vue fonctionnement entre le cerveau de l’homme et le microprocesseur ? En voila une excellente question postée par un lecteur de mon blog. Je vais non seulement tenter de répondre à sa pertinente question, mais aussi vous en faire tous profiter en la postant sur mon blog.

Fonctionnement du cerveau :

1)    Les chercheurs sont formels sur un point, en aucun cas les neurones peuvent être comparés au fonctionnement d’un ordinateur.

2)    Les neurones sont très éloignés du calcul binaire.

Le fonctionnement des neurones du cerveau selon les chercheurs, ont un comportement qui s’apparente beaucoup plus à celui d’un système dynamique au fonctionnement aléatoire. Fonctionnement qui s’adapterait donc plus à une modélisation basée sur un calcul stochastique.

Je sais ce que vous allez me dire, c’est quoi ce calcul stochastique ? Un calcul stochastique contrairement au calcul binaire dont à besoin le microprocesseur pour fonctionner et basé sur une extension de la théorie des primalités, c'est-à-dire un calcul dit aléatoire (Calcul stochastique =  processus aléatoire). Pour que le microprocesseur puisse émuler le fonctionnement des neurones , il faut obligatoirement décoder ce calcul stochastique pour ensuite le traduire en langage binaire composé de 1 et 0 qui est le seul langage compris par le microprocesseur à architecture x86 et qui permettra d’émuler un calcul stochastique d’une neurone.

Le domaine d’application de calcul stochastique comprend :

-La mécanique quantique

-Le traitement du signal

-La chimie

-Les mathématiques financières

-La musique

Pour ceux que sa intéresse voici un lien avec un petit film de 23s expliquant le fonctionnement d’un neurone avec un cométaire. Comme les transistors des microprocesseurs, les neurones communiquent également avec réseau électrique d’une intensité extrêmement petite :

 http://psychoweb.dnsalias.org/videopsy/plop.php?post/Animation-3D-du-fonctionnement-dun-neurone-23s

Concernant le fonctionnement du microprocesseur par rapport à celui du cerveau, il ne peut que calculer en langage binaire c'est-à-dire à l’aide de 0 et de 1. Toutes les données doivent lui arriver sous cette forme pour qu’il puisse fonctionner et les exploiter. Pour info sur le langage binaire, je reposte mon article de mon blog :

256 combinaisons différentes. En math sur les exposants, 2 à la puissance 8 est égale (2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 = 256 deux et 8 fois un facteur).

Il faut donc retenir très clairement que l’unité de base de la mémoire de l’ordinateur est l’octet, ou nombre binaire de 8 bits. Que le langage binaire est uniquement composé de 1 et de 2 et ces nombre sont écrit en base 2.

 

C’est avec ces 256 combinaisons que l’on représente les caractères, chiffres et symboles pour pouvoir écrire à l’aide de son clavier. Ces combinaisons on données lieu a des standards d’encodage de caractères comme l’EBCDIC ou ASCII. Concrètement voici comment sa se passe, quand vous tapez la lettre « a » au clavier celui-ci retransmet à l’ordinateur une information sur 1 octet ou 8 bit qui correspond au code binaire du caractère tapé. Je m’explique :

 

Dans le code international ASCII, la lettre « a » est encodée dans le seul langage que comprend le processeur le langage binaire des 0 et des 1 et sur un 1 octet qui se compose de 8 bits, la lettre « a » sera donc encodée par 10010111 soit 8 bits = 1 Octet. Une fois que l’ordinateur l’a interprété, il retransmet à la carte vidéo une autre information qui va représenter le caractère à l’écran sous forme de points noirs que l’on nomme dans le jargon informatique : Le pixel. Conclusion lorsque vous frappez la lettre « a » au clavier, c’est le résultat de centaines de milliers d’opération élémentaires qui sont effectuées à votre insu.

 

Ce qu’il faut retenir c’est que l’ordinateur à donc un « vocabulaire » composé de deux lettres qui s’écrivent avec « 0 et 1 » et que l’on aurait pu choisir par exemple « A et B » mais seul l’encodage doit se faire en langage binaire pour les nombres, les caractères, les instructions, les points de couleurs (pixels), les images, etc.….    

 

Je ne vais pas rentrer dans des explications mathématiques ennuyeuses, mais si toutefois vous êtes intéressés(e) de savoir comment on obtient le résultat des chiffres binaires CLIQUEZ ! sur ce lien pour en savoir plus :

 

http://membres.lycos.fr/iespjmonnet/informatique.htm

 

Pour information voici la correspondance de quelques tailles et mesures informatique :

 

1 Bit (est la contraction de Binary Digit), il ne peut prendre que deux valeurs 0 ou 1. 

1 Octet (ou en abrége O ou parfois B et en anglais pour Byte), vaut 8 bits.

1 Ko (ou en abrégé KB), le kilo-octet, vaut exactement 1024 octets, soit 8192 bits.

1 Mo (ou en abrégé MB), le méga-octets vaut 1024 ko, ou encore 1024x1024 octets soit un peu plus de 1 millions d’octets.

1 Go (ou en abrégé GB), le giga-octets vaut 1024 Mo.

1 To (ou en abrégé TB), le téra-octets vaut 1024 Go ou environ 1 million de méga octets.

 

10:22 Écrit par CPU History-fr dans Informatique | Lien permanent | Commentaires (4) |  Facebook |

24/09/2008

Nouvelle architecture Intel Core i7

Fin du Core 2 Duo, nouveau Core i7

 

Si depuis 2006, année du lancement du Core 2 Duo, les nombreuses déclinaisons n’ont cessés de dominer le marcher avec un succès incontestable, Intel ne compte pas s’arrêter en si bon chemin et tient à garder son avance de leadership face à AMD en grande difficulté depuis le rachat de la firme ATI accompagné du bug du TLB (contrôleur mémoire intégré) sur les premiers Phenom. Lors du salon de l’IDF (Intel Developer Forum) Intel vient déjà de présenter avec un test grandeur nature le remplaçant du Core 2 Duo malgré sont relatif jeune âge. La toute nouvelle architecture, l’Intel Core i7 (voir les photos des logos ci-dessous) dont la première gamme aura pour nom de code Nehalem va faire peau neuve. En effet on a affaire cette fois à une toute nouvelle génération de puces qui rompt complètement avec l’architecture Core 2 Duo.

01535206

 

Attention !, vous aller voir que vous n’êtes pas au bout de vos surprises, car les changements et innovations sont bien réelles, et vont peut être même en dérouter plus d’un ou d’une. Après avoir regroupé diverses sources et informations, je vais tenter en avant première de vous dévoiler le secret de cette nouvelle architecture, l’Intel Core i7 dont la première série devrait voir le jour le quatrième trimestre 2008.

Pour info le premier exemplaire Core i7 Nehalem fonctionne déjà, il s’agit du premier processeur d’Intel à intégrer lui-même un contrôleur de mémoire, à l’image de ce que nous connaissons chez AMD depuis la sortie de l’Athlon 64. C’est également un véritable Quad Core natif, contrairement au Core 2 Quad qui est un regroupement de deux die dual core, c’est le retour aussi de la fonction améliorée de l’HyperThrading, le Nehalem propose donc huit core au total. Suit forcément un changement de socket et de chipsets, nous parlons d’un socket tenez vous bien de 1366 pins au format rectangulaire (voir la photo ci-dessous) et d’in nouveau chipset X58, indispensable pour prendre en charge l’architecture Core i7.

Socket

 

Première photos publiées par le site chinois HardSpell du Core i7 et son Ventirad

62335-core-i7-intel-nehalem-dissipateurcpuventirad

Voyons en détail toutes ces innovations. C’est le haut de gamme au nom de code Nehalem (pour info culturelle Nehalem à été emprunté au nom d’une rivière de l’Oregon), Core i7 Extreme Edition qui sera  lancer le premier à 3.2 GHz, ensuite les autres Core i7 étant prévus à 2,93 GHz et 2,66 GHz. En ce qui concerne la partie mémoire et son traitement, le pipeline mémoire du Nehalem a fait l'objet de nombreuses évolutions en comparaison à Core 2, deux nouveautés frappent au premier abord : le contrôleur mémoire intégré au processeur, et la présence d'un troisième niveau de cache.

Ce contrôleur porte le nom de IMC (Integrated Memory Controller) et il est capable de gérer trois canaux à la fois de DDR3 1333 MHz, oui vous avez bien lu et aussi surement compris, il faudra obligatoirement trois barrettes mémoires de DDR3 pour profiter des performances (triple canal). Ce contrôleur mémoire offre ainsi une bande passante maximale théorique de 32 Go/s contre 21 Go/s auparavant. Cette intégration du contrôleur mémoire au cœur de la puce va permettre une réduction sévère d’accès à la mémoire.

Une nouvelle hiérarchie du TLB (Translation Lookaside Buffers) à été complètement revisitée. Les TLB sont les buffers (mémoires tampons) qui stockent  les correspondances entre les adresses virtuelles manipulées par les programmes, et les adresses physiques auxquelles elles se réfèrent. On en a beaucoup entendu parler récemment à cause du fameux bug du Phenom du TLB. La structure de TLB de Core 2 est très performante, de par la présence, en plus d'un TLB classique de 288 entrées, d'une micro-TLB très petite, très rapide, et dédiée aux seules lectures.

Pour le Core i7, Intel a du revoir sa copie, notamment à cause du SMT (Simultaneous Multi-Threading), et la micro-TLB a du être abandonnée sur Nehalem au profit d'une TLB classique, davantage capable de contenir les adresses de deux threads. En revanche, Nehalem garde deux niveaux de TLB : deux buffers de premier niveau pour le code et les données (192 entrées en tout), et un buffer unifié offrant pas moins  512 entrées. Les cores du Nehalem bénéficient donc également de la technologie SMT (Simultaneous Multi-Threading), apparue avec les Pentium 4 équipés de l'HyperThreading (nom commercial du SMT sur Netburst), et que l'on trouve également sur les premières générations de processeurs Atom. Sur ce coup là on peut dire que Intel a fait du neuf avec du vieux avec un retour en arrière sur une technologie pourtant abandonnée sur le Core 2 Duo.

Une nouvelle hiérarchie de la mémoire cache fait son apparition et l’on se retrouve maintenant avec un cache L1, L2 et le tout nouveau L3. Pour en savoir plus voir l'excellent dossier que vient de mettre en ligne le site TTHardware Visite du coeur du Core i7 en cliquant sur ce lien :

http://www.tt-hardware.com/modules.php?name=News&file...

Intel Core i7 (Nehalem) en test sur Clubic

0000012701738156

 

Lire le dossier consacré à l'Intel Core i7 en cliquant sur le lien ci-dessous :

http://www.clubic.com/article-175286-1-intel-core-i7-neha...

L'intel Core i7 toujours à la une, voici 5 liens vers six nouveaux tests.

 

b1-8b2-8b3-8

 

 

Lire le test de 59 Hardware : http://www.pcinpact.com/link.php?url=http%3A%2F%2Fwww.59hardware.net%2FTests%2FProcesseurs%2F59Chrono_%3A_rapide_tour_des_performances_des_Core_i7_965%2C_940_et_920.html

Lire le test de Ere numérique : http://www.pcinpact.com/link.php?url=http%3A%2F%2Fwww.erenumerique.fr%2Fintel_core_i7_r_evolution_-art-2165-1.html

Lire le test de Hardware.fr : http://www.pcinpact.com/link.php?url=http%3A%2F%2Fwww.hardware.fr%2Farticles%2F737-1%2Fdossier-intel-core-i7-pratique.html

Lire le test de Revioo : http://www.pcinpact.com/link.php?url=http%3A%2F%2Fwww.revioo.com%2Farticles%2Fa12087_0.html

Lire le test de TT-Hardware : http://www.pcinpact.com/link.php?url=http%3A%2F%2Fwww.tt-hardware.com%2Fmodules.php%3Fname%3DNews%26file%3Darticle%26sid%3D12136

Nouveau Test du Core i7 du 25 novembre 2008 par PuissancePC

http://www.puissance-pc.net/les-dossiers/test-intel-core-...

15:05 Écrit par CPU History-fr dans Informatique | Lien permanent | Commentaires (0) |  Facebook |

12/05/2008

Bilan sur la nanotechnologie

Bilan sur la nanotechnologie

C’est grace à la nanoscience qui m’anipule des transistors d’une taille de l’ordre du nanomètre que les processeurs qui se retrouvent actuellement dans nos machines ont atteint des puissances de calcul phénoménables. Il faut revenir en 1965 ou pour la première fois sans le savoir une course à la miniaturalisation va débuter et se déclencher réellement en 1975 afin de prendre son élan par le biais du célèbre Américain Gordon Moore, confondateur de la société Intel, la loi qui porte toujours son nom actuellement (la loi de Moore). Ses exigences vont  imposer à toute l’industrie informatique telle un métronome que tous les deux ans, le nombre de composants sur une puce électronique doit doublé. Une course à la miniaturalisation va alors s’enclancher qui donne le vertige : 6 micromètres en 1974, 1 micromètre en 1989, 130 nanomètres en 2001, 65 nanomètres en 2006 et nous venons d’atteindre 42 nanomètres en 2007 en défiant la loi de la physique, grâce à un tout nouveau métal l’Hafnium dont je vais vous parler un peu plus loin. Imaginez un peu, quand le premier processeur 4004 de 1971 intégrait 2300 transistors, le nouveau Quad Core en contient 800 millions.

Nous avons frôlé le blocage à partir du 65 nanomètres, en butant sur les lois de la physique quantique (la physique quantique est l’appellation générale d’un ensemble de théories physiques nées au XX siècle), à tel point que la miniaturalisation étourdissante des microprocesseurs à bien failli être stoppée brutalement en même temps que la loi de Moore. Sauvé in extremis grâce à un matériaux exotique et méconnu, l’Oxide d’Hafnium (voir les photos ci-dessous). Definition de l’HAFNIUM : élément de numéro atomique 72, métal brillant argenté est assez courant sur terre. On l’extrait des mines de Nanibie, du Malawi, de Mozanbique ou d’Australie. Sons prix se place entre 170 à 200 euros/kg, Il est très apprécié dans les centrales nucléaires pour sa capacité à absorber les neutrons (utilisé dans les barres de modération de réacteur nucléaire) . Du haut de son symbole Hf, l’hafnium va permettre de repousser les limites physique essentiel dans la fabrication des microprocesseurs, les fuites de courant et permettre de continuer comme on va le voir un peu plus loin la miniaturalisation des transistors.

s7sIBMHfO22s9s
 

Depuis dix ans, les chercheurs étudient un candidat pour remplacer l’oxide de silicium. Les métaux potentiellement candidat seront décortiqués sans le moindre ménagement, les principaux participants,  l’oxides d’yttrium, de lanthane, de strontium, de baryum, de zirconium, d’hafnium… De ces candidats un seul va se démarquer du lot, c’est l’hafnium qui va gagner ses lettres de noblesse Hf et grâce a lui les laboratoires d’Intel ont pu présenter en octobre dernier un microprocesseur de nouvelle génération baptisé du nom de code Penryn (voir les photos ci-dessous), dont les transistors battent un nouveau record de miniaturalisation : 45 nanomètres.

La loi de Moore vient d’être une fois de plus repoussée et sauvée, mais pourquoi les fondeurs butent sur ce phénomène physique de la miniaturalisation ? c’est les fuites l’obstable à vaincre, on s’en doute, il ne s’agit pas de fuite d’eau, mais de courant électrique, plus exactement d’électrons. A partir de 2001, les dimensions de certaines parties du transistors ont atteint des proportions ultimes, celle de l’atome. Ainsi l’épaisseur de l’isolant de grille de transistor qui se compose d’une couche de matériau au dessus du composant qui sert à contrôler son ouverture et sa fermeture est descendue à 2,5 nanomètres, ce qui correspond à seulement huit couches atomiques. Plus on diminue la taille des transistors et plus on peut en placer et plus il y a un risque de fuites d’électrons.

A l’origine des ces fuites, l’isolant de grille de transistors qui n’est plus assez efficace. Sans trop rentrer dans les détails techniques, plus le transistor est réduit, les électrons au lieu de rester sagement à leur place dans le canal, passage qu’ils empruntent normalement, vont traverser l’isolant de grille par effet que l’on nomme effet de tunnel(1). Conséquence : Un courant de fuite se forme qui suffit pour provoquer une rupture de charge. Et le pire ce phenomène augmente de manière exponentielle lorsque que l’on diminue l’épaisseur de cette grille. La question qui se pose : Comment faire pour continuer à diminuer la taille des transistors sans les transformer en radiateurs gourmands en électricité sachant que en dessous de 65 nanomètres, l’oxide de silicium ne jout plus son rôle d’isolant et provoquera inévitablement des fuites d’électrons. La réponse à cette question l’hafnium.

penryn-die-070329Penryn_wafer_IDFuntitled

Pour l’annecdote, lors des essais concernant les recherches en laboratoire, avant de trouver les propriétés indéniables de l’hafnium, Simon Deleonibus (voir le photo ci-dessous) un des chercheurs précise que la situation était devenu intenable : Les conditions étaient extrêmes, il est arrivée un moment pendant les tests ou les transistors consommaient autant lorsqu’il étaient bloqués, c'est-à-dire que lorsqu’ils étaient actifs. Il aurait fallu des centrales nucléaires pour alimenter les ordinateurs même au repos, sans oublier l’azote liquide pour les refroidir. Car il faut garder à l’esprit que ce courant de fuite se dissipe ensuite par effets de joule (l’effet de joule est le dégagement de chaleur qui accompagne le passage du courant dans tout conducteur OHMIQUE(2) ) , autrement dit, en chauffant, ce qui corse encore un peu plus le problème de refroidissement.

6iai51

EFFTET DE TUNNEL(1) = Effet autorisé par la mecanique quantique qui permet à un électron de passer la barrière d’énergie infranchissable selon la physique classique, comme si une bille lancée à l’assault d’un obtacle réussissait à le traverser au lieu de passer par-dessus.

CONDUCTEUR OHMIQUE(2) = Tout dipôle, ou plus généralement tout conducteur dont la caractéristique est une droite passant par l'origine est un conducteur ohmique.

Intel prévoit déjà la sortie d’un microprocesseur de 32 nm en 2009, un microprocesseur de 22 nanomètres en 2011 et par un communiqué de la firme lancé la semaine dernière, elle annonce un processeur de 10 nm, oui vous avez bien lu aux alentours de 2020. Il va falloir de nouveau trouver un nouveau matériau autre que l’hafnium qui aura surement atteint ses limites. A cette occasion Philippe Laporte chargé de mission des nanotechnologies au CEA a été intérrogé sur trois points voici ses réponses à ces trois questions  :

 

1)    Après l’oxyde d’hafnium, quels matériaux viendront au secours de la loi de Moore ?

Nous arrivons aux limites de la matière et des matériaux « conventionnels ». Après l’oxide de silicium, c’est au silicium qui forme le transistor qu’il faudra remplacer. On pense aux nanotubes de carbone et au graphène (qui est du carbone pur sous forme de feuille), car ils présentent de meilleures propriétés de conduction : ils formeraient donc des canaux plus rapides.

2)    La miniaturalisation va-t’elle atteindre ses limites ?

Jusque-là, l’augmentation de la puissance de traitement des ordinateurs à suivi la logique de la loi de Moore : faire toujours plus petit pour mettre plus de composants sur une puce. On essaie de repousser les limites avec beaucoup de difficultés. Mais le transistor tel que nous le connaissons est en sursis.

3)    Comment les ordinateurs pourront-ils encore gnagner en rapidité ?

Il faudra raisonner sur l’optimisation des logiciels et l’architecture du système tout entier. Pourquoi en effet traiter l’ensemble des informations en un seul endroit, l’unité centrale d’un ordinateur ? Déjà les cartes vidéo possèdent leur propre processeur.

Voici trois interrogations des plus pertinentes qui va peut être pas vous laisser indifférent ou indifférrente.

Pour conclure cette analyse, il faut retenir comme définition de la nanotechnologie qu’elle est l’ensemble des études et des procédés de fabrication et de manipulation des structures et de systèmes matériels à l’échelle du nanomètre représenté par le symbole nm. La nanotechnologie est  l’objet de l’étude de la nanoscience qui regroupe les phénomènes de manipulation de la matière aux échelles atomique, moléculaire et macromoléculaire. La caractérisation, la production et la l’application de ces structures utilisent le dispositif et système de contrôle de la forme et la taille à une échelle nanométrique. Les principaux champs scientifiques concernés par les nanosciences sont :

1)       Les biosciences et pharma : autour de la biologie, des laboratoires pharmaceutiques et des biotechnologies. Ce champ peut être qualifié comme celui de la nanobiologie.

2)       Les nanomatériaux et synthèse chimique : autour de la chimie et des nanomatériaux. Ce champ peut être qualifié comme celui des nanomatériaux.

3)       La super conductivité et ordinateur quantique : essentiellement issue de la microélectronique, ce champ peut être qualifié comme celui de la nanoélectronique.

Pour les processeurs on retiendra le champ scientifique concerné n°3. A retenir également que les deux majeures difficultés qui prédominent dans la construction des circuits électroniques à base de nanotechnologie dans le monde de l’informatique sont :

À l’échelle du nanomètre, tout objet n’est qu’un assemblage des mêmes briques élémentaires : les atomes. À cette échelle du millionième de millimètre, les propriétés physiques, mécaniques, thermiques, électriques, magnétiques et optiques dépendent directement de la taille des structures et peuvent différer fondamentalement de celles du matériau au niveau macroscopique tel qu’on l'exploitait jusqu’à présent. Cela est dû à un ensemble de raisons qui incluent le comportement quantique mais également l’importance croissante des phénomènes d'interface.

On est à ce jour incapable de maîtriser l’assemblage coordonné d’un très grand nombre de ces dispositifs de commutation par exemple le transistor à nanotubes de carbone CNFET (Carbon Nanotube Field Effect Transistor) ou encore (circuits électroniques mono-moléculaires hybrides) sur un circuit et encore moins de réaliser cela sur un plan industriel, (voir ci-dessous l’animation représentant un nanotube de carbone).

Kohlenstoffnanoroehre_Animation

Pour refermer ce dossier le fondeur INTEL vient de présenter cette semaine au salon de l'IDF (Intel Developer Forum) ses futures technologie à venir concernant l'utilisation de la nanotechnologie dans ses futur microprocesseurs et sa tombe à pic. Cliquez sur ce lien pour lire cet article rédigé par le site Clubic : http://www.clubic.com/actualite-157138-idf-2008-2050-mach...

16:31 Écrit par CPU History-fr dans Informatique | Lien permanent | Commentaires (0) |  Facebook |

16/01/2008

Dossier sur l'Overclocking

cooltext76748764

CHAPITRE N° 1

 

HISTOIRE DE L’OVERCLOCKING

 

Avant d’ouvrir les festivités, un peu d’histoire sur l’OVERCLOCKING(1) nous fera le plus grand bien à tous. Même si la presse et les sites spécialisés restaient frileux sur ce sujet auparavant, un long chemin à été parcouru depuis et l’overclocking s’est maintenant très vite banalisé pour devenir une pratique courante voir même presque obligatoire tellement les fonctions du BIOS(2) et du matériel hardware la facilite. Il faut savoir que cette technique est très vieille, car pour rien vous cacher, l’overclocking fait même partie du métier de l’ingénieur.

 

En effet dans n’importe qu’elle laboratoire de mise au point de processeur, que ce soit chez INTEL(3) ou AMD(4), lorsqu’un nouveau prototype de puce est achevé, on commence à le faire fonctionner à la fréquence pour laquelle les ingénieurs l’ont conçus, ce qui à mon sens est logique. On test déjà si ça marche, ensuite si c’est le cas on passe à la seconde phase qui consiste à tester à l’extrême les limites du composant.

 

Pourquoi j’utilise le mot extrême ? C’est le mieux approprié. Voici comment sont testé les  échantillons avant d’être homologués par une fréquence de fonctionnement définitive. Ont les placés sur des cartes électroniques, un banc d’essai ou de tests, on augmente la fréquence par palier de plus en plus haut, jusqu’à ce que le composant grille littéralement. Attention, on parle ici d’overclocking volontaire, les ingénieurs d’INTEL et AMD n’ont pas nos préoccupations et peuvent brûler un ou plusieurs processeurs quand on en produit quelques dizaines de milliers.

 

On nomme cette opération l’échantillonnage, c'est-à-dire que l’on détermine la qualité de fabrication atteinte et envisagé pour la commercialisation de nouvelles fréquence plus rapides et mieux valorisées. Pour être plus clair, un nouveau processeur Core 2 Duo prévu pour tourner à 2,4 GHZ(5), doit au moins monter sur le banc de test à 2,6 GHz pour obtenir le certificat de conformité à la vente. Si ce n’est pas le cas, il sera ce que l’on nomme rétrogradé (rétrogradage) et sera certifié pour une fréquence inférieure, 2,2 GHz par exemple. Pour ceux qui peuvent atteindre les 3 GHz, la série sera estampillée par exemple pour être commercialisé à 2,8 GHz ou 2,7 GHZ. Une fois que la vitesse maximale atteinte est décidée, on doit échantillonner les processeurs, c'est-à-dire déterminer quelle étiquetage commercial sera opposée en fonction de la qualité obtenue sur une série donnée (2,0 GHz, 2,2 GHz, 2,4 GHz, 2,6 GHz….).

 

Pourquoi cette pratique ? Pour la simple raison, plus le processeur est rapide aux tests et plus il aura de valeur commerciale et sera vendu le plus cher possible. Un autre paramètre très important est à prendre en compte lors de ces tests, c’est celui de la fiabilité. INTEL ou AMD n’ont pas le droit à l’erreur lors du lancement dans le commerce d’un nouveau processeur, il doit bien être vendu et fonctionné pour la fréquence que les ingénieurs on déterminés précisément et cela sans faire planter votre machine à chaque instant. Je vois déjà une idée germer dans votre cerveau, mais alors dans tous les cas mon processeur va pouvoir fonctionner au dessus de la fréquence préconisée par le fabricant. Effectivement c’est bien la ou je voulais en venir sur cette marge, mais cela fera l’objet d’un chapitre plus loin dans ce dossier nous en sommes pas encore la.                  

 

DETERMINATION DU TERME OVERCLOCKING

 

Pour débuter notre étude et notre apprentissage, décortiquons précisément le terme Overclocking. C’est un mot anglo-saxon qui est parfaitement traduisible en français. Over-clocking = dépassement d’horloge et la définition la plus couramment utilisée chez nous est dépassement de fréquence et parfois sur-fréquençage. En ce qui me concerne pour cet imposant dossier, j’utiliserais le mot overclocking beaucoup plus court et simple. Comme beaucoup le pense peut être, l’overclocking n’a pas été inventé par les français ; Ce sont les Américains et une poignée de Chinois qui ont exploré cette voie. C’est pour cette raison qu’ils ont donc fort logiquement généralisé l’usage d’un terme approprié à leur langage de travail ou d’expression.

 

Définissons maintenant la fonction de l’overclocking. Cela consiste à faire fonctionner un composant plus rapidement que sa vitesse d’origine préconisée et fixée par le fondeur (fondeur est le mot pour désigner un concepteur de microprocesseurs). Comme j’ai décidé de rester le plus clair possible pour ce dossier, je dirais simplement, l’overclocking c’est l’art ou l’expérience d’utiliser un microprocesseur vendu pour une vitesse donnée et de le faire fonctionner à une vitesse plus rapide.

 

POURQUOI CA FONCTIONNE ?     

   

Je m’explique : INTEL ou AMD prépare un processeur de nouvelle génération. Pour sa réalisation, une nouvelle fabrique (pour le Core 2 Duo INTEL a créé une nouvelle usine en Arizona, la Fab32) extrêmement coûteuse devra être conçue spécialement dédiée à son nouveau modèle. Cette nouvelle série, sans exception, sera conçue sur la même chaîne, aussi bien le processeur Core 2 Duo cadencé à 2.4 GHz, 2,6 GHz ou 2,8 GHz.

 

Ils bénéficieront donc tous à l’identique du même procédé de fabrication, seul des améliorations dont les tests extrêmes en dépendent vont permettre d’améliorer le procédé de finalisation afin de passer le palier de la fréquences supérieur, car la fabrication repose en grande partie sur la loi de la physique. On peut alors se poser la question, êtes vous certain d’avoir acquis un processeur pour la fréquence pour laquelle il a été certifiée. La réponse est oui et non, puisque INTEL et AMD ont l’obligation de vendrent des processeurs qui fonctionnement à la bonne vitesse et ceci sans aucune marge d’erreur. C’est pour cette raison qu’un CPU à presque toujours une marge de potentielle à l’overclocking.

 

En effet si vous acheté par exemple le processeur Core 2 Duo 2,6 GHz de la gamme énumérée si dessus, INTEL et dans l’obligation pour garantir que son processeur tourne sans encombre à 2,6 GHz de l’avoir testé avec une fréquence supérieure et stable qui va se situer entre 2,7 GHz et 2,8 GHz. Si ce n’est pas le cas il sera retrogradé et vendu et marqué 2,4 GHz. Voici la réponse à la question de pourquoi l’overclocking fonctionne systématiquement.

 

Cette marge indispensable sur la fréquence de fonctionnement pour INTEL ou AMD est obligatoire, il n’y aucune options dans la réalisation d’un processeur pour les deux fondeurs et la fabrique n’a le droit à aucune marge d’erreur. Attention ! Comme on le verra plus loin certains processeurs sont plus doués que d’autres à l’overclocking à la sortie de chaîne.

 

Donc à retenir quand vous acheté un processeur il sera toujours capable grâce à cette marge de sécurité de fonctionner plus rapidement pour la vitesse qu’il a été certifiée et qu’il existe encore bien d’autres facteurs que l’on étudiera plus loin dans ce dossier et qui favorise largement l’overclocking. Vous voyez on a tout juste commencé ce passionnant dossier et votre processeur à déjà gagné une bonne poignée de MHZ(6).

 

POURQUOI FAIRE ?

 

Premier cas : Reprenons les trois processeurs Core 2 Duo énumérés comme exemple ci-dessus qui correspond exactement à ma configuration actuelle. Le Core 2 Duo 2,4 GHz coûte aux alentours de 190 € suivant les revendeurs et le modèle supérieur 2,6 GHz 240 €. Pourquoi dépenser plus sachant que le Core 2 Duo 2,4 Ghz pourra fonctionner à 2,6 GHz sans encombre en appliquant ce qui correspond à un petit overckloking dynamique à 2,6 GHz et cerise sur le gâteau, il a de forte chance d’atteindre la fréquence d’un Core 2 duo 2,8 GHz à 320 € et cela en gardant le VENTIRAD(7) (on nomme Ventirad le couple dissipateur plus ventilateur utilisé pour dissiper le dégagement de chaleur du CPU) d’origine fourni en kit avec la boite. Encore un chapitre très important qui sera développé un peu plus loin : Le refroidissement.

 

Second cas : Votre PC commence à devenir poussif, vous venez d’acquérir un jeu de dernière génération, vous avez overcloké votre carte graphique mais sa ne suffit pas pour faire tourner votre jeu de façon fluide dont certains calculs 3D sont toujours dépendant du processeur. Deux solutions s’offrent à vous, soit vous investissez dans une nouvelle machine ou un upgrade, soit vos finances ne sont pas au beau fixe et vous optez pour la seconde solution la moins coûteuse, orverclocker votre Athlon d’ancienne génération en investissant juste dans un nouveau ventirad plus efficace.

 

Troisième cas : Vous décidez d’expérimenter l’overclocking, car il faut garder à l’esprit, que l’overclocking est avant tout une expérience et qu'il existe une part de risques et de piège à eviter. Tout au fil de ce dossier on démontrera que ce n’est pas toujours une science exacte et que de nombreux paramètres dépendent de la physique. Avant de commencer vous devez déterminer les fréquences du  processeur et du chipset qui anime votre machine, son potentiel en overclocking, les possibilités de réglages qu’offre le BIOS de votre carte mère, la faculté de votre mémoire RAM à monter en fréquence et surtout il va falloir exploiter toutes les ressources sur Internet sur le sujet pour mener correctement votre première expérience.

 

Comme vous allez pouvoir le constater la réussite d’un overclocking dépend de nombreux paramètres, des limites acceptables des composants électroniques de votre matériel et de leur qualité. Il faut s’armer de patience et procéder calmement pas à pas et en cas de doute demander de l’aide à un proche qui à déjà pratiquer cette expérience.

 

1er ETAPE L’ANALYSE

 

C’est aujourd’hui que vous allez faire vos premiers pas dans ce monde inconnu qui est l’overclocking. Nous allons apprendre avec la complicité de l’excellente application CPU-Z dans sa dernière version 1.43 à déterminer à qu’elles fréquences s’échange vos données, la vitesse et le marque de vos barrettes mémoires, le modèle de votre processeur, sa fréquence, son nom de code, le spécimen de votre jeu de chipset et encore toute une montagne de renseignement afin de mener à bien votre premier overclocking.

 

Vous devrez toujours avoir sur la main cet incontournable logiciel qui reconnais tous les processeurs ainsi que ceux de dernière génération grâce à une mise à jour constante de son développeur. Première étape le téléchargement de CPU-Z en cliquant sur ce lien : http://www.cpuid.com/cpuz.php Pour information CPU-Z dispose de la certification CPU-Z VALIDATOR, c'est-à-dire qu'il est autorisé à valider et certifier les fréquences des overclocking. C’est à cette adresse : http://valid.x86-secret.com/ Maintenant que vous disposez de votre couteau suisse, je vais vous expliquer comment vous en servir.

 

Une fois le téléchargement effectué, rien de plus simple, il suffit de décompresser l’archive au format ZIP, et l’application est déjà prête à l’emploi, il n’y a aucune installation à exécuter, il suffit de double cliquer sur l’icône cpuzico

00503214

ONGLET CPU : Une fois exécutée vous allez pouvoir récupérer les données fondamentales de votre machine. Le premier onglet d’information qui apparaît lors de son lancement est celui nommé CPU, comme vous pouvez le voir sur la photo ci-dessus les premier champ indique le nom de votre processeur (dans l’exemple Intel Core 2 Extreme QX6700), en dessous son nom de code (dans l’exemple Kentsfield), ensuite le nom de son support (dans l’exemple socket LGA 775), la technologie de gravure (dans l’exemple finesse de gravure 65 nanomètres), sa spécification (dans l’exemple Intel® Core™ 2 Quad CPU pur quatre Core, fréquence réelle @2,66GHz), puis le famille des processeurs auquel il appartient (dans notre exemple famille de génération 6 de la famille étendue , modèle F de la famille étendue et le Stepping 7 qui spécifie le design de son enveloppe), la seconde ligne est du même acabit dans l’exemple le paramètre très important à noter, est la révision du Core (dans l’exemple B3), une indication très importante pour l’overclocking qui correspond au numéro de révision de la fabrication du processeur. La ligne nommée instructions indique qu’elles sont les instructions SIMD(8) intégrées au processeur, leurs classifications et leurs fonctions, sa n’a pas beaucoup d’intérêt lors d’un overclocking dans notre exemple (MMX, SSE, SSE2, SSE3, SSSE3) qui sont des instructions permettant d’accélérer les applications multimédia qui les prennent en compte et la référence (EM64T) indique que ce processeur peut prendre en charge les systèmes d’exploitations utilisants les instructions 64 bits. Core Speed 1600 MHz (dans l’exemple correspond à la fréquence actuelle de fonctionnement en mode économie d’énergie), Multiplier X6 et de 6-10 (vous donne le quotient multiplicateur actuel interne du BUS et le quotient maximum 10), BUS Speed c’est sa vitesse réelle interne (dans notre exemple 266 MHZ), Rated FSB (Freqency System Bus ici 1066 MHz), qui contrairement au BUS est la vitesse de communication par le bus entre le processeur et le chipset, chez INTEL sa technologie est en Quad Pump c'est-à-dire 266 MHz x 4 = 1066 MHz, on dit aussi Quad DDR. La partie de droite concerne les différentes mémoires caches intégrées au cœur de la puce. Dans notre exemple (L1 Data 4 x 32 KBytes) quantité de données que le cache L1 peut stocker, (L1  Code 4 x 32 KBytes) quantité d’instructions que le cache L1 peut stocker. Pour le terme Kilobyte voir le dico KBytes supplément. Level L2 pour cache L2 ou niveau deux, (dans notre exemple 2 x 4096 KBytes) ou 2 x 4 Mo = 8 Mo, est la mémoire cache de second niveau, quand le cache L1 est plein, c’est le cache L2 qui sera sollicité et si celui-ci est complet, le stockage passera vers la mémoire RAM et ainsi de suite, si la mémoire RAM est pleine, les données seront stockés sur le disque dur en mode virtuel. On suit une logique imparable, pour que le PC soit le plus réactif possible. On sollicite en premier la mémoire la plus rapide en décroissant vers la plus lente. Dernier paramètre, (sélection Processor #1, Core 4, Threads 4) cela veut dire que l’on a entre les mains 1 processeur intégrant 4 Core ou cœur pouvant exécuter 4 processus ou taches indépendantes dans un même laps de temps. On vient de terminer la première explication de l’onglet CPU, une explication un peu longue, mais nécessaire pour le suite de notre expérience.

AVANT DE COMMENCER, LES DANGERS DE L’OVERCLOCKING          

Dans toutes expériences le risque zéro n’existe pas et pour le minimiser nous allons décomposer les précautions à prendre et étudier l’invisible de ce qui se passe lors d’un overclocking. Lors de l’augmentation de la fréquence d’un composant, la principale problématique à gérer est la chaleur. Donc votre priorité sera le refroidissement, parce que les composants électroniques détestent la chaleur, plus le processeur sera haut en température et plus il ralentit, plus il est refroidit et plus il va vite. Si vous refroidissez votre processeur en changeant le ventirad d’origine par un ventirad haut de gamme tout en cuivre par exemple, sans même pratiquer d’overclocking, ces performances augmenteront naturellement. Voila pourquoi un overclocking est dépendant de la physique, c’est la loi de l’électronique, de la physique et dans notre dossier il sera souvent question de refroidissement. Vous allez voir un peu plus loin qu’il existe toute une batterie de solutions pour grappiller des degrés et contourner ces lois.

Pour percer le mystère de l’invisible, nous allons devoir passer par la physique. Je vais tenter de rester le plus simple possible. Comme on a pu le constater, les grands principes de l’overclocking passe par la maîtrise du refroidissement. Afin de bien saisir l’importance de la réduction de la chaleur, examinons les phénomènes physiques qui vont se produire au cœur même du processeur qui se traduise par une émission de chaleur lorsque que l’on overclocke un composant électronique.

Les microprocesseurs qui équipent nos PC sont de type CMOS (Complementary Metal Oxide Semiconductor). Pour faire simple c’est la technique de fabrication de composants électrique faible consommation. Plus sérieusement, le terme CMOS désigne par extension une famille de composants électroniques à faible consommation électrique. L’adjectif Complementary provient qu’un étage de sortie des ces circuits intégrés (en autres les processeurs) est composé d’un ensemble de transistors à effet de champ N et P nommés MOFSET placé de manière symétrique, réalisant chacun la même fonction. Du fait de leur caractéristique de fonctionnement inversée, un transistor est passant alors que l'autre est bloquant. C’est le langage du processeur, le binaire, et pour bien comprendre tous ces mécanismes il est important et indispensable de relire et de faire une pose sur mes deux dossiers sur ce sujet que je reposte ci-dessous avant de continuer ce chapitre sur les dangers de l'overclockingPour info on en distingue deux sortes de ces composants électroniques :

 

Composant actif : qui est composant électronique capable d’augmenter la puissance d’un signal d’une tension, d’un courant ou les deux à la fois. Sont classé dans cette catégorie les transistors et les circuits intégrés.

Composant passif : à l’inverse d’augmenter la puissance du signal, dans la plupart des cas il s’agit de la diminuer, donc dans réduire sa puissance, souvent par ce que l’on nomme l'effet de JOULE(9). Sont classé dans cette catégorie les résistances, les condensateurs, bobines et les filtres passifs.      

 

Le premier : Le transistor des processeurs comment sa fonctionne

 

546_af7d77cd84552225d95585d047d7abda

Comment vous parler tous les jours de CPU sans vous expliquer la nature et le fonctionnement de la pièce maîtresse qui se chiffre par millions : le transistor. Le transistor MOS pour (Metal Oxyde Semiconductor) a la particularité de se composer d’un barreau de semiconducteur dopé P ou N sur lequel on fait croître par épitaxie une mince couche d’isolant, (silice) laquelle est surmontée d’une électrode métallique. Les composants MOS chauffent peu, c’est pour cette raison que les puces acceptent un très grand nombre de transistors.

 

Pour ce qui est de l’histoire, la première description du transistor IGFET (Insulated Gate Field Effect Transistor) a été réalisée en 1926 (Lilienfield). La première fabrication date de 1960 (Kaghn et Attala). Le Transistor (MOSFET en anglais Metal Oxyde Semiconductor Field Effect Transistor) en français (Transistor à Effet de Champ (à grille) Métal-Oxyde) a sa grille isolée du canal par une couche de dioxyde de silicium. Le transistor MOFSET trouve ses applications dans les circuits intégrés logiques (voir algèbre de Boole fonctions logiques pour les matheux), mémoires, microprocesseurs et en particulier avec la technologie CMOS(1). Il est aussi employé dans l'électronique de puissance comme dans les alimentations à découpage, variateurs de vitesse etc... Il possède quatre électrodes représentés sur la (photo en haut a gauche de l’article) :

 

La source : c’est le point de départ des porteurs = EMETTEUR.

Le Drain : c’est le point des collectes des porteurs = COLLECTEUR.

La Gate : c’est la grille = COURANT.

Le Body : c’est le Substrat = BASE.

 

Simplement comment sa fonctionne un transistor.

 

Un transistor fonctionne comme un interrupteur. Quand le COURANT électrique qui circule dans la BASE est faible, le COURANT de l’ÉMETTEUR ne peut atteindre le COLLECTEUR : l’interrupteur est en position « OUVERT » (en haut). Si le COURANT de la BASE est plus fort (en bas) le COURANT de l’ÉMETTEUR peut passer dans le COLLECTEUR, et l’interrupteur est en position « FERMÉ ». C’est ce que l’on nomme le table de vérité.

 

Une table de vérité est un tableau qui représente des entrées en colonne et des états BINAIRE(2) 0 et 1, FAUX ou VRAI, ÉTEINT ou ALLUMÉ. Une sortie, également représentée sous forme de colonne, est la résultante des états d'entrée, elle-même exprimée sous forme d'état binaire. C’est le seul langage que peut décrypter le processeur, le LANGAGE BINAIRE1, (un) est l’entier naturel suivant zéro et précédent 2. 0 (zéro) est l’entier naturel précédent 1. A savoir quand mathématique un entier naturel aussi appelé nombre naturel est un nombre ENTIER et POSITIF, comme 0, 1, 2, 3, 4, 5... 12, 512, 2 x 10. Il s'agit donc de nombres qui permettent de compter les objets quand ils sont en quantité discrète ; par exemple, les doigts, les feuilles d'un arbre. Ils ne permettent pas de mesurer des quantités continues comme une longueur, un volume ou une masse.

 

Conclusion de cet article

 

Il faut retenir de cet article :

 

1) Que les transistors des processeurs sont des composants électroniques microscopiques capables d’amplifier un courant électrique ou d’agir comme interrupteurs, ou plus communément de relais. Ces relais comme on a pu le voir sont dits « OUVERT » ou « FERMÉ » alors quand réalité ils ne sont jamais complètement fermés puisqu’il y a en permanence du courant dans le système. La seule certitude que l’on peut leurs attribuer, c’est qu’ils ont deux états bien distincts, ils sont donc aptent à manier l’unique langue que l’ordinateur comprenne : celle des nombres binaires.

 

2) Que le système binaire s’articule en une succession de 0 et de 1, et ce langage qui peu paraître de prime abord limité en termes de combinaisons, est plus que nécessaire et suffisant, c’est même la charpente de toute la civilisation informatique.

 

3) Qu'un faible voltage appliqué a un transistor est perçu comme un 0, un fort voltage  comme un 1, et que dans cette configuration le transistor devient l’équivalent d’un chiffre binaire, ou bit, qui est l’unité de base de l’informatique.  

 

Le second : Le langage binaire 0 et 1

Comme on a pu le voir précédemment le seul langage que peut interpréter le processeur est le langage binaire et qu’il est architecturé autour du 0 et du 1 et on a du faire des correspondances entre le langage écrit humain et ce langage binaire. Vous en en conviendrez que de discuter avec des 0 et des 1 avec votre ordinateur est impossible. Pour ce faire on utilise une entité de 8 bits en mesure de langage (8 bits est égal a 1 octet) qui permet de représenter 2 à la puissance 8, soit 256 combinaisons différentes. En math sur les exposants, 2 à la puissance 8 est égale (2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 = 256 deux et 8 fois un facteur).

Il faut donc retenir très clairement que l’unité de base de la mémoire de l’ordinateur est l’octet, ou nombre binaire de 8 bits. Que le langage binaire est uniquement composé de 1 et de 2 et ces nombre sont écrit en base 2.

C’est avec ces 256 combinaisons que l’on représente les caractères, chiffres et symboles pour pouvoir écrire à l’aide de son clavier. Ces combinaisons on données lieu a des standards d’encodage de caractères comme l’EBCDIC ou ASCII. Concrètement voici comment sa se passe, quand vous tapez la lettre « » au clavier celui-ci retransmet à l’ordinateur une information sur 1 octet ou 8 bit qui correspond au code binaire du caractère tapé. Je m’explique :

 

Dans le code international ASCII, la lettre « a » est encodée dans le seul langage que comprend le processeur le langage binaire des 0 et des 1 et sur un 1 octet qui se compose de 8 bits, la lettre « a » sera donc encodée par 10010111 soit 8 bits = 1 Octet. Une fois que l’ordinateur l’a interprété, il retransmet à la carte vidéo une autre information qui va représenter le caractère à l’écran sous forme de points noirs que l’on nomme dans le jargon informatique : Le pixel. Conclusion lorsque vous frappez la lettre « a » au clavier, c’est le résultat de centaines de milliers d’opération élémentaires qui sont effectuées à votre insu.

 

Ce qu’il faut retenir c’est que l’ordinateur à donc un « vocabulaire » composé de deux lettres qui s’écrivent avec « 0 et 1 » et que l’on aurait pu choisir par exemple « A et B » mais seul l’encodage doit se faire en langage binaire pour les nombres, les caractères, les instructions, les points de couleurs (pixels), les images, etc.….     Je ne vais pas rentrer dans des explications mathématiques ennuyeuses, mais si toutefois vous êtes intéressés(e) de savoir comment on obtient le résultat des chiffres binaires CLIQUEZ ! sur ce lien pour en savoir plus :http://membres.lycos.fr/iespjmonnet/informatique.htm

 

Pour information voici la correspondance de quelques tailles et mesures informatique :

1 Bit (est la contraction de Binary Digit), il ne peut prendre que deux valeurs 0 ou 1.  1 Octet (ou en abrége O ou parfois B et en anglais pour Byte), vaut 8 bits.1 Ko (ou en abrégé KB), le kilo-octet, vaut exactement 1024 octets, soit 8192 bits.1 Mo (ou en abrégé MB), le méga-octets vaut 1024 ko, ou encore 1024x1024 octets soit un peu plus de 1 millions d’octets.1 Go (ou en abrégé GB), le giga-octets vaut 1024 Mo. 1 To (ou en abrégé TB), le téra-octets vaut 1024 Go ou environ 1 million de méga octets.

 

Après cet indispensable intermède sur le transistor et le binaire, un passage essentiel pour bien comprendre ce qui va suivre, revenons sur la description scientifique ce cet invisible. Lors d’un overclocking, les transistors qui sont le fondement principal du microprocesseur, comme on a pu le voir ci-dessus sont activés ou désactivés (état binaire 0 ou1) par l’action du courant électrique. Ce courant électrique circule sur du silicium, une substance qui comme tout  matériau offre une certaine limite à la résistance au passage de l’électricité, même si dans ce cas elle reste très élevée. Cette résistance est directement liée à la mobilité des électrons qui composent les matériaux. Pour être plus clair, la circulation électrique est une « éjection » d’électrons d’un atome à un autre. Exemple : Quand vous frotter deux corps granuleux l’un contre l’autre, ou bout d’un laps de temps ils vont s’échauffer mutuellement, si vous additionnez une substance comme de la graisse entre les deux de ces corps, ils vont beaucoup moins s’échauffer.

 

Figurez vous qu’avec l’électricité c’est la même chose. Plus le matériau est chaud, plus il résiste, et plus il résiste, plus le courant l’échauffe. Seule différence si comme dans notre exemple la « graisse » est le conducteur, elle va jouer le rôle de dissipation thermique afin d’évacuer la chaleur par n’importe qu’elle moyen. Vous comprenez sûrement un peu mieux maintenant l’importance du refroidissement et de la responsabilité importante que peut jouer le ventirad. Pour résumer, la résistance d’un conducteur qu’il soit métallique ou en silicium est donc plus importante chaque fois que l’on s’éloigne de sa température de résistance minimale. Cette température de résistance minimale porte un nom que vous avez peut être déjà entendu parlée : LA SUPRACONDUCTIVITÉ(10), c'est-à-dire la résistance nulle contre le passage de l’électricité. Voila c’est terminé vous pouvez vous détendre, ou bien relire ces deux paragraphes si le cœur vous en dit et si vous n’avez pas bien assimiler la chose, en tout cas en ce qui me concerne je ne compte pas m’aventurer plus profondément sur ce sujet qui pourrait vite dépasser mon domaine de compétence. La morale de cette histoire : Plus il fait froid plus sa va vite, plus il fait chaud plus ça ralentit et il faut en retenir, que ce phénomène est confirmé par les lois de la physique, que la mobilité des électrons  se trouve améliorés sous l’action du froid et ce qui circule dans un microprocesseur c’est de l’électricité qui résulte du mouvement des électrons.

 

UN DANGER PEU CONNUE L'ELECTROMIGRATION

 

Je me devais d’aborder ce sujet d’une extrême importance pour tous les mordus et passionnés d’overclocking, même occasionnels ou pour ceux désirant tenter cette expérience. Lorsque l’on augmente la fréquence du CPU au dessus de celle préconisée par le fondeur, il est très courant, voir indispensable après avoir atteint les limites acceptables de celui-ci d’avoir recours à l’augmentation de la tension électrique par palier afin de pouvoir encore grappiller de nombreux Mhz, mais surtout pour palier aux plantages et stabiliser le PC. Plus on augmente la fréquence d’un processeur et plus celui-ci a besoin de courant électrique pour être alimenté, cette montée de tension électrique va accentuer dans le temps l’électromigration et si elle trop conséquente peut détériorer irréversiblement votre processeur.

 

Vous devez savoir que si cette augmentation de voltage dépasse la tolérance admissible par votre processeur cela aura des conséquences néfastes pour votre CPU. L’auteur du livre sur l’overclocking Eric Chardon qui est un best seller explique très bien ce phénomène par cet exemple : Une ampoule électrique prévue pour fonctionner à 220 volts fonctionne souvent à 260 volts, mais dure moins longtemps, avec un processeur c’est pareil. A l’heure actuelle on ne connaît toujours pas les conséquences en termes de perte de durée de vie que subirait un processeur ovorclocké via une modification de voltage. C’est bien pour cela que l’on dit que l’overclocking n’est pas une science exacte et il faut la considérer comme une expérience avant tout.C’est quoi l’électromigration ?

 

Concrètement, c’est le déplacement des atomes dans un conducteur sous l’effet du passage d’un courant électrique. Contrairement à ce que l’on pourrait penser plus la gravure du processeur est fine et plus ce phénomène va s’accroître dans le temps.Comment sa détériore l’électromigration ? L’électromigration va détériorer le CPU dans le temps par le mouvement des atomes de métal conducteur qui finissent par se détacher des pistes sous l’effet de l’augmentation de la tension électrique. Donc plus la finesse de gravure d’un processeur est réduite et plus le risque est élevé, il suffit de quelques atomes qui se décrochent pour couper des pistes. Ces atomes qui se déplacent peuvent aussi engendrer des courts-circuits en se positionnant au mauvais endroit et griller partiellement ou définitivement le processeur.

 

Pourquoi je tenais à vous parler de l’électromigration ? Tout simplement qu’elle est très mal connue de la majorité des overclockeurs et pourtant ce n’est pas un fait à prendre à la légère. Elle a fait de très nombreux dégâts sur les processeurs dont la gamme de Pentium 4 au nom de code Northwood. C’est les adeptes qui pratiquent le rodage de leurs processeurs qui sont les plus touchés. Le rodage d’un CPU consiste à le faire fonctionner a 100% overcloké durant de longues périodes afin d’atteindre des fréquences extrêmes et dans ce cas on provoque volontairement l’électromigration. Quant au fait qu’il apporte des performances supplémentaires, il s’agit uniquement d’un facteur chance et sa revient un peu à jouer a la roulette russe. Garder à l’esprit que l’augmentation du voltage entraîne une augmentation de la température donc l’électromigration, alors ne négligé pas votre système de refroidissement pour y palier, optez pour le plus performant et efficace, voir même un WaterCooling (refroidissement par eau).

 

LES DEGRES DE L’OVERCLOCKING

 

Dernière étape indispensable de ce chapitre N°1 avant de passer à la pratique, les degrés de l’overclocking. J’entends par degrés l’échelle du niveau de l’overclocking que l’on va choisir et que je décomposerais en trois phases.

 

La première : L’overclocking modéré. Pratiquez par tous les débutants pour ces risques pratiquement nuls. Il ne dépasse généralement pas les 200 MHz supplémentaire et se contente la plupart du temps du VENTIRAD(7) d’origine. Aucun matériel hardware spécifique haut de gamme n’est requis, il suffit de passer par le BIOS(2) et de procéder a des changements de paramètres et suivre quelques règles élémentaires qui vous serons détaillés dans le second chapitre de ce dossier.

 

La seconde : L’overclocking moyen avec risques mesurés et calculés. Pratiquez par les initiés(e) et les passionnés(e), et vous allez vous rendre compte plus loin dans ce dossier que si j’ai placé un e à initié et passionné ce n’est pas pour rien, l’overclocking n’est pas pratiqué que par le genre masculins. Les choses deviennent déjà plus sérieuses, le matériel doit être adapté pour pouvoir atteindre la fréquence la plus élevée tout en gardant un PC stable. Il vous faudra choisir le processeur suivant sa date de mise sur le marché, choisir une carte mère de qualité avec des composants électroniques capable de supporter des voltages et des fréquences de BUS élevées, disposant d’un bon système de refroidissement du jeux de chipsets et surtout un BIOS intégrant des paramètres très fins et nombreux. Ce n’est pas tout il faudra prévoir un ventirad (cuivre conseillé et ventilateur 120mm, head pipes ou encore Watercooling) haut gamme pour un refroidissement optimale accompagné d’une pâte thermique de marque et des barrettes mémoires haut de gamme disposant d’une bonne marge de montée en fréquence. La ventilation du boîtier devra également être revue et l’alimentation changée pour une beaucoup plus puissante en Watts.

 

La troisième : L’overclocking extrême qui comporte de très gros risques. Pratiquez que par les cascadeurs de l’overclocking car j'ai des exemples de processeurs qui ont dépassés 8 GHz. Demande de très gros moyens financiers, est pratiqué dans le seul but de battre des records d’overclocking. Demande du matériel hardware de pointe très couteux accompagné presque toujours d’un système de refroidissement à l’azote liquide (-180 degrés) et d’une connaissance dans le domaine très pointues de la physiques et l’électronique. Il faut aussi être très bon bricoleur et disposer de beaucoup de temps et de patience. Un chapitre spécial sera consacré à ce type d’overclocking hors du commun. Je referme ce premier chapitre N°1 qui je l‘espère vous donnera envie de découvrir la suite.

 

A SUIVRE PROCHAINEMENT CHAPITRE N° 2……

 

DICTIONNAIRE DES DEFINITIONS

 

OVERCLOCKING(1) = Mot anglais que l’on pourrait traduire par dépassement d’horloge, aussi nommé « surcadencement », action d’appliquer un « surfréquençage ». Il a pour but d’obtenir des performances supérieures à moindre coût en augmentant un composant bas de gamme ou dépassé au delà des limites préconisées par les ingénieurs. Cette pratique est très répandue parmi les utilisateurs avertis et a tendance à se généraliser à tous les utilisateurs depuis quelques années.


 BIOS(2) = En anglais (Basic Input Output System), en français (Système Élémentaire d’Entrée et Sortie). C’est un ensemble de fonction, de programme contenu dans une mémoire morte (c'est-à-dire non volatile) que l’on nomme ROM (Read Only Memory) c'est-à-dire une mémoire intégrée à la carte mère qui ne s’efface pas lorsque l’ordinateur n’est plus alimenté en électricité. Le BIOS contient les informations au démarrage de l’ordinateur (la ROM contient des instructions ou microcode), c’est le lancement automatique du BIOS lors du démarrage qui va faire le lien et la détection entre le système d’exploitation donc le Software (Windows XP, Vista, 98, Linux etc.…) et le matériel de votre PC, donc le Hardware (jeu de chipsets, mémoire, disque dur, carte graphique, lecteur CD-ROM, CPU etc.…).


INTEL(3) = Signifie Integrated Electronics, il fait partie de l’un des plus grand fabricant de microprocesseurs. Sa société, Robert Noyce Building est basée à Santa Clara en Californie, Etats-Unis. La firme a donné naissance en 1970 au tout premier processeur au monde, l’Intel 4004. Il fonctionnait sur un registre de 4 bits et intégrait 2300 transistors. Un processeur destiné avant tout à des calculatrices commandé par le Japon. Voir au tout début de mon Blog mon premier article sur, Comment c’est arrivé ? Et Naissance du tout premier processeur en cliquant sur ce lien. http://histoire-du-micro-processeur.skynetblogs.be/?number=1&unit=days&date=20050624#1252925


AMD(4) = Fondée en 1969, AMD signifie Advanced Micro Devices et c’est une compagnie Américaine. AMD fut le premier à briser le monopole de son ancien partenaire Intel en créant ses propres processeurs l’AMD 286 et l’AMD 386 pour devenir donc fondeur (nom que l’on donne pour désigner un fabricant de processeurs). Ces premiers processeurs sont surtout au départ des clones des CPU du fondeur Intel. AMD va toutefois surprendre Intel en lançant un processeur identiquent, l’AMD 386DX40 qui va se montrer plus puissant et moins coûteux à fréquence égale. AMD va très vite devenir le second fondeur après Intel.


GHz(5) = Gigahertz = 1 milliard d’hertz. Unité de mesure de la puissance du processeur de l'ordinateur. On utilise également l'unité d'ordre de grandeur moins élevé : le Mégahertz pour mesurer cette puissance (1 GHz = 1000 Mhz). Pour les matheux c’est égal à 10 puissances 9.


MHz(6) = Le Mégahetz = 1 million d'hertz. Couramment utilisé comme mesure de la vitesse du Hardware. Le premier PC qui intégrait le microprocesseur 8086 fonctionnait à 4,77 Mhz. Pour un CPU de 1000 Mhz on passe dans ce cas, au Ghz ou Gigahertz. Pour les matheux c’est égal à 10 puissances 6. 


HERTZ (supplément) = Pour info le Hertz à pour symbole Hz et il est l’unité dérivée de fréquence du SI Système International. 1 Hertz et équivalent à une oscillation par seconde. Pour les matheux c’est égal à 10 puissances 0. Par exemple le courant alternatif domestique dispose d’un standard européen fixé à 50 Hz, cela signifie qui l'exécute 100 changements à la seconde, chaque borne est positive 50 fois et chaque borne négative 50 fois par seconde.


VENTIRAD(7) = Est l’ensemble de refroidissement du processeur constitué d’un ventilateur et d’un convecteur à ailettes de cuivre ou d’aluminium (que l’on nomme usuellement radiateur). Cet ensemble est destiné à être fixé sur le processeur par des clips ou par un système d’attache approprié afin dans extraire la chaleur ou watts dégagés lors des calculs intensif de celui-ci.


KBytes (supplémént) = En français Kilobyte est une mémoire d'ordinateur qui enregistre des bits qui sont des valeurs binaires faisant partie d'un système ne connaissant que deux états et représenté par les chiffres 0 et 1 (deux possibilités). Binaire = 2, donc la valeur s'exprime par 2 à la puissance 10. Une capacité de 1 Ko représente donc une capacité d'enregistrement de 1024 bytes.


SIMD(8) = en anglais Single Instruction Multiple Data, désigne un mode de fonctionnement des ordinateurs dotés de plusieurs unités de calcul fonctionnant en parallèle. Dans ce mode, la même instruction est appliquée simultanément à plusieurs données pour produire plusieurs résultats. On utilise cette abréviation par opposition à SISD (Single Instruction on Single Data), le fonctionnement traditionnel, et MIMD (Multiple Instructions on Multiple Data), le fonctionnement avec plusieurs processeurs indépendants. Les instructions SIMD ont été ajoutées aux processeurs modernes pour pouvoir améliorer la vitesse de traitement sur les calculs impliquant des nombres en virgules flottantes. Les instructions SIMD sont composées notamment des jeux d'instructions X86, MMX, 3DNow! SSE, SSE2, SSE3, SSSE3 et SSE4 depuis peu. Elles permettent d’accélérer directement en mode hardware le traitement du multimédia des applications qui sont programmées pour les prendre en charges.


JOULE(9) = Symbole J, a donnée son nom au physicien James Prescott Joule. Le joule est l’unité d’énergie du système international pour être plu précis le nom d’un effet de dissipation, l’effet de joule, une règle empirique de mesure de cette dissipation, la loi de joule. L’effet de joule ce caractérise par une conséquence thermique qui ce produit lors du passage d’un courant électrique dans tout matériau conducteur, à l’exception des supraconducteurs qui nécessitent cependant des conditions particulières. Pour les matheux l’unité de joule est équivalent à 1W.s  ou à 1 Nm, qui correspond au travail produit par une force de 1 Newton dont le point d’application se déplace de 1 mètre dans la direction de la force.


SUPRACONDUCTION(10) = Propriété des matériaux supraconducteurs (électrons). Matériau n'offrant absolument aucune résistance au passage du courant électrique. En réalité, cette propriété, la supraconduction, n'apparaît qu'à des températures assez basses (- 180°C pour donner une idée, mais cette valeur évolue et augmente vite) difficiles à obtenir et donc coûteuses, même si la température ne cesse de monter dans le domaine.

14:52 Écrit par CPU History-fr dans Informatique | Lien permanent | Commentaires (3) |  Facebook |

19/11/2007

Tests de l’AMD Phenom par Clubic

amd_cpuTests de l’AMD Phenom par Clubic

000000FA00667150

C’est aujourd’hui le jour J pour l’AMD Phenom, le mystère sur ce processeur attendu par de nombreux pro AMD va dévoiler ses secrets grâce aux premiers tests réalisés par l’excellent site Clubic. Si sa nouvelle architecture K10 a déjà été inaugurée avec le Barcelona et le dernier Opteron destinée aux serveurs, il intègre un bon nombre de nouveautés. Pour mémoire le Phenom est un processeur Quad-Core dont l’anatomie est native, c'est-à-dire que ses quatre cœurs son implantés sous le même DIE(1) (puce) au contraire du Quadricoeur d’Intel qui intègre deux double coeur Core 2 Duo, donc 2 puces.

 

Au menu un nouveau contrôleur mémoire de seconde génération qui prend en charge la mémoire DDR-2 alors que les diverses unités de calcul voient leur fonctionnement optimisé. Je sais la question qui vous trotte dans la tête : Est-ce que Intel à du souci à se faire face au Phenom ? Ce processeur va-t-il faire retrouver cette place de leader qu’occupait il y a pas si longtemps AMD ? Vous trouverez toutes ces réponses dès aujourd’hui dans l’article que Clubic a consacré au Phenom. Je vous laisse apprécier et même à laisser vos avis face aux processeurs Intel Core en cliquant sur ce lien et encore merci au site Clubic de nous faire partager leur passion et tout ces moments de bonheur. Pour ma part le résultat de ces tests sont bien décevant pour AMD.  http://www.clubic.com/article-86108-1-amd-phenom-9600-k10-agena-stars-athlon-64.html 

 

Source Infos Clubic : http://www.clubic.com/

 

Dico des définitions

 

DIE(1) = Circuit intégré, c’est une tranche de silicium (Wafer) couramment nommée galette en cours de fabrication. La partie élémentaire est reproduite à l’identique sur une matrice (masque) qui correspond au circuit du processeur et qui sera ensuite découpé que l’on nommera puce.

 

AMD d’autre Phenom par Clubic

00670494

Tout juste lancée par AMD, la gamme des processeurs pour ordinateurs de bureau Phenom ne compte aujourd'hui que deux modèles, les Phenom 9500 et 9600, respectivement cadencés à 2,2 et 2,3 GHz. Conscient qu'il est justement difficile de parler de « gamme » avec seulement deux déclinaisons de son architecture K10, le fondeur de Sunnyvale étoffe virtuellement son catalogue en annonçant de nouveaux processeurs dont la sortie interviendra entre la fin de l'année et le premier trimestre 2008.

Au programme, on devrait notamment trouver un Phenom Black Edition cadencé à 2,3 GHz. Comme les Athlon 64 5000+ et 6400+ Black Edition, il disposera d'un coefficient multiplicateur non bloqué. Viendront ensuite, dans le courant du premier trimestre 2008, un certain Phenom 9700, cadencé à 2,4 GHz, et le Phenom 9900, qui affichera quant à lui une fréquence de 2,6 GHz. AMD indique que ces deux puces devraient être commercialisées aux prix respectifs de 300 dollars et 350 dollars pour mille unités.

 

Source infos Clubic : http://www.clubic.com/

 

Phenom et cartes mères AM2 pas si Ready que ça

47502_mini

Phenom + Socket AM2 = écran noir

Dans tous les cas, le résultat était le même : écran noir. Nous avons bien cherché une mise à jour de BIOS pour nos différents modèles, mais aucun n'était encore destiné au nouveau processeur d'AMD.

D'après certaines de nos sources, les équipes de développement des constructeurs sont en train de les peaufiner et ils devraient être disponibles d'ici une semaine ou deux. Mais deux soucis risquent de refroidir les utilisateurs.

Attention aux limitations du côté des performances

Tout d'abord, du fait de l'absence de gestion de l'HyperTransport 3.0, le lien au processeur sera limité à 1 GHz, contre 1.8 GHz en AM2+. La technologie Split Plane sera aussi absente, les tensions du CPU et du contrôleur mémoire seront donc identiques.

Afin de ne pas voir la consommation augmenter, AMD réduit la fréquence de fonctionnement de son contrôleur mémoire, et donc du cache L3 qui lui est lié. Des différences de performances notables pourraient donc être constatées.

Et vu les résultats de ces Phenom, ainsi que les tarifs qui semblent pour l'instant éloignés de ce qu'AMD a annoncé pour l'Europe, il se peut que le rapport performances / prix soit finalement assez peu INtéressant.

Toutes les cartes mères ne seront pas compatibles ?

De plus, il semblerait que tous les modèles AM2 ne seront pas concernés. Nous n'avons pas pu savoir s'il s'agissait d'une volonté des constructeurs ou d'un réel souci technique, mais certains utilisateurs pourraient se retrouver sur le carreau.

Au final, la compatibilité affichée ne pourrait donc être que de façade, et servir principalement le marketing du fondeur. De quoi rendre heureux les fabricants de cartes mères qui pourront écouler ainsi leurs nouveaux produits.

Il faudra tout de même vérifier ce qu'il en est dans les faits dans les semaines à venir, et vérifier si un utilisateur en AM2 aura plus d'Intérêt à passer au Phenom ou à un Core 2 Quad.

 

Source infos PCinpact : http://www.pcinpact.com/

 

Carton rouge pour les tarifs du Phenom

 

00667204

Lors de la présentation de son nouveau processeur Phenom, AMD indiquait à la presse européenne réunit à Varsovie, des tarifs de lancement plutôt attractifs. Le fondeur communiquait en effet sur un prix de 190 euros pour le Phenom 9600 et de 169 euros pour le Phenom 9500. Des tarifs qui furent rappelés noir sur blanc dans un email envoyé aux testeurs à quelques heures du lancement de Phenom.

 

Problème pour AMD, ces tarifs s'avèrent tout simplement inexacts. En effet, le Phenom 9500 est commercialisé aux alentours des 230 euros TTC quand le Phenom 9600 est proposé à 260 euros TTC. Il s'avère par ailleurs que les prix volontairement alléchants indiqués par AMD sont en réalité inférieurs au prix d'achat des grossistes. Selon Matbe, le prix grossiste du Phenom 9500 est de 181 euros hors taxes contre 203 euros hors taxes pour le Phenom 9600... Pire, le tarif en dollars des processeurs s'établit à 281 dollars par quantité de mille pour le Phenom 9600 et à 251 dollars pour le Phenom 9500, toujours par quantité de mille.

 

Bref, AMD a délibérément induit la presse en erreur en affichant des tarifs qu'il savait pertinemment inférieurs à la réalité. Car à 260 euros TTC, le Phenom 9600 n'a en définitive strictement aucun intérêt surtout face à un Core 2 Quad Q6600 vendu aux alentours des 230 euros TTC et nettement plus performant. Carton rouge donc à AMD qui ne cesse de nous décevoir ces derniers temps.

 

Source article Clubic et Matbe : http://www.clubic.com

 

Phenom triple coeur peut être en février 2008

0115000000672650

Décidément AMD est très loin de tenir toutes ses promesses, avec son nouveau processeur Phenom quatre cœurs natifs qui devait être largement supérieur à un Intel Quad Core à fréquence égale et qui n’arrive même pas à supplanter dans la plupart des tests un simple Core 2 Duo double cœur. Voici que depuis aujourd’hui plusieurs sources encore non officialisées apportent que le fameux Phenom triple core pourrait voir le jour aux alentours de février 2008. Pour mémoire ce processeur au nom de code Toliman intégrera 4 cœurs dont trois seulement seront activés et devra être logiquement moins onéreux que les Phenom quad core natifs.

 

Théoriquement deux versions de ces Phenom triple core sont prévues : Le Phenom 7700 cadencé respectivement à 2,5 Ghz et le Phenom 7600 cadencé à 2,3 Ghz. Le TDP (Thermal Design Power) pour ces deux modèles sera de 89 watts. Ensuite suivront également vers le deuxième trimestre un nouveau modèle cette fois dual-core au nom de code Kuma associé à un TDP de 65 watts. Personnellement je ne pense pas que tous ces effets d’annonces et ces nouveaux processeurs AMD pourront concurrencer à long terme les offres d’Intel aux rapports qualités prix performances imbattables.

 

Source infos Clubic : http://www.clubic.com/

 

10:41 Écrit par CPU History-fr dans Informatique | Lien permanent | Commentaires (2) |  Facebook |