01/12/2008

Le cerveau contre processeur

Le cerveau contre processeur, combat inégal

103486370_81444cfdbccerveau

 

Depuis longtemps les chercheurs rêvent de remplacer les milliards de neurones de notre cerveau par l’ordinateur, curieusement les scientifiques on rapidement remarqués que les neurones et le cerveau se ressemblent étrangement. On pourrait choisir comme exemple que les organes du corps humain, les yeux, les oreilles, le nez ou la peau s’identifieraient aux éléments de l’ordinateur qui lui permettent de recevoir de l’information de l’extérieur tels que les périphériques semblables au clavier, à la souris, ou au scanner.

 

Le cerveau de l’ordinateur sur nos machines c’est le microprocesseur, il traite les informations, les données qui ressortent ensuite sous forme de réponses vers d’autres périphériques, l’écran (affichage), l’imprimante (support papier) ou les haut-parleurs (pour le son). Chez l’humain toutes les stimulations captés par nos récepteurs sensitifs, sont tout comme l’ordinateur analysé par notre cerveau et ressortent une fois traitées tout comme sur les périphériques par nos cordes vocales ou les fibres musculaires. L’homme commence enfin à réaliser et à découvrir l’importance des neurones et de leur principe de fonctionnement qui reste enfin de compte très proche du langage binaire utilisé par nos processeurs.

 

Si on peut avancer l’hypothèse que l’ordinateur ressemble au cerveau humain, un grand fossé de différences existe entre ces deux fascinantes machines à calculer. La mémoire vive de nos ordinateurs est lilliputienne comparée au 100 milliards de neurones de notre cerveau, et ce n’est pas tout, le niveau d’information traité par notre cerveau est phénoménale on apprend extrêmement vite, on stocke plus d’information que le plus gros disque dur existant, on peut penser, aimer, créer etc.… L’ordinateur lui ne peut pas penser, sentir et rien apprendre et les chercheurs savent très bien ce qui bloque.

Le microprocesseur de l’ordinateur à un « cerveau » beaucoup trop structuré, son réseau de transistors dont la quantité ne cesse d’augmenter aux fils des années (loi de Gordon Moore) ne sont pas mobiles et ne peuvent pas de déplacer ou modifier leurs connections entre eux comme pourrait le faire les connexions des neurones. Seconde différence cette fois à l’avantage des microprocesseurs qui disposent dorénavant d’une puissance exceptionnelle et sont bien plus rapides que le cerveau humain pour effectuer les calculs de nombres démesurés en une seconde.

Grâce à la science de la neurotechnologie et la nanotechnologie les chercheurs on énormément progressés dans la connaissance du cerveau et de la miniaturalisation des transistors il reste encore considérablement de pistes inexplorées ou en cours d’expérimentation. Je pense notamment à la technologie de greffe de neurones sensitifs que l’on nomme « biocapteurs » (biocapteurs, greffe de neurones vivants sur du silicium de puces informatique) afin qu’elles puissent vraisemblablement détecter des odeurs et reconnaitre des images. Seconde piste des chercheurs plus simple à mettre en pratique les « bio-puces » qui consiste à miniaturiser l’ensemble des composants électronique formant les neurones.

Mais voila si cette dernière technologie est plus facile à appliquer ces bio-puces n’ont pas la faculté et encore moins les propriétés d’être vivants. Conclusion il reste encore un très long chemin à parcourir avant que notre machine remplace le cerveau humain. Si le microprocesseur possède la vitesse de d’exécution, il n’a toujours pas le pouvoir d’intégrer 100 milliards de neurones qui peuvent s’interconnecter en de milliards de réseaux différents. Mon opinion personnelle, l’ordinateur qui remplace le cerveau n’est par pour demain même si sa reste une merveilleuse machine ludique, rien ne pourra détrôner ce merveilleux muscle encore plein de mystères qui est notre cerveau.

Ecrit le 21 Novembre par Christian Cousin

Complément du sujet par PresencePC

L'ordinateur modifie notre cerveau ? Un chercheur de UCLA estime qu’être exposé quotidiennement aux ordinateurs, à Internet et aux Smartphones altère la façon dont notre cerveau fonctionne.

Théorie

Dr. Gary Small estime que lorsqu’un cerveau passe plus de temps à exécuter des tâches portant sur les technologies d’aujourd’hui et moins de temps à interagir avec des personnes réel (MSN ne compte pas), le cerveau perd certaines capacités sociales fondamentales, comme la possibilité de lire les messages envoyés par le visage d’une personne avec qui on peut avoir une conversation.

Cela suggèrerait, selon le psychiatre et universitaire, que les circuits cérébraux associés à cette capacité se sont affaiblis. Les résultats directs sont des difficultés à communiquer et comprendre les messages non verbaux, ce qui peut dans des cas extrêmes, engendrer l’isolation sociale du sujet.

Sceptique

Dr. Small avoue qu’il n’a pas encore toutes les preuves pour affirmer scientifiquement que les circuits cérébraux sont altérés par un excès ou un manque de technologie (a contrario, si trop de technologie affaiblie les circuits sociaux, trop peu de technologie, selon le chercheur, affaiblirait les circuits permettant la manipulation des nouvelles technologies).

L’ordinateur altère-t-il réellement la manière dont notre cerveau fonctionne ? Certains sont sceptiques comme Robert Kurzban un psychologue de l’Université de Pennsylvanie. Il manque encore des données scientifiques pour prouver que les connexions neurologiques changent au fur et à mesure que l’on passe de plus en plus de temps sur Internet.

En attendant, il est aujourd’hui évident que l’abus de technologie peut engendrer des troubles du comportement. Est-ce que cela est le résultat d’une réorganisation des connexions cérébrales ? Il faudra encore attendre un peu pour en avoir le coeur net. Néanmois, ne prenons pas de risque : finissez de lire les actualités et les articles sur Tom’s Hardware et allez prendre l’air.

Source : http://www.presence-pc.com/

JEU DE NOEL GRATUIT SANTA RIDE

 

01820248

Si vous cherchez à plonger vos enfants dans l'ambiance de Noël, vous êtes sur la bonne page. Clubic possède dans sa hotte logicielle, un jeu amusant et gratuit qui leur plaira surement !

Comme son nom l'indique Santa Ride ! 2 est un opus à l'atmosphère colorée et joyeuse de Noël. Le scénario est simplement d'actualité. Vous incarnerez le Père Noël aux commandes de son traineau tiré par ses rennes. Votre objectif sera de délivrer le plus rapidement possible un maximum de cadeaux pour que les enfants continuent à croire à la magie de Noël. Ainsi, il vous faudra sillonner au galop une ville endormie et toucher les cadeaux éparpillés sur un parcours aux multiples dangers. Dans votre épopée, vous garderez un œil attentif à la barre de croyance située à gauche et tenterez de la maintenir à un niveau constant en accélérant la cadence. Les bonus cachés faciliteront votre progression :

·         Les chaussures améliorent votre dextérité,

·         Les carottes vous permettent d'aller plus vite,

·         Les cookies doubleront votre score.

Le tout se déroule dans un décor en 3D bien réalisé et parfaitement décoré aux couleurs de Noël. L'ambiance sonore malheureusement répétitive est basée sur la mélodie bien connue : « Jingle Bells ». Que les parents se rassurent, vous pourrez réduire le volume musical à l'aide des touches « + » et « - ». pour le télécharger cliquer sur le lien ci-dessous le fichier fait un peu plus de 55 mo :

ftp://clubicvisiteur20617:1229856661@ftpclubic7.clubic.co...

Réponse à une question d'un lecteur

Quelles sont les différences au point de vue fonctionnement entre le cerveau de l’homme et le microprocesseur ? En voila une excellente question postée par un lecteur de mon blog. Je vais non seulement tenter de répondre à sa pertinente question, mais aussi vous en faire tous profiter en la postant sur mon blog.

Fonctionnement du cerveau :

1)    Les chercheurs sont formels sur un point, en aucun cas les neurones peuvent être comparés au fonctionnement d’un ordinateur.

2)    Les neurones sont très éloignés du calcul binaire.

Le fonctionnement des neurones du cerveau selon les chercheurs, ont un comportement qui s’apparente beaucoup plus à celui d’un système dynamique au fonctionnement aléatoire. Fonctionnement qui s’adapterait donc plus à une modélisation basée sur un calcul stochastique.

Je sais ce que vous allez me dire, c’est quoi ce calcul stochastique ? Un calcul stochastique contrairement au calcul binaire dont à besoin le microprocesseur pour fonctionner et basé sur une extension de la théorie des primalités, c'est-à-dire un calcul dit aléatoire (Calcul stochastique =  processus aléatoire). Pour que le microprocesseur puisse émuler le fonctionnement des neurones , il faut obligatoirement décoder ce calcul stochastique pour ensuite le traduire en langage binaire composé de 1 et 0 qui est le seul langage compris par le microprocesseur à architecture x86 et qui permettra d’émuler un calcul stochastique d’une neurone.

Le domaine d’application de calcul stochastique comprend :

-La mécanique quantique

-Le traitement du signal

-La chimie

-Les mathématiques financières

-La musique

Pour ceux que sa intéresse voici un lien avec un petit film de 23s expliquant le fonctionnement d’un neurone avec un cométaire. Comme les transistors des microprocesseurs, les neurones communiquent également avec réseau électrique d’une intensité extrêmement petite :

 http://psychoweb.dnsalias.org/videopsy/plop.php?post/Animation-3D-du-fonctionnement-dun-neurone-23s

Concernant le fonctionnement du microprocesseur par rapport à celui du cerveau, il ne peut que calculer en langage binaire c'est-à-dire à l’aide de 0 et de 1. Toutes les données doivent lui arriver sous cette forme pour qu’il puisse fonctionner et les exploiter. Pour info sur le langage binaire, je reposte mon article de mon blog :

256 combinaisons différentes. En math sur les exposants, 2 à la puissance 8 est égale (2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 = 256 deux et 8 fois un facteur).

Il faut donc retenir très clairement que l’unité de base de la mémoire de l’ordinateur est l’octet, ou nombre binaire de 8 bits. Que le langage binaire est uniquement composé de 1 et de 2 et ces nombre sont écrit en base 2.

 

C’est avec ces 256 combinaisons que l’on représente les caractères, chiffres et symboles pour pouvoir écrire à l’aide de son clavier. Ces combinaisons on données lieu a des standards d’encodage de caractères comme l’EBCDIC ou ASCII. Concrètement voici comment sa se passe, quand vous tapez la lettre « a » au clavier celui-ci retransmet à l’ordinateur une information sur 1 octet ou 8 bit qui correspond au code binaire du caractère tapé. Je m’explique :

 

Dans le code international ASCII, la lettre « a » est encodée dans le seul langage que comprend le processeur le langage binaire des 0 et des 1 et sur un 1 octet qui se compose de 8 bits, la lettre « a » sera donc encodée par 10010111 soit 8 bits = 1 Octet. Une fois que l’ordinateur l’a interprété, il retransmet à la carte vidéo une autre information qui va représenter le caractère à l’écran sous forme de points noirs que l’on nomme dans le jargon informatique : Le pixel. Conclusion lorsque vous frappez la lettre « a » au clavier, c’est le résultat de centaines de milliers d’opération élémentaires qui sont effectuées à votre insu.

 

Ce qu’il faut retenir c’est que l’ordinateur à donc un « vocabulaire » composé de deux lettres qui s’écrivent avec « 0 et 1 » et que l’on aurait pu choisir par exemple « A et B » mais seul l’encodage doit se faire en langage binaire pour les nombres, les caractères, les instructions, les points de couleurs (pixels), les images, etc.….    

 

Je ne vais pas rentrer dans des explications mathématiques ennuyeuses, mais si toutefois vous êtes intéressés(e) de savoir comment on obtient le résultat des chiffres binaires CLIQUEZ ! sur ce lien pour en savoir plus :

 

http://membres.lycos.fr/iespjmonnet/informatique.htm

 

Pour information voici la correspondance de quelques tailles et mesures informatique :

 

1 Bit (est la contraction de Binary Digit), il ne peut prendre que deux valeurs 0 ou 1. 

1 Octet (ou en abrége O ou parfois B et en anglais pour Byte), vaut 8 bits.

1 Ko (ou en abrégé KB), le kilo-octet, vaut exactement 1024 octets, soit 8192 bits.

1 Mo (ou en abrégé MB), le méga-octets vaut 1024 ko, ou encore 1024x1024 octets soit un peu plus de 1 millions d’octets.

1 Go (ou en abrégé GB), le giga-octets vaut 1024 Mo.

1 To (ou en abrégé TB), le téra-octets vaut 1024 Go ou environ 1 million de méga octets.

 

10:22 Écrit par CPU History-fr dans Informatique | Lien permanent | Commentaires (4) |  Facebook |