Des chercheurs du MIT ont créé des neurones et des synapses artificiels pour permettre l’apprentissage en profondeur de l’intelligence artificielle. Ils fonctionnent 1 million de fois plus vite que ceux du cerveau humain.
Cela fait des années que les chercheurs tentent de construire des synapses artificielles dans l’espoir de se rapprocher des performances de calcul du cerveau humain, grâce au réseau de neurones et de synapses qui forment notre matière grise. C’est maintenant chose faite et même dépassée. L’étude intitulée "Nanosecond protonic programmable resistances for analog deep learning" a été publiée dans la revue Science.
Comme l’explique un communiqué du MIT, le deep learning analogique fonctionne différemment du deep learning numérique. Il crée un réseau de 'neurones' et de 'synapses' artificiels analogiques qui peuvent dépasser les performances d’un réseau neuronal numérique, tout en utilisant une fraction de l’énergie utilisée par le numérique.
Jusqu’à maintenant, le cerveau humain surpassait le deep learning en terme de performances. Comme SingularityHub l’explique, "un cerveau humain pesant à peine 1,3 kg peut effectuer de nouvelles tâches en quelques secondes en utilisant la même quantité d’énergie qu’une ampoule, tandis que la formation des plus grands réseaux de neurones prend des semaines, des mégawattheures d’électricité et des racks de transformateurs spécialisés".
La révolution est en marche puisque les neurones et synapses artificiels de l’équipe du MIT, construits à l’aide d’un nouveau matériau inorganique qui augmente les performances des appareils, atteignent une vitesse un million de fois plus rapide que celle du cerveau humain. Ces synapses artificielles imitent le comportement des synapses biologiques, qui utilisent des ions pour transmettre des signaux à travers l’espace entre deux neurones.