Want to make creations as awesome as this one?

Transcript

Courte histoire du deep-learning pour mieux comprendre l'IA

1943

1957

1986

Théorisation du neurone artificiel.

Création du premier algorithme d'apprentissage.

Première théorisation du Deep-learning

McCulloch et Pitts ont conceptualisé le neurone formel, un modèle mathématique simplifié imitant le fonctionnement des neurones biologiques proposant des solutions à des problématiques binaires.

1943

Théorisation du neurone formel

Le neurone formel reçoit des signaux d'entrée, les additionne et, si la somme dépasse un certain seuil, il produit un signal de sortie.

X1

Signaux d'entrée reçus par le neurone.

X2

Signaux d'entrée reçus par le neurone.

T = 0.5

Seuil pour activer le neurone et produire une sortie.

W1 = 1.0

Les poids w1 et w2 amplifient ou atténuent l'influence des entrées x1 et x2

W2 = 1.0

Les poids w1 et w2 amplifient ou atténuent l'influence des entrées x1 et x2

X1 ou X2

Sortie activée si x1 ou x2 dépasse le seuil

Les IA génératives utilisent des neurones formel comme base dans des configurations plus complexes. Elle reçoit différents messages et propose une sortie en fonction de ces messages et du poids des connexions neurales.Tout mot formulé dans une requête à son importance

Quel impact en 2024 ?

1957

L'agorithme d'auto-correction

Avec le perceptron, Rosenblatt a créé un mécanisme d'ajustement automatique des connexions entre les neurones suite à des générations erronées de résultats.

Inspiré du renforcement synaptique, ce mécanisme pose les bases l'apprentissage automatique des IA. A cet instant ce système ne pouvait traiter que des données mathématiques et prévisivles.

ChatGPT, héritier moderne du perceptron, s'ajuste via des retours d'information, générant des réponses précises, mais reste sujet à des erreurs nécessitant des corrections continues.Les Chabots, bien que générant des résultats impressionants, leurs productions doivent être considées avec précautions.

Quel impact en 2024 ?

Développe la base de l'apprentissage profond "deep learning" utilisé dans les IA. Accumulation de variation, de nombreuses couches

5

4

3

1986

Même si le modèle a changé, les IA génératives fonctionnent selon ce processus. Nos moyens techniques ont permis à ces modèles d'être entrainés et ajustés sur des milliards de données. Toutefois, nous ne savons pas sur lesquelles et par conséquent, leur fiabilité peuvent et doivent être remises en causes.

Naissance du Deeplearning

Développement d'une méthode qui permet à un vaste réseau de neurones formels multi-couches de s'entrainer et d'ajuster le poids de ses réseaux de neuronnes

Quel impact en 2024 ?

2

1

Figure 2 : Fonctionnement du Deep-learning en quelquels points

1. Données traversent le réseau et génèrent une prédiction.

2. Comparaison de la prédiction avec le résultat attendu.

3. L'erreur refait le chemin inverse

Ajustement des couches.

Répétition du processus vers un meilleur résultat.