23 Sous le capot des algorithmes de Machine Learning II: Elaboration d’un modèle - Blog Nexeo
Technologies/IT

Sous le capot des algorithmes de Machine Learning II: Elaboration d’un modèle

4 octobre 2019

Un algorithme de Machine Learning produit un modèle

 Un algorithme au sens classique est une suite d’opérations effectuées selon un ensemble de règles le caractérisant, permettant de résoudre un problème.

Un algorithme de Machine Learning au contraire (dans notre cadre) part d’un ensemble de “problèmes déjà résolus” et  vise à en déduire des “règles” / un “modèle”.

 

 

Dans le cadre de la détection de spams par exemple, on dispose de mails déjà estampillés comme étant des spams, et un algorithme de Machine Learning  a pour objectif de détecter des patterns, séparer des caractéristiques propres aux spams et aux mails qui n’en sont pas, afin de les différencier.

 

Retour sur le modèle paramétrique de la droite (SVM)

(Ceci est encore une fois une sur-simplification de la SVM)

Supposons que nos données soient représentables dans un plan, comme sur le schéma ci dessus.

Les points rouges sont des spams, les points bleus sont des mails normaux.

 

La droite tracée (la marge) dans le schéma semble être optimale dans la séparation des deux régions:

En effet, elle sépare et groupe le plus de points bleus entre eux et le plus de points rouges entre eux.

 

 

Comment celle ci est elle déterminée?

Pour chaque point mal classé, c’est-à-dire chaque point situé dans la région où sa couleur est minoritaire, on associe une pénalité, aussi appelé coût.

Et le but du jeu est de trouver la “bonne droite”, c’est-à-dire les deux paramètres de la droite à savoir la pente et l’ordonnée à l’origine qui minimise une fonction qui dépend de ces deux paramètres, aussi appelée fonction de coût ou de perte!

 

Une telle fonction a pour objectif de quantifier l’écart entre la prédiction fournie et la vraie valeur en fonction des paramètres du modèle. On veut trouver les paramètres qui rendent cette fonction la plus petite possible.

 

Dans le prochain article, on verra une manière (un algorithme) de trouver justement une solution à cette fonction de coût.

 

 

Pour les plus courageux voici la tête de cette fonction de coût:

En gros, w représente la pente de notre droite, b représente l’ordonnée à l’origine

Et la somme est en fait la somme de tous les points mal classés.

 

On souhaite trouver w,b tels que cette fonction de coût soit la plus petite possible.

 

C’est tout pour aujourd’hui… Rendez-vous la semaine prochaine pour la suite !

Ajouter un commentaire


Votre commentaire sera modifié par le site si besoin.

À lire également

On a précédemment vu un modèle simple de neurone, permettant de reconnaître des chiffres. À présent, plutôt…

“En essayant continuellement on finit par réussir. Donc: plus ça rate, plus on a de chance que…

“Quand on ne sait pas où l’on va, il faut y aller… Et le plus vite possible.”…