Glossaire de l'intelligence artificielle (IA)


Apprentissage supervisé

L’apprentissage supervisé est un procédé d’apprentissage automatique dans lequel l’algorithme s’entraîne à une tâche déterminée en utilisant un jeu de données assorties chacune d’une annotation indiquant le résultat attendu.

Apprentissage supervisé

L’apprentissage supervisé est un procédé d’apprentissage automatique dans lequel l’algorithme s…

Attaque par empoisonnement (data poisoning attack)

Les attaques par empoisonnement visent à modifier le comportement du système d’IA en introduisant des données corrompues en phase d’entraînement (ou d’apprentissage). Elles supposent que l’attaquant soit en mesures de soumettre des données à utiliser lors de l’entraînement du système d’IA.

Attaque par empoisonnement (data poisoning attack)

Les attaques par empoisonnement visent à modifier le comportement du système d’IA en introduisant…

Attaque par exemples contradictoires (adversarial examples attack)

Les attaques par exemples contradictoires visent à soumettre des entrées malicieuses ou corrompues au système d’IA en phase de production. Exemple : une image qui aurait été modifiée de façon à tromper un classifieur d’image et ainsi attribuer à une image de panda, l’étiquette de singe. Ces…

Attaque par exemples contradictoires (adversarial examples attack)

Les attaques par exemples contradictoires visent à soumettre des entrées malicieuses ou corrompues…

Attaque par exfiltration de modèle (model evasion attack)

Les attaques par exfiltration de modèle visent à permettre le vol d’un modèle d’IA et/ou de ses paramètres et hyperparamètres. Le modèle constitue un actif de grande valeur pour un système d’IA.

Attaque par exfiltration de modèle (model evasion attack)

Les attaques par exfiltration de modèle visent à permettre le vol d’un modèle d’IA et/ou de ses…

Attaque par inférence d'appartenance (membership inference attack)

Les attaques par inférence d'appartenance visent à permettre à un attaquant d’acquérir des connaissances sur les données utilisées pour la production du modèle d’IA. En pratique, il s’agit de déterminer si des données relatives à un individu ont été utilisées lors de la phase d’entraînement (ou…

Attaque par inférence d'appartenance (membership inference attack)

Les attaques par inférence d'appartenance visent à permettre à un attaquant d’acquérir des…

Attaque par inversion de modèle (model inversion attack)

Les attaques par inversion visent à reconstruire les données ayant servi pour l’apprentissage du système. En pratique, les attaques par inversion sont menées en soumettant un grand nombre d’entrées au système d’IA et en observant les sorties produites. On utilise, de façon équivalente, le terme d…

Attaque par inversion de modèle (model inversion attack)

Les attaques par inversion visent à reconstruire les données ayant servi pour l’apprentissage du…