Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Attaque Adversaire
Manipulation intentionnelle des données d'entrée pour tromper un modèle IA et provoquer des erreurs de classification ou des comportements imprévus. Ces attaques exploitent les vulnérabilités mathématiques des réseaux de neurones en introduisant des perturbations imperceptibles pour l'humain mais détectables par l'algorithme.
Robustesse Éthique
Capacité d'un système IA à maintenir ses principes éthiques et ses comportements justes face aux tentatives de manipulation ou aux conditions inattendues. Elle garantit la préservation des valeurs morales du système même sous stress ou attaque algorithmique.
Défense Contre-Adversaire
Ensemble de techniques visant à renforcer les modèles IA contre les attaques adverses, incluant l'entraînement adversarial, la détection d'anomalies et la purification des entrées. Ces méthodes visent à maintenir l'intégrité fonctionnelle et éthique du système face aux tentatives de subversion.
Poisoning des Données
Insertion malveillante de données corrompues dans l'ensemble d'entraînement pour compromettre les performances futures du modèle et introduire des biais systémiques. Cette technique peut dégrader intentionnellement les capacités éthiques et décisionnelles du système IA.
Évasion Modèle
Stratégie d'attaque où des entrées spécialement craftées permettent de contourner les mécanismes de détection ou de classification d'un modèle IA. L'évasion menace directement la robustesse éthique en permettant la violation des règles et contraintes morales établies.
Perturbation Éthique
Modification subtile des entrées ou paramètres visant spécifiquement à compromettre les mécanismes de décision éthique d'un système IA. Ces attaques ciblent les couches de jugement moral pour induire des comportements non conformes aux valeurs programmées.
Stabilité Éthique
Mesure de la cohérence des décisions éthiques d'un système IA face à des variations mineures des conditions d'entrée ou d'environnement. La stabilité garantit que les jugements moraux restent constants et prévisibles malgré les fluctuations contextuelles.
Résilience Algorithmique
Capacité d'un système IA à récupérer et maintenir ses performances éthiques après avoir subi des attaques ou des perturbations importantes. La résilience inclut des mécanismes d'auto-correction et d'adaptation pour préserver l'intégrité morale à long terme.
Sécurité Éthique
Domaine de la cybersécurité IA spécialisé dans la protection des mécanismes de décision éthique contre les manipulations et compromissions. Elle combine techniques cryptographiques, validation formelle et monitoring comportemental pour garantir l'intégrité morale.
Vulnérabilité Éthique
Point faible dans l'architecture ou l'implémentation d'un système IA pouvant être exploité pour violer ses principes éthiques fondamentaux. Ces vulnérabilités peuvent résider dans les couches de décision, de validation ou de contrôle moral du système.
Test de Robustesse
Évaluation systématique de la capacité d'un système IA à maintenir ses comportements éthiques face à des scénarios extrêmes ou hostiles. Ces tests simulent divers types d'attaques et perturbations pour identifier et corriger les faiblesses morales.
Validation Éthique
Processus formel de vérification qu'un système IA respecte constamment ses contraintes éthiques même sous contraintes adverses. La validation combine tests statistiques, vérification formelle et audits comportementaux pour assurer la conformité morale.
Contre-mesure Éthique
Mécanisme proactif ou réactif conçu pour prévenir ou neutraliser les tentatives de compromission des principes éthiques d'un système IA. Ces contre-mesures incluent détection d'anomalies, isolation décisionnelle et récupération éthique.
Inférence Adverse
Processus par lequel un attaquant exploite les vulnérabilités d'un modèle IA pour déduire des informations sensibles ou forcer des décisions contraires à l'éthique. L'inférence adverse menace directement la confidentialité et l'intégrité morale du système.
Robustesse Distributionnelle
Capacité d'un système IA à maintenir ses performances éthiques face à des changements dans la distribution des données d'entrée ou des conditions opérationnelles. Cette robustesse garantit la stabilité des décisions morales malgré les dérives distributionnelles.
Attaque par Extraction
Technique visant à reproduire le comportement d'un modèle IA, y compris ses biais et vulnérabilités éthiques, en l'interrogeant systématiquement. Ces attaques peuvent révéler et exploiter les faiblesses morales du système original.
Certification Éthique
Processus formel attestant qu'un système IA maintient ses garanties éthiques dans des conditions définies, y compris face aux attaques. La certification éthique valide la robustesse des mécanismes de décision morale selon des standards reconnus.
Entraînement Adversarial
Méthode d'entraînement où le modèle apprend simultanément à résister aux attaques et à maintenir ses principes éthiques. Cette approche renforce la robustesse en exposant le système à des scénarios hostiles pendant son apprentissage.