एआई शब्दावली
आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश
Attaque Adversaire
Manipulation intentionnelle des données d'entrée pour tromper un modèle IA et provoquer des erreurs de classification ou des comportements imprévus. Ces attaques exploitent les vulnérabilités mathématiques des réseaux de neurones en introduisant des perturbations imperceptibles pour l'humain mais détectables par l'algorithme.
Robustesse Éthique
Capacité d'un système IA à maintenir ses principes éthiques et ses comportements justes face aux tentatives de manipulation ou aux conditions inattendues. Elle garantit la préservation des valeurs morales du système même sous stress ou attaque algorithmique.
Défense Contre-Adversaire
Ensemble de techniques visant à renforcer les modèles IA contre les attaques adverses, incluant l'entraînement adversarial, la détection d'anomalies et la purification des entrées. Ces méthodes visent à maintenir l'intégrité fonctionnelle et éthique du système face aux tentatives de subversion.
Poisoning des Données
Insertion malveillante de données corrompues dans l'ensemble d'entraînement pour compromettre les performances futures du modèle et introduire des biais systémiques. Cette technique peut dégrader intentionnellement les capacités éthiques et décisionnelles du système IA.
Évasion Modèle
Stratégie d'attaque où des entrées spécialement craftées permettent de contourner les mécanismes de détection ou de classification d'un modèle IA. L'évasion menace directement la robustesse éthique en permettant la violation des règles et contraintes morales établies.
Perturbation Éthique
Modification subtile des entrées ou paramètres visant spécifiquement à compromettre les mécanismes de décision éthique d'un système IA. Ces attaques ciblent les couches de jugement moral pour induire des comportements non conformes aux valeurs programmées.
Stabilité Éthique
Mesure de la cohérence des décisions éthiques d'un système IA face à des variations mineures des conditions d'entrée ou d'environnement. La stabilité garantit que les jugements moraux restent constants et prévisibles malgré les fluctuations contextuelles.
Résilience Algorithmique
Capacité d'un système IA à récupérer et maintenir ses performances éthiques après avoir subi des attaques ou des perturbations importantes. La résilience inclut des mécanismes d'auto-correction et d'adaptation pour préserver l'intégrité morale à long terme.
नैतिक सुरक्षा
एक विशेष AI साइबर सुरक्षा क्षेत्र जो नैतिक निर्णय लेने की प्रक्रियाओं की हेरफेर और समझौते से बचाने पर केंद्रित है। यह नैतिक अखंडता सुनिश्चित करने के लिए क्रिप्टोग्राफिक तकनीकों, औपचारिक सत्यापन और व्यवहारिक मॉनिटरिंग को जोड़ती है।
नैतिक कमजोरी
AI सिस्टम की आर्किटेक्चर या कार्यान्वयन में एक कमजोर बिंदु जिसका उपयोग इसके मूल नैतिक सिद्धांतों का उल्लंघन करने के लिए किया जा सकता है। ये कमजोरियाँ सिस्टम के निर्णय, सत्यापन या नैतिक नियंत्रण परतों में मौजूद हो सकती हैं।
मजबूती परीक्षण
किसी AI सिस्टम की अत्यंत या प्रतिकूल परिदृश्यों का सामना करते समय अपने नैतिक व्यवहार को बनाए रखने की क्षमता का एक व्यवस्थित मूल्यांकन। ये परीक्षण नैतिक कमजोरियों की पहचान और उन्हें ठीक करने के लिए विभिन्न प्रकार के हमलों और बाधाओं का अनुकरण करते हैं।
नैतिक सत्यापन
यह सुनिश्चित करने के लिए एक औपचारिक प्रक्रिया कि कोई AI सिस्टम प्रतिकूल परिस्थितियों में भी लगातार अपनी नैतिक बाधाओं का पालन करता है। सत्यापन नैतिक अनुपालन सुनिश्चित करने के लिए सांख्यिकीय परीक्षण, औपचारिक सत्यापन और व्यवहारिक ऑडिट को जोड़ता है।
नैतिक प्रतिपक्षी उपाय
किसी AI सिस्टम के नैतिक सिद्धांतों को समझौता करने के प्रयासों को रोकने या उदासीन करने के लिए डिज़ाइन किया गया एक सक्रिय या प्रतिक्रियाशील तंत्र। इन उपायों में विसंगति का पता लगाना, निर्णय अलगाव और नैतिक पुनर्प्राप्ति शामिल है।
प्रतिकूल अनुमान
वह प्रक्रिया जिसके द्वारा एक हमलावर किसी AI मॉडल की कमजोरियों का फायदा उठाकर संवेदनशील जानकारी का अनुमान लगाता है या नैतिक रूप से विपरीत निर्णय लेने के लिए मजबूर करता है। प्रतिकूल अनुमान सीधे तौर पर सिस्टम की गोपनीयता और नैतिक अखंडता को खतरा देता है।
वितरणात्मक मजबूती
किसी AI सिस्टम की इनपुट डेटा के वितरण या परिचालन स्थितियों में बदलाव के सामने अपने नैतिक प्रदर्शन को बनाए रखने की क्षमता। यह मजबूती वितरणात्मक विचलन के बावजूद नैतिक निर्णयों की स्थिरता सुनिश्चित करती है।
निष्कर्षण हमला
एक तकनीक जिसका उद्देश्य किसी AI मॉडल के व्यवहार, जिसमें इसके पूर्वाग्रह और नैतिक कमजोरियाँ भी शामिल हैं, को इसे व्यवस्थित रूप से पूछताछ करके पुनर्प्राप्त करना है। ये हमले मूल सिस्टम की नैतिक कमजोरियों का पर्दाफाश कर सकते हैं और उनका फायदा उठा सकते हैं।
नैतिक प्रमाणीकरण
एक औपचारिक प्रक्रिया जो प्रमाणित करती है कि एक आईए प्रणाली परिभाषित स्थितियों में, हमलों का सामना करने सहित, अपनी नैतिक गारंटी बनाए रखती है। नैतिक प्रमाणीकरण मान्यता प्राप्त मानकों के अनुसार नैतिक निर्णय लेने के तंत्र की मजबूती को मान्य करता है।
विरोधात्मक प्रशिक्षण
एक प्रशिक्षण विधि जहां मॉडल हमलों का प्रतिरोध करने और अपने नैतिक सिद्धांतों को बनाए रखने के लिए एक साथ सीखता है। यह दृष्टिकोण प्रणाली को अपने सीखने के दौरान शत्रुतापूर्ण परिदृश्यों के लिए उजागर करके मजबूती को बढ़ाता है।