एआई शब्दावली
आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश
विषाक्त आक्रमण
एक आक्रमण तकनीक जिसमें मॉडल के प्रदर्शन को बिगाड़ने या विशिष्ट कमजोरियों को प्रस्तुत करने के लिए प्रशिक्षण डेटासेट में दुर्भावनापूर्ण डेटा को इंजेक्ट किया जाता है।
बैकडोर इंजेक्शन
एक विधि जिसमें एक छिपा हुआ दुर्भावनापूर्ण व्यवहार बनाने के लिए प्रशिक्षण डेटा में विशिष्ट ट्रिगर्स डाले जाते हैं, जो केवल उन ट्रिगर्स की उपस्थिति में सक्रिय होता है।
लेबल भ्रष्टाचार आक्रमण
एक विषाक्त रणनीति जिसमें हमलावर मॉडल को गुमराह करने और उसकी वर्गीकरण सटीकता को खराब करने के लिए प्रशिक्षण डेटा के लेबल को जानबूझकर संशोधित करता है।
कार्यकारण विषाक्त आक्रमण
एक परिष्कृत विषाक्त दृष्टिकोण जो मॉडल की भविष्यवाणियों को लक्षित रूप से प्रभावित करने के लिए विशेषताओं के बीच कार्यकारण संबंधों को हेरफेर करता है।
मजबूती द्वारा बचाव
तकनीकों का एक सेट जिसका उद्देश्य प्रशिक्षण पर दुर्भावनापूर्ण डेटा के प्रभाव को सीमित करके एआई मॉडल को विषाक्त आक्रमणों के प्रतिरोधी बनाना है।
प्रशिक्षण विसंगति का पता लगाना
प्रशिक्षण से पहले या उसके दौरान प्रशिक्षण डेटासेट में असामान्य या संभावित रूप से दुर्भावनापूर्ण डेटा बिंदुओं की पहचान करने और उन्हें हटाने की प्रक्रिया।
मजबूत क्रॉस-वैलिडेशन
एक सुदृढ़ सत्यापन तकनीक जो संभावित दुर्भावनापूर्ण दूषण का पता लगाने के लिए डेटा के विभिन्न विभाजनों के संबंध में मॉडल की स्थिरता का मूल्यांकन करती है।
शोरयुक्त डेटा के साथ सीखना
एक अधिगम पैराडाइम जो प्रशिक्षण डेटासेट में भ्रष्ट या जानबूझकर संशोधित डेटा की उपस्थिति के बावजूद इष्टतम प्रदर्शन बनाए रखने के लिए डिज़ाइन किया गया है।
डेटासेट शुद्धिकरण
मॉडल के प्रशिक्षण से पहले संभावित रूप से विषैले नमूनों की पहचान करने और उन्हें हटाने के लिए प्रशिक्षण डेटा की सफाई की एक प्रणालीगत प्रक्रिया।
प्रमाणनीय मॉडल
एक एआई मॉडल आर्किटेक्चर जो परिभाषित स्थितियों में विषाक्तता हमलों के प्रति इसके प्रतिरोध पर गणितीय गारंटी प्रदान करने में सक्षम है।
प्रेरित अत्यधिक अनुकूलन हमला
एक विषाक्तता तकनीक जो मॉडल को हमलावर द्वारा पेश किए गए विशिष्ट पैटर्न को अत्यधिक सीखने पर मजबूर करती है, जिससे इसकी सामान्यीकरण क्षमता समझौता कर दी जाती है।
फ़िल्टरिंग रक्षा
एक सुरक्षा तंत्र जो सीखने की प्रक्रिया में एकीकरण से पहले संदिग्ध डेटा को हटाने के लिए सांख्यिकीय या ह्यूरिस्टिक फ़िल्टर लागू करता है।
लक्षित विषाक्तता
एक विषाक्तता हमला जो समग्र प्रदर्शन को बनाए रखते हुए विशिष्ट वर्गों या विशेष इनपुट के लिए भविष्यवाणियों को विशेष रूप से समझौता करने के लिए डिज़ाइन किया गया है।
अलक्षित विषाक्तता
एक हमला जो बिना किसी विशिष्ट लक्ष्य के मॉडल के प्रदर्शन को वैश्विक स्तर पर बिगाड़ने का लक्ष्य रखता है, अक्सर प्रशिक्षण डेटा में प्रणालीगत शोर पेश करके।
क्रमिक पुनःप्रशिक्षण रक्षा
एक सुरक्षा रणनीति जो नए सत्यापित डेटा के साथ मॉडल को लगातार अपडेट करती है, साथ ही प्रदर्शन में बदलाव पर नज़र रखती है जो विषाक्तता का संकेत दे सकता है।
विपरीत बैकप्रोपेगेशन हमला
एक उन्नत तकनीक जिसमें हमलावर मॉडल के अंतिम भार पर प्रभाव को अधिकतम करने के लिए प्रशिक्षण डेटा में लाने के लिए इष्टतम संशोधनों की गणना करता है।
बाह्य सत्यापन द्वारा रक्षा
एक सुरक्षा दृष्टिकोण जो विषाक्तता के कारण प्रदर्शन में गिरावट का पता लगाने के लिए स्वतंत्र और असंकटित सत्यापन सेटों का उपयोग करता है।