🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📖
용어

Vol de Paramètres

Processus par lequel un attaquant récupère les poids et biais d'un réseau neuronal entraîné pour recréer une copie fonctionnelle du modèle original sans accès direct aux fichiers.

📖
용어

Extraction de Fonctionnalité

Méthode consistant à déduire les caractéristiques d'apprentissage et les représentations internes d'un modèle en observant ses comportements face à diverses entrées.

📖
용어

Requêtes Adversariales

Ensemble d'entrées spécifiquement conçues pour sonder les limites et comportements d'un modèle dans le but d'en extraire des informations sensibles sur son architecture ou ses paramètres.

📖
용어

Inférence de Modèle

Processus de déduction des propriétés d'un modèle cible (architecture, hyperparamètres, données d'entraînement) à partir de ses prédictions et réponses aux requêtes.

📖
용어

Shadow Modeling

Technique où l'attaquant entraîne plusieurs modèles substituts pour approximer le comportement du modèle cible, facilitant ensuite l'extraction de ses caractéristiques internes.

📖
용어

Membership Inference

Attaque visant à déterminer si un échantillon de données spécifique faisait partie de l'ensemble d'entraînement d'un modèle, souvent utilisée comme étape préliminaire à l'extraction.

📖
용어

Query-Based Attack

Stratégie d'attaque reposant exclusivement sur l'envoi de requêtes à l'API d'un modèle pour en déduire progressivement sa structure et ses paramètres internes.

📖
용어

Function Extraction Attack

Attaque spécialisée visant à reproduire la fonction de décision d'un modèle plutôt que ses paramètres exacts, en créant un modèle approximatif avec un comportement équivalent.

📖
용어

Parameter Extraction

Advanced technique for recovering the exact numerical values of a neural network's weights from observations of its outputs for different inputs.

📖
용어

API Abuse

Abusive exploitation of an AI service's access points to perform an excessive number of queries with the aim of extracting information about the underlying model.

📖
용어

Model Inversion

Reconstructive attack where the attacker uses a model's outputs to approximately reconstruct sensitive training data that was used for its learning.

📖
용어

Knowledge Distillation Attack

Malicious use of knowledge distillation techniques where the target model becomes the teacher and the attacker creates a student model that imitates its behavior.

📖
용어

Model Fingerprinting

Unique identification of a model by its distinctive behavioral characteristics, allowing to trace its origin and facilitate its targeted extraction.

📖
용어

White-box Extraction

Attack where the attacker has partial or complete access to the model's architecture, greatly facilitating the precise extraction of its parameters and functionalities.

📖
용어

Black-box Extraction

Model extraction performed without prior knowledge of the internal architecture, based solely on observed input-output relationships via the API.

📖
용어

Oracle Attack

Attack method treating the target model as an oracle providing answers to questions, using these answers to progressively reconstruct its internal logic.

📖
용어

Output Space Analysis

Analyse systématique de l'espace des sorties d'un modèle pour identifier des patterns et relations permettant de déduire sa structure interne et ses paramètres.

🔍

결과를 찾을 수 없습니다