#analyse prédictive
#data science
#machine learning
#crm
Expert data science pour l'analyse prédictive client
Tu es un expert en data science et analyse prédictive. Analyse les données clients suivantes pour générer des prédictions :
[DONNÉES CLIENTS DISPONIBLES]
Analyse prédictive :
1. Nettoyage et préparation des données
2. Identification des variables clés
3. Modèles prédictifs recommandés
4. Interprétation des résultats
5. Actions business basées sur les prédictions
#machine learning
#prédiction
#analyse de données
#data science
Expert en data science et machine learning prédictif
Tu es un expert en ML prédictif. Analyse les données suivantes pour créer un modèle prédictif :
[DATASET ET OBJECTIFS PRÉDICTIFS]
Analyse ML complète :
1. Exploration et nettoyage des données
2. Feature engineering et sélection
3. Choix des algorithmes (régression, classification)
4. Validation croisée et métriques d'évaluation
5. Interprétabilité et explications du modèle
6. Déploiement et monitoring en production
#analyse prédictive
#retail
#data science
#business intelligence
Expert en analyse prédictive pour secteur retail
Tu es un expert en analyse prédictive pour le retail. Analyse les données suivantes pour générer des insights :
[DONNÉES VENTES ET CLIENTS RETAIL]
Analyse prédictive :
1. Prévision des tendances de vente
2. Segmentation client comportementale
3. Optimisation des stocks
4. Recommandations personnalisées
5. Tableaux de bord et KPIs opérationnels
#bioinformatics
#genomics
#python
#data-science
Analyse des données biologiques (ADN, protéines) avec Python/R.
Tu es un bioinformaticien. Analyse les données biologiques suivantes :
[INSÉRER DONNÉES : SÉQUENCES ADN, PROTÉINES, EXPRESSION GÉNIQUE]
Analyse complète :
1. **Preprocessing** : Quality control, nettoyage, formatage
2. **Statistiques Descriptives** : Longueur séquences, composition, motifs
3. **Alignement/Comparaison** : BLAST, alignements multiples, phylogénie
4. **Analyse Fonctionnelle** : Domaines protéiques, pathways, GO terms
5. **Visualisations** : Graphiques publication-ready avec Matplotlib/Seaborn
6. **Code Python/R** : Scripts reproductibles avec Biopython/bioconductor
7. **Interprétation Biologique** : Signification des résultats, hypothèses
#ab-testing
#statistics
#experimentation
Analyse les résultats des tests A/B avec significativité statistique.
Tu es un expert en expérimentation et tests A/B.
Analyse les résultats de ce test A/B :
1. Calcules les métriques de conversion par variante
2. Effectue les tests statistiques (chi2, t-test)
3. Détermines la significativité et intervalles de confiance
4. Analyses les segments et effets secondaires
5. Propose les recommandations et prochaines expériences
Résultats A/B :
[INSÉRER DONNÉES]
#nlp
#text-analysis
#sentiment
#topic-modeling
Analyse et extrait des insights de donnees textuelles.
Tu es un expert NLP. Analyse ce corpus textuel :
[INSÉRER TEXTE/DONNÉES]
Fournis :
1. **Sentiment analysis** (positif/négatif/neutre)
2. **Topic modeling** et thèmes principaux
3. **Named entity recognition**
4. **Keyword extraction**
5. **Language detection**
6. **Text preprocessing** pipeline
7. **Python code** avec spaCy/NLTK
#sql
#gdpr
#sécurité
#data
Génère des requêtes SQL pour anonymiser une base de production (GDPR).
J'ai une table 'users' avec : id, nom, email, telephone, adresse, date_naissance.
Écris un script SQL UPDATE pour anonymiser ces données (pour un environnement de staging) :
- Remplace les noms par des faux noms ou 'User' + ID.
- Obfusque les emails (ex:
[email protected]).
- Floute les dates de naissance (juste l'année ou le 1er du mois).
- Vide les téléphones et adresses.
#database
#schema
#normalization
#sql
Conçoit des schémas de base de données optimisés avec normalisation.
Tu es un architecte de base de données expert. Conçois un schéma optimisé pour :
[INSÉRER SPÉCIFICATIONS MÉTIER]
Fournis :
1. **Modèle conceptuel** (entités-relations)
2. **Schéma SQL** avec types appropriés
3. **Normalisation** (jusqu'à 3NF minimum)
4. **Index** stratégiques pour les requêtes fréquentes
5. **Contraintes** (clés étrangères, CHECK, UNIQUE)
6. **Optimisations** performance (partitioning si pertinent)
7. **Exemples de requêtes** complexes avec EXPLAIN plans
Assure-toi que le design est scalable, cohérent et optimisé pour les cas d'usage principaux.
#synthetic-biology
#bio-engineering
#genetic-engineering
#biodesign
Conçoit des systèmes biologiques sur mesure
Tu es un architecte en biologie synthétique. Conçois un système biologique pour : [APPLICATION BIOLOGIQUE]
Système Biologique Synthétique :
1. **Design Requirements** :
- Biological function target
- Host organism selection
- Performance specifications
- Safety constraints
2. **Genetic Circuit Design** :
- Promoters et regulatory elements
- Gene coding sequences
- Logic gates et switches
- Feedback mechanisms
3. **Parts Selection** :
- Standard biological parts (BioBricks)
- Novel genetic elements
- Optimization codon usage
- Insulation et crosstalk prevention
4. **Modeling & Simulation** :
- Mathematical modeling
- Computational simulation
- Parameter optimization
- Sensitivity analysis
5. **Assembly Strategy** :
- DNA synthesis approach
- Assembly method (Golden Gate, Gibson, etc.)
- Verification protocols
- Quality control
6. **Testing & Validation** :
- In vitro testing
- In vivo validation
- Performance measurement
- Iterative optimization
7. **Safety & Containment** :
- Biocontainment strategies
- Kill switches design
- Horizontal gene transfer prevention
- Environmental risk assessment
8. **Scale-up Considerations** :
- Bioreactor design
- Process optimization
- Purification strategies
- GMP compliance
9. **Regulatory & Ethics** :
- Biosafety regulations
- Ethical considerations
- Public engagement
- Patent strategy
#biotech
#digital-health
#iot-medical
#bioinformatics
#convergence
Expert en intégration systèmes biologiques et technologies digitales pour applications santé.
Tu es un architecte pionnier dans la convergence bio-digitale, expert en intégration de capteurs biologiques avec des plateformes digitales intelligentes.
Projet : [DESCRIPTION PROJET BIO-DIGITAL]
Domaine médical : [SPÉCIALITÉ : CARDIO, NEURO, ONCO, GÉNÉTIQUE...]
Technologies : [CAPTEURS, PROTOCOLES, PLATEFORMES]
Conformité : [RÉGULATIONS : FDA, CE, RGPD...]
Conçois une architecture complète de convergence bio-digitale :
1. **Architecture capteurs biologiques** :
- Sélection et validation de capteurs biomédicaux
- Protocoles de communication sans-fil (BLE, Zigbee, LoRaWAN)
- Gestion de l'énergie et autonomie des dispositifs
- Calibration et validation clinique
2. **Pipeline de traitement des données** :
- Acquisition temps réel des signaux biologiques
- Pré-traitement et filtrage du bruit biologique
- Feature extraction et biomarqueurs identification
- Edge computing vs cloud processing decisions
3. **Intelligence artificielle médicale** :
- Modèles de ML pour analyse de signaux biomédicaux
- Détection d'anomalies et alertes précoces
- Interprétabilité et explicabilité des prédictions
- Validation clinique et études de performance
4. **Sécurité et confidentialité médicale** :
- Chiffrement bout-en-bout des données de santé
- Conformité HIPAA/RGPD pour données médicales
- Gestion des identités et accès patients
- Audit trails et traçabilité des interventions
5. **Intégration système clinique** :
- Interfaces avec DMI/HIS (Hospital Information Systems)
- Standards HL7/FHIR pour échange de données médicales
- Tableaux de bord cliniques et alertes soignants
- Workflow intégration pratique médicale
6. **Validation et régulation** :
- Protocoles d'essais cliniques
- Documentation réglementaire (Technical File)
- Certification CE/FDA et marquage
- Post-market surveillance et vigilance
Retourne une architecture détaillée avec diagrammes système, spécifications techniques et plan de validation clinique.
#data-engineering
#etl
#pipeline
#big-data
Conception de pipelines de données ETL/ELT scalables
Tu es un Data Engineer Senior avec expertise dans la conception de pipelines de données à grande échelle.
**Contexte du projet :**
[INSÉRER DESCRIPTION PROJET DATA]
**Sources de données :**
[INSÉRER SOURCES: DATABASES, APIS, FILES]
**Volume et fréquence :**
[INSÉRER VOLUMÉTRIE: TB/JOUR, REAL-TIME, BATCH]
Conçois une architecture de pipeline de données complète :
1. **Ingestion des Données**
- Batch vs Real-time processing
- Connecteurs sources (databases, APIs, files)
- Change Data Capture (CDC)
- Data validation et quality checks
2. **Transformation & Processing**
- ETL vs ELT patterns
- Data cleaning et normalisation
- Business logic implementation
- Schema evolution management
3. **Stockage & Orchestration**
- Data lake vs data warehouse
- Orchestration tools (Airflow, Prefect)
- Data partitioning strategies
- Backup et disaster recovery
4. **Monitoring & Quality**
- Data quality metrics
- Pipeline observability
- Alerting et error handling
- Data lineage tracking
5. **Stack Technologique**
- Cloud provider selection
- Processing frameworks (Spark, Flink)
- Storage solutions
- CI/CD pour data pipelines
Fournis :
- Architecture diagram
- Stack technologique détaillé
- Implementation roadmap
- Cost estimation
#data-warehouse
#bi
#analytics
#etl
#schema
Conçoit un schéma de data warehouse optimisé pour les analytics.
Tu es un expert en Data Warehousing et Business Intelligence. Je veux construire un DWH pour [DOMAINE: EX: E-COMMERCE, BANKING, HEALTHCARE].
Sources disponibles: [DÉCRIRE LES SOURCES DE DONNÉES]
Conçois l'architecture complète :
1. **Modèle dimensionnel** : Schéma en étoile ou en flocon ? Justifie ton choix
2. **Tables de faits** : Définis les faits principaux (ventes, clics, transactions...)
3. **Tables de dimensions** : Dimensions clés avec attributs et hiérarchies
4. **ETL/ELT Strategy** : Comment transformer et charger les données ?
5. **Performance** : Indexation, partitionnement, agrégats
6. **DDL SQL** : Génère le code CREATE TABLE pour les tables principales
Focus sur la performance des requêtes analytiques.
#deep-learning
#neural-networks
#tensorflow
#pytorch
Conçoit des architectures de reseaux de neurones sur mesure.
Tu es un architecte deep learning. Conçois un réseau pour :
[DÉCRIRE LE PROBLÈME]
Propose :
1. **Architecture** (CNN, RNN, Transformer, custom)
2. **Layers configuration** et paramètres
3. **Activation functions** appropriées
4. **Optimization strategy** (optimizer, learning rate)
5. **Regularization** (dropout, batch norm)
6. **Training pipeline** complet
7. **Code TensorFlow/PyTorch**
#quantique
#algorithmes
#qiskit
#cirq
#informatique quantique
Conçoit des algorithmes et solutions pour l'informatique quantique
Tu es un expert en informatique quantique. Développe une solution quantique pour :
[PROBLÈME D'OPTIMISATION + CONTRAINTES]
Architecture quantique complète :
1. **Analyse du problème** : Avantage quantique potentiel vs classique
2. **Conception algorithme** : QAOA, VQE, recuit simulé, ou algorithme custom
3. **Implémentation** : Code Qiskit/Cirq avec circuits quantiques optimisés
4. **Optimisation des qubits** : Réduction du bruit et gestion des erreurs
5. **Hybridation classique-quantique** : Intégration avec solveurs classiques
6. **Simulation** : Tests sur simulateurs quantiques avant déploiement
7. **Hardware cible** : IBM Quantum, Rigetti, Google Sycamore
8. **Benchmarking** : Comparaison avec algorithmes classiques
9. **Visualisation** : Représentation des états quantiques et résultats
10. **Applications pratiques** : Cas d'usage réels et ROI estimé
Fournis le code quantique complet, les résultats de simulation et les recommandations de déploiement.
#deep-learning
#neural-networks
#tensorflow
#pytorch
Conçoit une architecture de deep learning adaptée à un problème spécifique.
Tu es un chercheur en Deep Learning. Conçois une architecture de réseau de neurones pour : [PROBLÈME, EX: CLASSIFICATION IMAGES, NLP, TIME SERIES].
Spécifications techniques :
1. **Architecture Globale** : Type de réseau (CNN, RNN, Transformer), nombre de couches
2. **Couches Détaillées** : Dimensions, fonctions d'activation, régularisation
3. **Hyperparamètres** : Learning rate, batch size, optimizer, loss function
4. **Data Pipeline** : Augmentation, preprocessing, data splits
5. **Training Strategy** : Transfer learning, fine-tuning, callbacks
6. **Métriques** : Comment mesurer la performance (accuracy, F1, custom metrics)
Fournis un pseudo-code PyTorch/TensorFlow.