#mongodb
#nosql
#database
#data
Conçoit un schéma NoSQL optimisé pour MongoDB.
Je conçois une base de données MongoDB pour une application de : [TYPE APP, EX: BLOG AVEC COMMENTAIRES].
Propose un design de schéma (Collections et Documents).
Question clé : Dois-je **embarquer** (embed) les sous-documents ou les **référencer** (reference) ?
Pour le cas des [ENTITÉ 1, EX: COMMENTAIRES] et [ENTITÉ 2, EX: ARTICLES], justifie ton choix (Embedding vs Referencing) en fonction de la performance de lecture/écriture.
#data-architecture
#lakehouse
#big-data
#analytics
Concevoir une architecture Data Lakehouse unifiant data lake et data warehouse
Tu es un expert en architecture de données et Big Data. Conçois une architecture Data Lakehouse pour :
Entreprise : [secteur et taille]
Volume données : [TB/jour, types de données]
Cas d'usage : [analytics, ML, reporting, etc]
Contraintes : [budget, compétences, compliance]
Équipe : [data engineers, analysts, scientists]
Architecture Data Lakehouse complète :
1. **Storage Layer** : Object storage optimisé et formatage
2. **Metadata Management** : Catalog et gouvernance
3. **Data Ingestion** : Batch et streaming unifiés
4. **Processing Engine** : Spark, Databricks, Snowflake
5. **Data Modeling** : Medallion architecture (bronze/silver/gold)
6. **Serving Layer** : Analytics et ML serving
7. **Data Quality** : Validation et monitoring
8. **Security & Governance** : RBAC, masking, lineage
9. **Cost Optimization** : Auto-scaling et spot instances
10. **Self-Service Analytics** : BI et data marketplace
Inclus :
- Diagramme d'architecture détaillé
- Exemples de code (SQL, Python)
- Stratégie de migration depuis systèmes existants
- Métriques de performance et coûts
#rag
#vector-database
#llm
#architecture
Conçoit un système RAG (Retrieval-Augmented Generation).
Conçois une architecture RAG complète pour : [CAS D'USAGE].
Données : [TYPE DE DONNÉES]
Volume : [VOLUME ESTIMÉ]
Contraintes : [CONTRAINTES]
Fournis :
1. **Architecture technique** (composants, flux)
2. **Vector database** recommandée (Pinecone, Weaviate, etc.)
3. **Chunking strategy** optimale
4. **Embedding model** sélection
5. **Retrieval strategy** (similarity, hybrid)
6. **LLM integration** (API, fine-tuning)
7. **Evaluation metrics** (precision, recall)
8. **Scaling considerations**
9. **Coûts estimés**
#bioinformatics
#genomics
#biology
#algorithms
#research
Analyse des données génomiques et développement d'algorithmes bio-informatiques.
Tu es un expert en bio-informatique. Je veux analyser [TYPE DE DONNÉES GÉNOMIQUES] pour [OBJECTIF DE RECHERCHE].
Analyse bio-informatique complète:
1. **Sequence Analysis** : FASTA/FASTQ parsing, quality control, read mapping
2. **Genome Assembly** : De novo assembly, reference-based assembly, assembly evaluation
3. **Gene Prediction** : ORF finding, promoter identification, functional annotation
4. **Phylogenetics** : Multiple sequence alignment, tree construction, evolutionary analysis
5. **Structural Bioinformatics** : Protein folding, homology modeling, molecular docking
6. **Transcriptomics** : RNA-Seq analysis, differential expression, splicing analysis
7. **Metagenomics** : 16S/18S analysis, community profiling, functional annotation
8. **Variant Calling** : SNP/indel detection, structural variants, pharmacogenomics
9. **Database Integration** : NCBI, Ensembl, UniProt, pathway databases
10. **Visualization** : Genome browsers, circular plots, heatmaps, interactive tools
Fournis les pipelines d'analyse, les scripts Python/R, les visualisations et les rapports d'interprétation.
#blockchain
#layer2
#zero-knowledge
#cryptography
#defi
Développe des solutions blockchain avancées avec Layer 2 et preuves à connaissance nulle.
Tu es un expert en blockchain avancée. Je veux développer [TYPE D'APPLICATION BLOCKCHAIN] avec [PROTOCOLE LAYER 2].
Système blockchain avancé:
1. **Layer 2 Solutions** : State Channels, Plasma, Rollups, Sidechains comparison
2. **Zero-Knowledge Proofs** : SNARKs, STARKs, zk-SNARKs, bulletproofs
3. **Smart Contract Optimization** : Gas optimization, proxy patterns, upgradeable contracts
4. **Consensus Mechanisms** : PoS, DPoS, BFT, hybrid consensus models
5. **Cross-Chain Bridges** : Trustless bridges, wrapped tokens, atomic swaps
6. **DeFi Protocols** : AMM, lending protocols, yield farming, liquidations
7. **Privacy Solutions** : Mixers, ring signatures, confidential transactions
8. **Scalability Solutions** : Sharding, partitioning, parallel processing
9. **Security Auditing** : Formal verification, vulnerability assessment, best practices
10. **Tokenomics Design** : Utility tokens, governance tokens, economic models
Fournis les smart contracts Solidity, les implémentations Layer 2, les circuits ZK et les audits de sécurité.
#nlp
#classification
#text-mining
#machine-learning
Crée des systèmes de classification de texte performants pour diverses tâches.
Agis comme un expert en NLP. Crée un classificateur pour :\n\n[INSÉRER TÂCHE - type de classification, données, classes cibles]\n\nDéveloppe le système complet :\n1. **Data Preprocessing** : Tokenization, stop words, stemming/lemmatization\n2. **Feature Extraction** : TF-IDF, word embeddings (Word2Vec, GloVe), BERT\n3. **Model Architecture** : Traditional ML vs Deep Learning (CNN, RNN, Transformers)\n4. **Training Strategy** : Class imbalance handling, cross-validation, hyperparameter tuning\n5. **Evaluation Metrics** : Accuracy, precision, recall, F1-score, confusion matrix\n6. **Error Analysis** : Misclassification patterns, improvement opportunities\n7. **Deployment** : API endpoints, batch processing, real-time inference\n8. **Monitoring** : Performance drift, data quality checks, model retraining\n9. **Explainability** : SHAP values, attention visualization, feature importance\n\nFournis code complet avec exemples d'utilisation.
#sql
#data
#code
#base-de-données
Utilise `WITH` pour simplifier des requêtes SQL complexes.
J'ai une requête SQL imbriquée illisible.
Montre-moi comment utiliser une CTE (`WITH nom_cte AS (...)`) pour :
1. Calculer d'abord les sous-totaux par catégorie.
2. Puis joindre ce résultat à la table principale.
Donne un exemple concret.
#sql
#database
#migration
#devops
Analyse les différences entre deux structures de tables.
Voici le schéma de la table A : [CREATE TABLE A...]
Voici le schéma de la table B : [CREATE TABLE B...]
1. Quelles sont les différences (colonnes, types, index) ?
2. Génère la requête `ALTER TABLE` pour transformer A afin qu'elle devienne identique à B.
#computer-vision
#deep-learning
#image-processing
#opencv
#pytorch
Développe des systèmes de vision par ordinateur avec deep learning et traitement d images.
Tu es un expert en vision par ordinateur. Je veux développer un système [TYPE DE SYSTÈME CV] pour [APPLICATION].
Système Computer Vision complet:
1. **Image Preprocessing** : Noise reduction, enhancement, normalization, augmentation techniques
2. **Feature Extraction** : Traditional features, deep features, attention mechanisms, feature engineering
3. **Model Architecture** : CNNs, transformers, GANs, transfer learning, custom architectures
4. **Training Pipeline** : Data preparation, loss functions, optimization strategies, regularization
5. **Object Detection** : YOLO, R-CNN, SSD, custom object detection, tracking algorithms
6. **Image Segmentation** : Semantic segmentation, instance segmentation, panoptic segmentation
7. **Video Analysis** : Action recognition, video classification, temporal modeling, real-time processing
8. **Deployment Optimization** : Model quantization, edge deployment, inference optimization, hardware acceleration
9. **Evaluation & Testing** : Metrics calculation, benchmarking, A/B testing, error analysis
10. **Production Pipeline** : Batch processing, real-time inference, monitoring, model updating
Fournis le modèle entraîné, les scripts de déploiement, les pipelines de traitement et les stratégies de monitoring.
#quantum-computing
#quantum-algorithms
#qiskit
#quantum-mechanics
Conçoit des algorithmes pour ordinateurs quantiques
Tu es un chercheur en algorithmique quantique. Conçois un algorithme quantique pour : [PROBLÈME À RÉSOUDRE]
Algorithme Quantique Complet :
1. **Problem Formulation** :
- Mapping du problème au formalisme quantique
- Complexité quantique vs classique
- Feasibility analysis
2. **Quantum Circuit Design** :
- Qubits allocation et topology
- Quantum gates sequence
- Depth et width optimization
3. **Algorithm Selection** :
- Grover's search (si applicable)
- Quantum Fourier Transform
- Variational Quantum Eigensolver (VQE)
- Quantum Approximate Optimization (QAOA)
4. **Implementation** :
- Code Qiskit/PyQuil/Cirq
- Noise mitigation strategies
- Error correction considerations
5. **Performance Analysis** :
- Quantum advantage estimation
- Resource requirements
- Success probability
6. **Classical-Quantum Hybrid** :
- Pre- et post-processing classique
- Optimization loops
- Variational parameters tuning
7. **Testing & Validation** :
- Simulation results
- Hardware implementation plan
- Benchmarking vs classical algorithms
#etl
#pipeline
#data-engineering
#apache-airflow
Conçoit des pipelines ETL robustes et scalables.
Agis comme un Data Engineer senior. Conçois un pipeline ETL pour :
[INSÉRER SPÉCIFICATIONS DONNÉES]
Architecture requise :
1. **Extraction** : sources APIs, databases, files
2. **Transformation** : cleaning, validation, enrichment
3. **Loading** : data warehouse, data lake
4. **Orchestration** : scheduling, monitoring, error handling
5. **Quality** : data validation, testing, lineage
Fournis le diagramme d'architecture et exemples de code.
#recommender-system
#collaborative-filtering
Conçoit des systèmes de recommandation personnalisés.
Tu es un expert en systèmes de recommandation.
Conçois un système de recommandation pour :
1. Choisis l'approche (collaborative, content-based, hybrid)
2. Définis les features et algorithmes
3. Implémentes le cold start problem solution
4. Configures les métriques d'évaluation (precision@k, recall@k)
5. Proposes l'architecture et pipeline de données
Contexte :
[INSÉRER DÉTAILS]
#recommendation
#collaborative-filtering
#content-based
#personalization
Crée des moteurs de recommandation personnalisés pour produits/contenus.
Agis comme un expert en systèmes de recommandation. Construis un moteur pour :\n\n[INSÉRER CONTEXTE - type de contenu, utilisateurs, objectifs métier]\n\nDéveloppe le système complet :\n1. **Data Analysis** : User-item interactions, cold start problem, sparsity\n2. **Algorithm Selection** : Collaborative filtering, content-based, hybrid approaches\n3. **Collaborative Filtering** : User-based vs item-based, matrix factorization (SVD, ALS)\n4. **Content-based Filtering** : Feature extraction, similarity metrics, TF-IDF\n5. **Deep Learning** : Neural collaborative filtering, autoencoders, transformer models\n6. **Evaluation Metrics** : Precision@K, recall@K, MAP, NDCG, diversity metrics\n7. **Real-time Personalization** : Online learning, contextual bandits, reinforcement learning\n8. **Cold Start Solutions** : New users/items, demographic-based, content-based fallback\n9. **A/B Testing** : Offline evaluation, online testing, business metrics\n\nFournis architecture système et implémentation avec exemples.
#quantum-computing
#qiskit
#quantum-algorithms
#ibm-quantum
Identifie les use cases quantiques et developpe des algorithmes quantiques.
Tu es un consultant en quantum computing expert. Analyse cette possibilite :
[INSERER PROBLEME/DOMAINE D'APPLICATION]
Fournis une analyse quantique :
1. **Quantum advantage** potential vs classical
2. **Algorithm selection** (Grover, Shor, VQE, QAOA)
3. **Qubit requirements** estimation
4. **Implementation** en Qiskit/PyQuil/Cirq
5. **Error mitigation** strategies
6. **Hybrid quantum-classical** approaches
7. **Timeline** pour avantage quantique pratique
8. **Resource requirements** et infrastructure
Sois realiste sur les limitations actuelles et les perspectives futures.
#dashboard
#analytics
#visualisation
#kpi
Expert en visualisation de données et business intelligence
Tu es un expert en création de tableaux de bord analytics. Conçois une solution complète pour :
[BESOINS MÉTIER ET SOURCES DE DONNÉES]
Architecture du dashboard :
1. Identification des KPI essentiels
2. Connexion aux sources de données
3. Création des visualisations interactives
4. Mise en place des filtres et drill-down
5. Automatisation des rapports
6. Optimisation des performances