📖 Glossaire LLM
Comprendre les termes techniques de l'IAProvider
L'entreprise ou l'organisation qui a développé et héberge le modèle.
Modality
Les types de données que le modèle peut accepter en entrée et produire en sortie. Le format est généralement <code>entrée->sortie</code>.
- text→text : Le modèle lit et écrit du texte (ex: GPT-3.5).
- text+image→text : Le modèle "voit" les images et répond par texte (ex: GPT-4V, Llama 3.2).
- text+image+video→text : Il analyse aussi des séquences vidéo (ex: Gemini 1.5).
- text→speech : Il génère de l'audio à partir de texte (ex: ElevenLabs).
Context Length
La quantité totale d'informations (en tokens) que le modèle peut "garder en tête" simultanément lors d'une conversation ou d'une analyse.
Max Tokens
Le nombre maximum de tokens que le modèle peut générer en une seule réponse (output).
Quantization
Une technique d'optimisation qui réduit la précision des calculs du modèle (ex: de 16 bits à 8 bits) pour le rendre plus léger et plus rapide, avec une perte d'intelligence minime.
int8, fp4. Souvent utilisé pour faire tourner de gros modèles sur des machines moins puissantes.
Tools / Function Calling
La capacité du modèle à interagir avec des outils externes (calculatrice, recherche web, base de données) pour exécuter des tâches précises au lieu de simplement générer du texte.
Input Price ($/M)
Le coût pour envoyer 1 million de tokens au modèle (ce que tu lui donnes à lire/analyser).
Output Price ($/M)
Le coût pour chaque million de tokens générés par le modèle (sa réponse).
Token
L'unité de base de texte pour les LLM. Un token ne correspond pas exactement à un mot.
⌬ Le coin de Kyra
Pour bien choisir ton modèle, regarde d'abord le rapport Contexte/Prix.
- 🚀 Contexte large = idéal pour résumer des livres ou analyser des codes sources entiers.
- 🛠️ Tools support = indispensable si tu veux que l'IA agisse (recherche, calcul, BDD).
- 💸 Input vs Output : si tu envoies beaucoup de texte pour une réponse courte, privilégie un faible prix d'Input.