📖 Glossaire LLM

Comprendre les termes techniques de l'IA
← Retour à la liste

Provider

L'entreprise ou l'organisation qui a développé et héberge le modèle.

Ex: OpenAI (GPT-4), Anthropic (Claude), Meta (Llama), Google (Gemma).

Modality

Les types de données que le modèle peut accepter en entrée et produire en sortie. Le format est généralement <code>entrée->sortie</code>.

Ex:
  • text→text : Le modèle lit et écrit du texte (ex: GPT-3.5).
  • text+image→text : Le modèle "voit" les images et répond par texte (ex: GPT-4V, Llama 3.2).
  • text+image+video→text : Il analyse aussi des séquences vidéo (ex: Gemini 1.5).
  • text→speech : Il génère de l'audio à partir de texte (ex: ElevenLabs).

Context Length

La quantité totale d'informations (en tokens) que le modèle peut "garder en tête" simultanément lors d'une conversation ou d'une analyse.

Ex: Un contexte de 128k tokens équivaut à environ 300 pages de texte. Plus il est grand, plus le modèle peut analyser de longs documents sans "oublier" le début.

Max Tokens

Le nombre maximum de tokens que le modèle peut générer en une seule réponse (output).

Ex: Si le max est de 4096, le modèle s'arrêtera là, même si sa réponse n'est pas terminée. C'est la limite de la "réply".

Quantization

Une technique d'optimisation qui réduit la précision des calculs du modèle (ex: de 16 bits à 8 bits) pour le rendre plus léger et plus rapide, avec une perte d'intelligence minime.

Ex: int8, fp4. Souvent utilisé pour faire tourner de gros modèles sur des machines moins puissantes.

Tools / Function Calling

La capacité du modèle à interagir avec des outils externes (calculatrice, recherche web, base de données) pour exécuter des tâches précises au lieu de simplement générer du texte.

Ex: Un modèle avec Tools peut chercher la météo actuelle ou exécuter du code Python pour toi.

Input Price ($/M)

Le coût pour envoyer 1 million de tokens au modèle (ce que tu lui donnes à lire/analyser).

Ex: Si le prix est de $2.50/M et que tu envoies 10k tokens, cela te coûtera $0.025.

Output Price ($/M)

Le coût pour chaque million de tokens générés par le modèle (sa réponse).

Ex: Souvent plus cher que l'input car la génération demande plus de puissance de calcul.

Token

L'unité de base de texte pour les LLM. Un token ne correspond pas exactement à un mot.

Ex: En anglais, 1 token ≈ 0.75 mot. En français, c'est souvent un peu plus court. "Bonjour" = 1 token, "L'intelligence artificielle" ≈ 3-4 tokens.
⌬ Le coin de Kyra

Pour bien choisir ton modèle, regarde d'abord le rapport Contexte/Prix.


  • 🚀 Contexte large = idéal pour résumer des livres ou analyser des codes sources entiers.
  • 🛠️ Tools support = indispensable si tu veux que l'IA agisse (recherche, calcul, BDD).
  • 💸 Input vs Output : si tu envoies beaucoup de texte pour une réponse courte, privilégie un faible prix d'Input.