Glossaire IA — définitions courtes


Agent IA

Programme autonome qui perçoit son environnement, prend des décisions et exécute des actions pour atteindre un objectif. En freelance, un agent IA peut suivre des prospects, mettre à jour un CRM ou lancer des automatisations, avec supervision humaine pour la qualité et la sécurité.

Analyse de sentiment

Méthode de NLP qui détecte l’opinion exprimée dans un texte (positive, négative, neutre). Utile pour analyser des avis clients, des commentaires sociaux ou des réponses à des campagnes afin d’ajuster messages, offres et priorités.

Analyse prédictive

Techniques statistiques et d’apprentissage automatique qui anticipent des événements futurs à partir de données historiques. Exemples : leads chauds, risque de churn, planification des charges et prévisions de ventes.

API d’IA

Interface pour appeler des modèles (texte, image, voix, etc.) depuis une application. Elle permet d’intégrer rapidement des capacités IA sans gérer l’infrastructure : idéal pour prototyper assistants, recherches ou automatisations.

Apprentissage automatique (Machine Learning, ML)

Branche de l’IA où des modèles apprennent des données pour prédire ou classer sans être explicitement programmés. On entraîne sur des exemples puis on évalue la généralisation sur de nouvelles données.

Apprentissage profond (Deep Learning)

Sous‑domaine du ML basé sur des réseaux de neurones profonds. Performant pour vision, parole et langage, mais gourmand en données et calcul. Pilier des progrès récents en IA.

Assistant IA

Outil conversationnel ou intégré qui aide à rédiger, rechercher, générer des images, coder, etc. Sert d’accélérateur quotidien au freelance, tout en nécessitant cadrage, relecture et garde‑fous.

Attention mechanism

Composant des Transformers qui pondère les parties pertinentes d’une séquence pour produire une sortie. Il améliore la compréhension du contexte long et la qualité des résultats en texte, image ou audio.

Automatisation (workflow, no‑code, low‑code)

Assemblage d’outils et de règles pour exécuter automatiquement des tâches : extraction de données, emails, mises à jour CRM. Le no‑code/low‑code accélère la création de ces flux sans développement complet.

Automatisation des tâches répétitives

Usage d’outils (souvent IA) pour déléguer des tâches fréquentes et standardisées : réponses types, reporting, transcriptions, renommage. Objectif : gagner du temps et réduire les erreurs avec contrôle qualité humain.


Biais algorithmique

Distorsion systématique dans les résultats d’un modèle due à des données, métriques ou choix de conception non représentatifs. Conséquences : décisions injustes. Mesures : collecte diversifiée, audits, métriques d’équité et transparence.


Chatbot

Programme conversationnel qui répond par texte ou voix. Couplé à des LLM, il gère support, qualification de leads et FAQ 24/7, avec transfert fluide vers un humain si nécessaire.

Copilot (ex. GitHub Copilot)

Assistant IA orienté code qui suggère extraits, tests et corrections dans l’éditeur. Accélère la production et réduit les erreurs, avec revue de code et bonnes pratiques de sécurité.

Enjeux juridiques liés aux contenus générés : droits d’auteur, licences d’entraînement, réutilisation commerciale. Les règles varient selon les pays. Bon réflexe : vérifier les conditions des outils et contractualiser les usages.


Deepfake

Contenu synthétique (vidéo, audio, image) créé par IA imitant l’apparence ou la voix d’une personne. Usages légitimes (cinéma, doublage) mais risques de désinformation et d’atteinte à la réputation ; privilégier transparence et consentement.

Données d’entraînement

Jeux de données utilisés pour apprendre les paramètres d’un modèle. Qualité, diversité et taille influencent performances et biais. Inclut souvent annotations, métadonnées et nettoyage.


Embeddings

Représentations numériques d’objets (mots, phrases, images) dans un espace vectoriel où la proximité reflète la similarité sémantique. Utiles pour recherche, recommandation, dédoublonnage et clustering.

Explicabilité de l’IA

Méthodes pour comprendre et justifier les prédictions : caractéristiques importantes, contrefactuels, visualisations. Favorise confiance, conformité et amélioration continue.


Fine‑tuning

Ré‑entraînement ciblé d’un modèle pré‑existant sur des données spécifiques pour améliorer ses résultats sur une tâche ou un domaine. Avantages : adaptation rapide. Nécessite données propres et tests rigoureux.


Hallucination (IA)

Sortie plausible mais factuellement erronée d’un modèle génératif. Réduction : cadrer le prompt, fournir des sources, utiliser le RAG et instaurer une validation humaine avant diffusion.


IA générative

Branche de l’IA qui produit de nouveaux contenus (texte, image, audio, vidéo, code) à partir de modèles entraînés sur de larges corpus. Applications : rédaction, design, support et prototypage, avec relecture humaine.

IA responsable / éthique

Conception et usage de l’IA de façon sûre, équitable, transparente et conforme. Comprend gestion des biais, sécurité, gouvernance des données, explicabilité et reddition de comptes.

Intelligence artificielle (IA)

Ensemble de techniques permettant à des machines d’exécuter des tâches de cognition : percevoir, raisonner, apprendre, interagir. Couvre règles symboliques, ML, vision, langage et optimisation.


Modèle de langage (LLM)

Modèle statistique entraîné à prédire le mot suivant, capable de comprendre et générer du texte. Les LLM modernes gèrent instructions, résumés, code et formats variés via chatbots ou API.


NLP (traitement automatique du langage naturel)

Discipline qui permet aux machines de comprendre, générer et analyser le langage humain. Cas d’usage : classification d’emails, extraction d’informations, traduction, résumés et assistants.


Personnalisation (emails, marketing)

Adaptation dynamique des messages, offres ou contenus à un individu ou segment, via données comportementales et contextuelles. Objectifs : engagement, conversion et fidélisation, dans le respect de la vie privée.

Plug‑in IA

Extension reliant un modèle à des services ou bases externes pour récupérer des infos ou exécuter des actions. Élargit les capacités d’un assistant : recherche, achats, planification, documents.

Prompt / Prompt engineering

Art de rédiger des instructions claires, contextualisées et contraintes pour guider un modèle génératif. Bonnes pratiques : rôle, objectif, cible, format attendu et critères d’évaluation ; itérations jusqu’au résultat.

Prospection IA

Usage d’algorithmes pour identifier et qualifier des prospects : scoring, enrichissement de données, messages personnalisés. Réduit le temps de recherche et améliore la pertinence des campagnes.


Recommandation (moteurs de recommandation)

Systèmes qui suggèrent contenus, produits ou actions selon l’historique et les similarités entre utilisateurs/objets. Techniques : filtrage collaboratif, contenu‑basé, hybrides.

Réseau de neurones artificiels

Architecture inspirée du cerveau, composée de couches de nœuds interconnectés. Transforme des entrées en sorties via des poids appris. Variantes : CNN, RNN, Transformers.

Reconnaissance vocale (Speech‑to‑Text)

Conversion automatique de la parole en texte. Sert à transcrire réunions, interviews ou vidéos. Les modèles modernes gèrent plusieurs langues et environnements bruyants, avec corrections manuelles.

RGPD et IA

Cadre européen pour la collecte et le traitement des données personnelles : base légale, minimisation, droits des personnes, sécurité, DPIA. Essentiel à tout projet IA manipulant des données identifiables.


SaaS IA

Logiciel en ligne intégrant des fonctionnalités IA prêtes à l’emploi (analyse, génération, automatisation). Avantages : démarrage rapide, coûts maîtrisés. Limites : personnalisation, confidentialité, dépendance éditeur.

Scoring de leads

Attribution d’un score à chaque prospect selon sa probabilité de conversion, calculée à partir de signaux explicites et implicites. Sert à prioriser les actions et aligner marketing/vente.

Supervisé / non supervisé (apprentissage)

Deux paradigmes du ML : supervisé (apprentissage à partir d’exemples étiquetés) et non supervisé (découverte de structures sans étiquette, ex. clusters). Le choix dépend de l’objectif et des données disponibles.

Synthèse vocale (Text‑to‑Speech)

Génération de voix naturelle à partir de texte. Applications : assistants, vidéos, accessibilité, doublage. Les voix neuronales offrent des intonations réalistes, réglables en ton et vitesse.


Texte → Code (Code generation)

Transformation d’instructions en langage naturel en extraits de code. Accélère le prototypage, les tests et la documentation. Exige relecture, sécurité et conformité aux standards du projet.

Texte → Image (Text‑to‑Image)

Génération d’images à partir d’une description textuelle. Utile pour moodboards, variantes créatives et illustrations rapides. Demande des prompts précis et vérification des droits d’usage.

Texte → Vidéo (Text‑to‑Video)

Création automatique de vidéos courtes à partir d’un script ou d’un prompt. Sert à produire des démos, tutoriels et publicités simples. Limites actuelles : cohérence des mouvements, durée, qualité.

Token (et coût/token)

Unité utilisée par les LLM pour mesurer entrées et sorties (morceaux de mots). Les API facturent souvent au millier de tokens. Optimiser : prompts concis, contexte pertinent, résumés et réutilisation.

Traduction automatique

Conversion d’un texte d’une langue à une autre par des modèles neuronaux. Qualité élevée pour des contenus courants ; révision humaine recommandée pour textes techniques, juridiques ou marketing sensibles.

Transformers

Architecture de réseaux de neurones basée sur l’attention, devenue standard pour le langage et au‑delà. Points forts : parallélisation, contexte long, performances de pointe. Base de nombreux LLM.


Vector database

Base optimisée pour stocker et rechercher des embeddings par similarité. Indispensable pour recherche sémantique, RAG, détection de doublons et recommandation en temps réel sur grands volumes.


Zero‑shot / Few‑shot learning

Capacités d’un modèle à répondre sans exemple (zero‑shot) ou avec quelques exemples (few‑shot) fournis dans le prompt. Pratique pour adapter un LLM à une tâche sans entraînement supplémentaire.