IA-COURS-Large-Language-Model-et-Retrieval-Augmented-Generation - Revenir à l'accueil

 

Voir également :

[TXT]

 Cours-Interconnexion..> 03-Jan-2015 15:15  3.0M  

[TXT]

 Intelligence-Artific..> 03-Jan-2015 15:16  2.5M  

[TXT]

 Lecture1_Linear_SVM_..> 03-Jan-2015 14:57  2.4M  

[TXT]

 Lecture2_Linear_SVM_..> 03-Jan-2015 14:56  2.4M  

[TXT]

 Lecture3_Linear_SVM_..> 03-Jan-2015 14:56  2.4M  

[TXT]

 Lecture4_Kenrels_Fun..> 03-Jan-2015 14:55  2.4M  

[TXT]

 Lecture5_Kernel_SVM...> 03-Jan-2015 14:55  2.4M  

[TXT]

 Lecture6_SVDD.pdf.htm   03-Jan-2015 14:54  2.4M  

[TXT]

 Lecture7_Cross_Valid..> 03-Jan-2015 14:54  2.4M  

[TXT]

 Lecture8_Multi_Class..> 03-Jan-2015 14:57  2.4M  

[TXT]

 Lecture9_Multi_Kerne..> 03-Jan-2015 14:53  2.5M  

[TXT]

 Lecture10_Outilier_L..> 03-Jan-2015 14:53  2.5M  

[TXT]

 Les-reseaux-sans-fil..> 03-Jan-2015 15:17  2.5M  

[TXT]

 Outils-Logiques-pour..> 03-Jan-2015 15:15  2.8M  

[TXT]

 Projet-IP-SIG-Signal..> 03-Jan-2015 15:16  2.5M  

[TXT]

 Robotique-Mobile-PDF..> 03-Jan-2015 15:16  2.6M  

[TXT]

 Systeme-informatique..> 03-Jan-2015 15:17  2.5M  

[TXT]

 Tutoriel-Android-TP-..> 03-Jan-2015 14:57  2.3M  

[TXT]

 Understanding-SVM-th..> 03-Jan-2015 14:57  2.4M  
Large Language Model et Retrieval Augmented Generation Cours ≪ D´ecouverte de l’intelligence artificielle ≫ Nicolas Delestre et ChatGPT LLM - v2.0 1 / 32 Ce cours a ´et´e r´edig´e en LATEX sous emacs avec le mode Copilot ChatGPT est donc co-r´edacteur de ce document (proposition de formulation des phrases) LLM - v2.0 2 / 32 Plan 1 Introduction `a l’IA G´en´erative 2 Fonctionnement des LLM 3 Utilisation d’un LLM : l’art du bon prompt 4 Chaine de pens´ee 5 RAG 6 Enjeux et Perspectives LLM - v2.0 3 / 32 Introduction `a l’IA G´en´erative D´efinition et Concepts Cl´es Qu’est-ce que l’IA G´en´erative ? L’IA g´en´erative est une IA capable de produire du contenu (texte, image, son, code) `a partir de donn´ees d’entraˆınement Exemples d’applications Chatbots et assistants virtuels G´en´eration automatique de code Cr´eation de contenu multim´edia LLM - v2.0 4 / 32 Introduction `a l’IA G´en´erative Historique et Evolution ´ Des premiers mod`eles `a l’essor des LLM Chaˆınes de Markov (ann´ees 1950) : mod´elisation de la probabilit´e d’apparition d’un mot en fonction du mot pr´ec´edent R´eseaux de Neurones R´ecurrents (RNN) (ann´ees 1990) : introduction de la m´emoire courte, permettant de traiter des s´equences de texte Long Short-Term Memory (LSTM) (1997) : am´elioration des RNN avec des portes de m´emoire pour capturer des d´ependances `a long terme Transformers (2017) : introduction du m´ecanisme d’attention permettant de traiter des phrases enti`eres en parall`ele GPT-3, GPT-4 (2020-2023) : exploitation des Transformers `a grande ´echelle pour une g´en´eration de texte fluide et contextuelle LLM - v2.0 5 / 32 Fonctionnement des LLM Architecture des Transformers 1 / 4 Principe de fonctionnement Les Transformers sont une architecture de r´eseau de neurones qui permettent de traiter des s´equences de texte a grˆace `a trois concepts cl´es : la tokenisation du texte, qui convertit les mots en unit´es manipulables par le mod`ele le m´ecanisme d’attention multi-tˆetes, qui permet d’´etablir des relations entre les tokens pour capturer le contexte l’auto-r´egression, qui pr´edit chaque token un par un pour garantir une g´en´eration fluide a. Dans le cadre de ce cours on ´etudiera uniquement des LLM qui prennent en entr´ee du texte, mais depuis 2024-2025 les LLM peuvent traiter toutes suites de s´equences d’octets repr´esentant image, son ou vid´eo LLM - v2.0 6 / 32 Fonctionnement des LLM Architecture des Transformers 2 / 4 Tokenisation du texte Le texte est transform´e en une s´equence de tokens (mots ou sous-mots) Utilisation de techniques comme BPE (Byte Pair Encoding) pour d´ecouper les mots en unit´es plus petites Permet au mod`ele de comprendre des mots inconnus en analysant leurs sous-unit´es Exemple de tokenisation Mot original : "transformers" Tokenisation BPE : "trans", "##form", "##ers" R´eduction du vocabulaire de GPT-3 `a environ 50 000 tokens LLM - v2.0 7 / 32 Fonctionnement des LLM Architecture des Transformers 3 / 4 M´ecanisme d’attention multi-tˆetes Chaque token peut prˆeter attention `a d’autres tokens de la s´equence Plusieurs tˆetes d’attention analysent diff´erents aspects du contexte simultan´ement Permet de capturer des relations `a longue distance entre les mots https://theaisummer.com/attention/ Exemple de capacit´es d’attention GPT-4 utilise 8 `a 16 tˆetes d’attention par couche (entre 96 et 128 couches) Chaque tˆete peut capturer des d´ependances linguistiques sur une s´equence de plus de 32 000 tokens Blog de Lo¨ıck Bourdois https://lbourdois.github.io/blog/nlp LLM - v2.0 8 / 32 Fonctionnement des LLM Architecture des Transformers 4 / 4 Auto-r´egression pour la pr´ediction des tokens Le mod`ele pr´edit chaque token un par un en utilisant les tokens pr´ec´edents Utilisation du masquage pour empˆecher l’acc`es aux futurs tokens durant l’entraˆınement Garantit une g´en´eration fluide et coh´erente du texte Exemple de g´en´eration de texte GPT-3 peut g´en´erer jusqu’`a 2048 tokens en une seule requˆete GPT-4 am´eliore cette capacit´e en atteignant 32 000 tokens pour des analyses longues et complexes LLM - v2.0 9 / 32 Fonctionnement des LLM Pr´e-entraˆınement et Fine-Tuning 1 / 3 Phases d’apprentissage L’entraˆınement des LLM repose sur plusieurs ´etapes : le pr´e-entraˆınement, qui permet au mod`ele d’apprendre les structures du langage `a partir d’un immense corpus de textes les fine-tuning, qui ajustent le mod`ele LLM - v2.0 10 / 32 Fonctionnement des LLM Pr´e-entraˆınement et Fine-Tuning 2 / 3 Pr´e-entraˆınement Apprentissage non supervis´e sur de vastes ensembles de donn´ees textuelles (livres, articles, pages web) Objectif : pr´edire le prochain token dans une phrase Mod`eles entraˆın´es sur plusieurs t´eraoctets de donn´ees Exemple de pr´e-entraˆınement GPT-3 a ´et´e entraˆın´e sur un corpus estim´e `a plus de 500 milliards de tokens Coˆut ´energ´etique : plusieurs milliers de GPU pendant plusieurs semaines LLM - v2.0 11 / 32 Fonctionnement des LLM Pr´e-entraˆınement et Fine-Tuning 3 / 3 Les ´etapes de Fine-Tuning 1 Fine-tuning supervis´e : Objectif : transformer les LLM en chatbot M´ethode : pr´esent´es des exemples de conversation 2 Fine-tuning par les pr´ef´erences : Objectif : am´eliorer la qualit´e des r´eponses et v´erifi´e qu’elles sont l´egales et pas dangereuses M´ethode : des humains choisissent la meilleur r´eponse par mi celles propos´ees 3 Fine-tuning par le raisonnement Objectif : am´eliorer la capacit´e du LLM `a effectuer des tˆaches de raisonnement M´ethode : sur des probl`emes v´erifiables (comme les math´ematiques ou le code informatique) on applique des m´ethodes d’apprentissage par renforcement (automatique) Les 4 ´etapes pour entrainer les LLM (ScienceEtonnante) https://www.youtube.com/watch?v=YcIbZGTRMjI LLM - v2.0 12 / 32 Fonctionnement des LLM Quelques LLM en 2025 Mod`ele Param`etres Vocabulaire (tokens) Contexte (tokens) Type GPT-4 Turbo (OpenAI) 1.76T 50K 128K Propri´etaire LLaMA 3 70B (Meta) 70B 32K 8K Open Source Mistral 7B (Mistral AI) 7B 32K 8K Open Source Claude 3 (Anthropic) Non divulgu´e 100K 200K Propri´etaire Gemini 1.5 Pro (Google DeepMind) Non divulgu´e 32K 1M Propri´etaire DeepSeek 67B (DeepSeek AI) 67B 64K 8K Open Source Qwen 72B (Alibaba) 72B 150K 32K Open Source Falcon 180B (TII) 180B 65K 4K Open Source Command R+ (Cohere) Non divulgu´e 50K 128K Propri´etaire Mixtral (Mistral AI) 12.9B (MoE) 32K 8K Open Source LLM - v2.0 13 / 32 Utilisation d’un LLM : l’art du bon prompt Pourquoi le prompt est essentiel ? Un prompt bien con¸cu am´eliore fortement les r´esultats Oriente le LLM vers la bonne r´eponse Limite les erreurs ou hallucinations Permet des r´esultats plus coh´erents et cibl´es M´ethode propos´ee par Google Tˆache, Contexte, R´ef´erences, Evaluer, It´erer ´ : une d´emarche structur´ee pour r´ediger des prompts efficaces Formation IA de Google : 10h en Version Acc´el´er´ee (Ludo Salenne) https://www.youtube.com/watch?v=mFTNLy2_Gl8 LLM - v2.0 14 / 32 Utilisation d’un LLM : l’art du bon prompt Etape 1 : Tˆache ´ D´efinir clairement la tˆache Indiquer pr´ecis´ement ce que l’on attend du mod`ele : Action attendue : r´esumer, traduire, corriger, etc Niveau de d´etail ou de complexit´e souhait´e Un exemple Description Prompt R´ediger un e-mail professionnel pour informer un client du retard de livraison d’un produit sp´ecifique, tout en proposant une solution de compensation. R´edige un e-mail formel d’excuses `a un client. LLM - v2.0 15 / 32 Utilisation d’un LLM : l’art du bon prompt Etape 2 : Contexte ´ Fournir les informations n´ecessaires Aide le mod`ele `a comprendre la situation : Qui est l’utilisateur cible ? Quels sont les objectifs ou contraintes ? Quelle est la source ou mati`ere premi`ere ? On am´eliore le prompt Description Prompt Le ton doit ˆetre professionnel, empathique et concis. L’exp´editeur est le Responsable du Service Client. Le destinataire est un client important (Mme. Dubois). R´edige un e-mail formel d’excuses `a un client. Le ton doit ˆetre professionnel, empathique et concis. Tu es le Responsable du Service Client. Le destinataire est Mme. Dubois, une cliente importante. LLM - v2.0 16 / 32 Utilisation d’un LLM : l’art du bon prompt Etape 3 : R´ef´erences ´ Donner des exemples ou mod`eles Permet d’inspirer le format, le style ou la tonalit´e : Exemples de r´eponses attendues Format ou ton sp´ecifique `a adopter A ´eviter : prompts vagues sans cadre ` On am´eliore encore le prompt Description Prompt Le produit est le ”Mod`ele Alpha-7” (r´ef´erence A7-456). Le retard est de 3 jours. La compensation propos´ee est un bon d’achat de 15% valable sur la prochaine commande. R´edige un e-mail formel d’excuses `a un client... Le produit concern´e est le Mod`ele Alpha-7 (R´ef. A7-456), dont la livraison est retard´ee de 3 jours. Proposez-lui en compensation un bon d’achat de 15% valable sur sa prochaine commande. LLM - v2.0 17 / 32 Utilisation d’un LLM : l’art du bon prompt Etape 4 : ´ Evaluer ´ Analyser le r´esultat obtenu V´erifier que la r´eponse : R´epond bien `a la demande Respecte le style et le ton attendus Est coh´erente, correcte et exploitable ON ´evalue la r´eponse (Mistral 7B v0.3 Subject : D´esol´e pour le retard de livraison de votre Mod`ele Alpha-7 (R´ef. A7-456) Ch`ere Mme. Dubois, Je tiens `a vous exprimer mes plus sinc`eres regret pour le retard de livraison de votre Mod`ele Alpha-7 (R´ef. A7-456). Nous sommes conscients de la grande importance de ce produit pour vos besoins et sommes d´esol´es de la gˆene que cela peut causer. Nous avons pris toutes les mesures n´ecessaires pour acc´el´erer la production et la livraison de votre commande, et nous esp´erons que vous recevez votre Mod`ele Alpha-7 d’ici 3 jours. En tant que geste de remerciement pour votre patience, nous vous offrons un bon d’achat de 15% valable sur votre prochaine commande pour un produit de notre boutique. Cette offre sera applicable jusqu’`a la fin du mois prochain et sera envoy´ee par courriel d`es que votre commande sera livr´ee. Nous sommes d´esol´es pour l’inconvenient occasionn´e et nous esp´erons que nous pouvons continuer `a vous satisfaire avec nos produits et notre service de qualit´e. N’h´esitez pas `a nous contacter si vous avez des questions ou des pr´eoccupations suppl´ementaires. Avec mes salutations les plus chaleureuses, [Votre nom] [Votre titre] [Votre num´ero de t´el´ephone] [Votre adresse email] LLM - v2.0 18 / 32 Utilisation d’un LLM : l’art du bon prompt Etape 5 : It´erer ´ Am´eliorer le prompt progressivement Modifier le prompt selon le r´esultat : Ajouter des pr´ecisions Changer le ton ou le style Fournir de nouveaux exemples Am´elioration Description Prompt Demander de rendre les excuses plus sinc`eres/chaleureuses, et d’ajouter une phrase pour rassurer sur la qualit´e du produit malgr´e le retard. R´e´ecris cet e-mail. Rends la phrase d’excuse beaucoup plus chaleureuse et sinc`ere. Ajoute une phrase pour rassurer Mme. Dubois que ce retard n’affecte en rien la qualit´e du produit final. LLM - v2.0 19 / 32 Utilisation d’un LLM : l’art du bon prompt R´esultat final Subject : D´esol´e pour le retard de livraison de votre Mod`ele Alpha-7 (R´ef. A7-456) Ch`ere Mme. Dubois, Je tiens `a vous exprimer mes plus sinc`eres regrets pour le retard de livraison de votre Mod`ele Alpha-7 (R´ef. A7-456). Nous sommes tr`es d´esol´es de la gˆene que nous avons caus´ee et nous avons pris toutes les mesures n´ecessaires pour acc´el´erer la production et la livraison de votre commande. Nous sommes conscients de la grande importance de ce produit pour vos besoins et sommes tr`es heureux de vous en offrir le meilleur produit possible. Nous assurons `a nouveau que ce retard ne va en aucun cas affecter la qualit´e du produit final. En tant que geste de remerciement pour votre patience, nous vous offrons un bon d’achat de 15% valable sur votre prochaine commande pour un produit de notre boutique. Cette offre sera applicable jusqu’`a la fin du mois prochain et sera envoy´ee par courriel d`es que votre commande sera livr´ee. Nous sommes d´esol´es pour l’inconvenient occasionn´e et nous esp´erons que nous pouvons continuer `a vous satisfaire avec nos produits et notre service de qualit´e. N’h´esitez pas `a nous contacter si vous avez des questions ou des pr´eoccupations suppl´ementaires. Avec mes salutations les plus chaleureuses, [Votre nom] [Votre titre] [Votre num´ero de t´el´ephone] [Votre adresse email] LLM - v2.0 20 / 32 Chaine de pens´ee Exemple de probl`eme Probl`eme de prommes La caf´et´eria avait 23 pommes. S’ils en ont utilis´e 20 pour le d´ejeuner et en ont achet´e 6 de plus, combien de pommes ont-ils maintenant ? Exemple de r´eponse (mistral/Mistral-7B-Instruct-v0.3) avec une temp´erature de 0 Il reste 23 - 20 (utilis´ees) + 6 (achet´ees) = 7 pommes dans la caf´et´eria. LLM - v2.0 21 / 32 Chaine de pens´ee Chaine de Pens´ee (Chain of Thought) Concept de la Chaine de Pens´ee Technique pour am´eliorer les capacit´es de raisonnement des LLM Encourage le mod`ele `a d´ecomposer un probl`eme complexe en ´etapes plus simples Permet une meilleure compr´ehension et r´esolution des tˆaches Qui, quand, quels r´esultats, pour quels LLM Introduit par Google en 2022 : “Chain of Thought Prompting Elicits Reasoning in Large Language Models” Utilis´e dans des tˆaches de math´ematiques, logique, planification Am´elioration significative des performances sur des benchmarks complexes : GSM8K, MATH, etc. Inclus aujourd’hui dans les ChatBots modernes, mais doit ˆetre explicite dans le prompt des petits mod`eles LLM - v2.0 22 / 32 Chaine de pens´ee Retour sur le probl`eme initial Probl`eme de pommes R´esous ce probl`eme en expliquant clairement chaque ´etape du calcul. Pour chaque ´etape, ´ecris : Ce que tu fais Le calcul exact Le r´esultat interm´ediaire Ensuite v´erifie ton r´esultat final en refaisant mentalement l’addition finale. Probl`eme : ”La caf´et´eria avait 23 pommes. Elle en a utilis´e 20 pour le d´ejeuner et en a achet´e 6 de plus. Combien de pommes a-t-elle maintenant ? Exemple de r´eponse (mistral/Mistral-7B-Instruct-v0.3) avec une temp´erature de 0 **Etape 1 : D´eterminer le nombre de pommes restantes apr`es le d´ejeuner.** Ce que tu fais : ´ Soustraire le nombre de pommes utilis´ees au nombre total initial. Le calcul exact : 23 (total initial) - 20 (pommes utilis´ees) Le r´esultat interm´ediaire : 3 pommes restantes **Etape 2 : ´ Ajouter le nombre de pommes achet´ees.** Ce que tu fais : Ajouter le nombre de pommes achet´ees au nombre de pommes restantes. Le calcul exact : 3 (pommes restantes) + 6 (pommes achet´ees) Le r´esultat interm´ediaire : 9 pommes **Etape 3 : V´erifier le r´esultat ´ final.** Ce que tu fais : V´erifier mentalement si le nombre de pommes est correct en additionnant le nombre initial, les pommes utilis´ees et les pommes achet´ees. Le calcul exact : 23 (total initial) - 20 (pommes utilis´ees) + 6 (pommes achet´ees) Le r´esultat final : 9 pommes Le r´esultat final est donc de 9 pommes. LLM - v2.0 23 / 32 RAG Retrieval Augmented Generation (RAG) Constats Les LLM ont une connaissance limit´ee `a leur date de coupure Les LLM sont pour la plupart g´en´eraliste, non sp´ecialis´e `a un domaine Le finetuning est coˆuteux en temps et en ressources Principe Combiner un LLM avec une base de connaissances externe R´ecup´erer des informations pertinentes avant de g´en´erer une r´eponse Permet d’avoir des r´eponses `a jour et sp´ecialis´ees LLM - v2.0 24 / 32 RAG Architecture d’un syst`eme RAG Composants cl´es Base de connaissances : documents, articles, FAQ, etc. Moteur de recherche : indexation et r´ecup´eration des informations pertinentes LLM : g´en´eration de r´eponses en utilisant les informations r´ecup´er´ees Processus 1 L’utilisateur pose une question 2 Le moteur de recherche r´ecup`ere les documents pertinents 3 Le prompt est cr´e´e en combinant la question et les documents 4 Le LLM g´en`ere une r´eponse LLM - v2.0 25 / 32 RAG Exemple de RAG NotebookLM D´evelopp´e par Google : https://notebooklm.google.com/ Un notebook = une base de connaissances sp´ecialis´ee a sur un domaine (au maximum 50 documents pour la version gratuite) Il est possible (en 2025) en utilisant tout ou partie de la base de connaissances de : de poser des questions ⇒ r´eponses avec citations de g´en´erer des r´esum´es (audio ou vid´eo) de g´en´erer des exercices (quizz, flashcard) de g´en´erer des rapports ou des pr´esentations a. PDF, .txt, Markdown, audio (Ex. MP3), .docx, .avif, .bmp, .gif, .ico, .jp2, .png, .webp, .tif, .tiff, .heic, .heif, .jpeg, .jpg, .jpe Attention Si c’est gratuit, c’est toi le produit ! LLM - v2.0 26 / 32 Enjeux et Perspectives D´efis et Limitations des LLM 1 / 2 Hallucinations et Fiabilit´e Les mod`eles peuvent g´en´erer des informations incorrectes ou fictives Pas de r´eelle compr´ehension du monde, uniquement une probabilit´e d’apparition des mots Risque d’utilisation dans la d´esinformation et la manipulation Biais et Ethique ´ L’entraˆınement sur des donn´ees biais´ees peut entraˆıner des r´eponses discriminatoires Possibilit´e de renforcer des st´er´eotypes sociaux ou culturels Besoin de supervision humaine pour ´eviter des d´erives LLM - v2.0 27 / 32 Enjeux et Perspectives D´efis et Limitations des LLM 2 / 2 Coˆut Computationnel et Impact Environnemental Entraˆınement n´ecessitant des milliers de GPU/TPU pendant plusieurs semaines Empreinte carbone significative due `a la consommation ´energ´etique ´elev´ee Recherche en cours sur des mod`eles plus efficients et moins gourmands en ressources Probl`emes L´egaux et S´ecurit´e Protection des donn´ees personnelles et conformit´e aux r´egulations (RGPD, etc.) Risque d’utilisation malveillante (fraude, deepfakes, etc.) Attribution et droit d’auteur : Qui est propri´etaire du contenu g´en´er´e ? LLM - v2.0 28 / 32 Enjeux et Perspectives Futurs D´eveloppements des LLM 1 / 3 Mod`eles Plus Efficaces et Accessibles D´eveloppement de mod`eles plus l´egers et optimis´es pour r´eduire la consommation ´energ´etique Open-source, open-poids et mod`eles personnalisables pour une adoption plus large Int´egration d’algorithmes permettant un entraˆınement plus rapide et moins coˆuteux Am´elioration de la Compr´ehension et du Raisonnement Renforcement des capacit´es de raisonnement logique et math´ematique Int´egration de la m´emoire contextuelle pour des interactions plus longues et coh´erentes Mod`eles hybrides combinant bases de connaissances et LLM pour plus de pr´ecision LLM - v2.0 29 / 32 Enjeux et Perspectives Futurs D´eveloppements des LLM 2 / 3 D´eveloppement des IA Multimodales Capacit´e d’analyse et de g´en´eration de texte, d’images, de vid´eos et de sons combin´es Fusion entre LLM et reconnaissance d’images pour am´eliorer l’interaction Utilisation dans des applications comme la r´ealit´e augment´ee et virtuelle Agentification des LLM D´eveloppement d’IA autonomes capables d’interagir avec des outils externes et d’ex´ecuter des tˆaches complexes Int´egration avec des API, bases de donn´ees et syst`emes informatiques pour agir comme des assistants intelligents Capacit´e d’adaptation en fonction du contexte et des retours utilisateurs pour des interactions plus efficaces Evolution vers des agents multi-´etapes capables de planifier et d’ex´ecuter des ´ tˆaches longues et strat´egiques LLM - v2.0 30 / 32 Enjeux et Perspectives Futurs D´eveloppements des LLM 3 / 3 Meilleure Explicabilit´e et S´ecurit´e Transparence accrue sur la mani`ere dont les mod`eles prennent leurs d´ecisions Int´egration de filtres plus avanc´es pour limiter les biais et les contenus nuisibles Renforcement des m´ecanismes de v´erification des faits pour ´eviter les hallucinations LLM - v2.0 31 / 32 Enjeux et Perspectives Conclusion Synth`ese Les LLM r´evolutionnent le traitement automatique de la langue De nombreuses applications Pour le grand public IA = LLM Leur acc`es est standardis´e Pour avoir des bons r´esultats, il faut utiliser des bons prompts Il y a encore beaucoup de probl`eme `a r´esoudre, mais la recherche est tr`es productive dans ce domaine LLM - v2.0 32 / 32