Cycle de conférences "Un texte un mathématicien" - "La théorie de l'apprentissage de Vapnik et les progrès récents de l'IA" par Yann Le Cun
"L'explosion récente de l'intelligence artificielle et de ses applications est due en grande partie à l'utilisation de l'apprentissage machine, particulièrement des techniques d'apprentissage profond. Les idées fondatrices de l'apprentissage machine remontent aux années 50, et celles de l'apprentissage profond aux année 80. Les applications pratiques ont explosé ces dernières années, des voitures autonomes à la traduction, la recherche d'information et la médecine personnalisée. Mais que dit la théorie ? La formulation mathématique la plus générale des processus d'apprentissage est celle du mathématicien Russe émigré aux Etats-Unis Vladimir Vapnik. Dans son petit livre publié en 1995 "La Nature de la Théorie Statistique de l'Apprentissage", Vapnik décrit les conditions générales dans lesquelles un système, informatique ou biologique, peut apprendre une tâche, et à quelle vitesse. Mais cette théorie générale n'explique pas pourquoi les méthodes modernes d'apprentissage profond fonctionnent si bien, bien mieux que les méthodes plus simples mais mathématiquement mieux comprises. Conférence du cycle "Un texte, un mathématicien". Le 4 avril 2018 à la Bibliothèque Nationale de France."Voir également :
Parent Directory - Apprendre-les-langue..> 2024-07-09 17:58 5.3K But-what-is-a-GPT-Vi..> 2024-07-08 18:17 5.3K FORMATION-DEEP-LEARN..> 2024-07-09 11:28 7.6K GPT-4o-est-arrivee-L..> 2024-05-28 14:54 5.4K Il-etait-une-fois-Ch..> 2024-05-27 09:49 5.5K Intelligence-artific..> 2024-07-05 08:41 5.3K L-Intelligence-Artif..> 2024-07-04 18:23 5.4K L-apprentissage-prof..> 2024-07-08 18:09 5.3K Le-pere-fondateur-du..> 2024-07-04 18:23 5.4K Mais-qu-est-ce-qu-un..> 2024-07-05 16:35 5.3K Perdons-nous-le-cont..> 2024-05-27 09:58 5.5K