Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : traitement des transcriptions vidéo avec des modèles de langage, défis de Wikimedia face aux robots de scraping, perspectives sur le marché des LLM, et innovations en interfaces cérébrales. C’est parti !Commençons par Federico Viticci, qui a récemment exploré l'utilisation de l'outil en ligne de commande LLM de Simon Willison pour traiter les transcriptions de vidéos YouTube sur macOS. Cet outil permet d'interagir avec des modèles de langage hébergés dans le cloud, comme Claude et Gemini, directement depuis le terminal. Viticci a créé un raccourci sur son Mac pour reformater les transcriptions de vidéos sans modifier le contenu original. Il a constaté que Claude suivait mieux les instructions détaillées, bien que l'API d'Anthropic puisse être coûteuse. En revanche, Gemini 2.5 Pro, gratuit pendant sa phase expérimentale, offre une grande fenêtre de contexte, idéale pour traiter de grandes quantités de texte. Cependant, Viticci a rencontré des limites de taux d'API et espère une disponibilité générale pour Gemini 2.5 Pro.Passons maintenant à Wikimedia, qui fait face à une augmentation exponentielle des requêtes automatisées pour son contenu, principalement alimentée par des robots de scraping. Depuis janvier 2024, la bande passante utilisée pour télécharger du contenu multimédia a augmenté de 50 %. Environ 65 % du trafic le plus coûteux provient de robots, ce qui impose une charge significative sur l'infrastructure de Wikimedia. Cette situation a été illustrée lors du décès de Jimmy Carter en décembre 2024, où sa page Wikipédia a enregistré plus de 2,8 millions de vues en une journée. La Fondation Wikimedia doit gérer ces pics de trafic tout en maintenant l'accès pour les utilisateurs humains.En parlant de l'avenir des modèles de langage, John-David Lovelock de Gartner Research prévoit une "extinction" des fournisseurs de LLM, estimant que le marché ne pourrait soutenir que trois grands acteurs. Il souligne que chaque dollar dépensé pour les LLM est retiré d'un autre budget, ce qui n'est pas favorable, étant donné que de nombreux projets d'IA échouent. Malgré cela, Lovelock reste optimiste quant à l'intégration de l'IA générative dans divers appareils et logiciels, bien que cela dépende de la volonté des entreprises d'écouter les exigences du marché.Enfin, une avancée en interfaces cérébrales permet de traduire les pensées en discours intelligible en temps quasi réel. Ce système repose sur un modèle d'IA qui décode l'activité électrique du cortex sensorimoteur du cerveau. Cette technologie pourrait transformer la communication pour les personnes atteintes de handicaps sévères, bien que des questions éthiques et de sécurité subsistent. Des chercheurs de l'université de Duke travaillent également sur des implants cérébraux capables de décoder les signaux cérébraux en paroles, ouvrant la voie à de nouvelles formes de communication.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.