-
サマリー
あらすじ・解説
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Google et l'IA générative, la compression des modèles d'IA, et les avancées en géospatial. C’est parti !Commençons par Google, qui a récemment rappelé aux éditeurs de sites web que la création massive de contenu via l'intelligence artificielle est considérée comme du spam, sauf si elle est originale et apporte une réelle valeur ajoutée. Pourtant, l'algorithme Discover de Google met en avant des sites générés par IA, dont certains diffusent des rumeurs et des fausses informations. Parmi les 3 500 sites identifiés, une quarantaine ont été promus par Discover, générant des revenus publicitaires conséquents. Ces pratiques vont à l'encontre des règles de Google, qui a commencé à pénaliser certains sites après un reportage de France 2. Environ 50 % des documents indexés par Google sont considérés comme du spam, ce qui soulève des critiques sur le respect de ses propres règles.Passons maintenant à Multiverse Computing, qui a annoncé la sortie de deux nouveaux modèles compressés par leur technologie CompactifAI : Llama 3.1-8B et Llama 3.3-70B. Ces modèles ont été compressés à 80 %, réduisant les paramètres de 60 % par rapport aux originaux. Cette compression permet une efficacité énergétique accrue de 84 %, une inférence 40 % plus rapide, et une réduction des coûts de 50 %, tout en maintenant une précision quasi intacte. CompactifAI utilise des réseaux de tenseurs inspirés par la physique quantique, permettant de réduire la taille des modèles jusqu'à 93 % avec une perte de précision minimale. Ces modèles sont déjà utilisés par de grandes banques et entreprises, et sont disponibles via API sur la plateforme CompactifAI.Enchaînons avec les modèles de langage de grande taille (LLM) et leur application dans les systèmes RAG, ou génération augmentée par récupération. Ces systèmes connectent les modèles à des sources d'information externes, augmentant leur fiabilité. Une comparaison entre LLaMA 4 Scout de Meta et GPT-4o d'OpenAI a montré des comportements distincts. LLaMA 4 génère des réponses même avec un contexte insuffisant, tandis que GPT-4o préfère ne pas répondre sans contexte pertinent. Cette différence souligne l'importance de l'ancrage factuel dans les systèmes RAG.Enfin, Google Research a introduit de nouveaux modèles de base géospatiaux dans le cadre du projet Geospatial Reasoning. Ces modèles utilisent l'IA générative pour résoudre des problèmes géospatiaux, utiles dans des domaines comme la santé publique et la résilience climatique. Les modèles, tels que le Population Dynamics Foundation Model, ont été testés par plus de deux cents organisations et seront étendus à d'autres pays. Google explore également comment l'IA générative peut réduire le coût et le temps nécessaires pour combiner les capacités géospatiales, avec des modèles comme Gemini capables de gérer des données complexes.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.