エピソード

  • L'IA aujourd'hui épisode du 2026-01-07
    2026/01/07
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : faux signalement massif chez Uber Eats, images générées non consenties sur X, la plateforme Rubin de NVIDIA, les LLMs pour le tri d’articles scientifiques, l’IA à l’université, PeerTube et JavaScript, Project Graph d’Adobe, IA et codage, citations fantômes et l’outil CERCA, et l’essor de Claude Opus 4.5.On commence par une affaire qui bouscule la vérification de l’information. Un post viral sur Reddit, signé Trowaway_whistleblow, accusait une app de livraison de manipuler les délais, d’imposer des frais pour contrer les syndicats, et d’attribuer aux chauffeurs un “score de désespoir” influençant leurs courses. Le message a atteint la page d’accueil avec 86 000 votes positifs et des millions de vues. Enquête à l’appui, le badge “d’employé Uber Eats” fourni à un journaliste s’est avéré généré par l’IA Google Gemini, et un document technique “confidentiel” truffé d’incohérences, dont l’usage de données d’Apple Watch pour évaluer l’état émotionnel des chauffeurs. Conclusion: une fabrication, et un temps de vérification toujours plus lourd à l’ère des contenus synthétiques. Dans le même registre de confiance, Grok, outil de génération d’images, a vu circuler sur X des visuels sexualisés non consentis, y compris impliquant des mineurs. Les régulateurs ont exigé des mesures de restriction, relançant le débat sur la modération et la protection des utilisateurs.Cap sur l’infrastructure: NVIDIA dévoile la plateforme Rubin, pensée pour bâtir un “superordinateur d’IA”. Six puces co-conçues: CPU NVIDIA Vera, GPU NVIDIA Rubin, commutateur NVLink 6, SuperNIC ConnectX-9, DPU BlueField-4 et commutateur Ethernet Spectrum-6. Objectif: réduire fortement le temps d’entraînement et les coûts d’inférence. Rubin, nommée en hommage à l’astronome Vera Rubin, introduit NVLink de dernière génération, le Transformer Engine, l’informatique confidentielle et un moteur RAS, avec un cap sur l’IA agentique, le raisonnement avancé et les modèles MoE à moindre coût que la plateforme Blackwell. AWS, Google, Microsoft, Meta et d’autres partenaires prévoient d’adopter ces briques pour gagner en mémoire, fiabilité et efficacité.Dans la recherche, une étude a évalué les LLMs pour trier les résumés d’articles dans des revues systématiques et méta-analyses. Des scripts Python ont piloté ChatGPT v4.0 et v3.5, Google PaLM 2, Meta Llama 2, puis les versions récentes: gpt-4.0 turbo, gpt-3.5 turbo, Google Gemini 1.0 pro, Llama 3, et Claude 3. Sur trois bases de résumés, comparées aux décisions humaines, ChatGPT v4.0 affiche une sensibilité et une spécificité équilibrées, avec une précision globale atteignant ou dépassant 90 %. Les auteurs estiment que ces outils peuvent alléger le tri avec un effort humain limité, en mode autonome ou hybride, sans remplacer totalement l’expertise.Dans l’enseignement supérieur, l’usage de l’IA générative explose: à Bordeaux-Montaigne, 85 % des étudiants l’emploient fréquemment, près de 70 % constamment. Les universitaires se divisent: en juin 2025, une lettre ouverte aux Pays-Bas appelle à freiner une adoption jugée non critique; en France, des enseignants, dont Florence Maraninchi, signent un manifeste (près de 2 000 soutiens) pour une objection de conscience. À l’inverse, le réseau TERRA-HN plaide pour une appropriation critique à l’université plutôt qu’un retrait.Côté création, Adobe présente Project Graph, un éditeur visuel par nœuds qui relie modèles d’IA et outils comme Photoshop. Les créateurs conçoivent des flux sur mesure, les empaquettent en “outils portables” avec interface simplifiée, partageables et utilisables à travers les apps Adobe et le web. But: transformer des pipelines complexes — variations de marque, montage vidéo à grande échelle, gestion de séances photo — en briques réutilisables, sans devoir “devenir développeur”.Sur le développement logiciel, le débat s’intensifie. Linus Torvalds juge l’IA plus efficace pour les revues de code, et les entreprises multiplient l’adoption. Mais une étude associe GitHub Copilot à une hausse de 41 % des bogues. AUTOSEL, outil qui s’immisce dans le noyau Linux via l’IA, alarme une partie de la communauté: certains demandent une politique d’urgence sur l’usage de l’IA. Dans le même temps, des filières informatiques stagnent ou reculent, sur fond de crainte d’obsolescence, alors que des groupes comme Microsoft licencient tout en intégrant des outils d’IA.Petit détour par le web décentralisé: PeerTube requiert JavaScript pour fonctionner. Si vous le désactivez, la page ne s’affiche pas. Les utilisateurs soucieux de sécurité peuvent consulter le code de l’instance, chercher des audits, ou utiliser des ...
    続きを読む 一部表示
    7 分
  • L'IA aujourd'hui épisode du 2026-01-06
    2026/01/06
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : pubs dans ChatGPT, stabilité d’entraînement avec DeepSeek mHC, agents autonomes en centres de contact, médias face à la genIA, secousses SEO chez Google, IA et difficulté des examens, matériel vocal d’OpenAI, virage d’Instagram vers l’authenticité.D’abord, ChatGPT pourrait intégrer de la publicité. Des échanges internes chez OpenAI envisagent un “traitement préférentiel” des résultats sponsorisés. Exemple cité : demander un dosage d’ibuprofène et voir s’afficher une mention pour Advil, avec le reste relégué plus bas. Le service revendique 900 millions d’utilisateurs hebdomadaires. Pour limiter le rejet, un modèle testé ne montrerait des pubs qu’à partir de la deuxième interaction, et du code repéré dans la bêta Android mentionne “publicités de fonctionnalités” et “carrousel de publicités de recherche”. OpenAI dit explorer des formats “conçus pour respecter la confiance”.On enchaîne avec DeepSeek et sa nouvelle architecture mHC, Manifold-Constrained Hyper-Connections. Objectif : stabiliser l’entraînement des grands modèles en contraignant les matrices de mélange au polytope de Birkhoff, où chaque ligne et colonne somme à 1. Testée de 3 à 27 milliards de paramètres, la méthode canalise le flux de signal, là où les Hyper-Connexions classiques peuvent amplifier jusqu’à x3000. mHC s’appuie sur Sinkhorn-Knopp pour normaliser, évite d’avoir recours au gradient clipping, et cible surtout H_res, la matrice appliquée aux résidus, rendue doublement stochastique. Résultat annoncé : gains de stabilité et d’évolutivité sur des entraînements longs.Dans les centres de contact, les agents autonomes passent la vitesse supérieure. Au-delà des réinitialisations de mots de passe, ces systèmes perçoivent le contexte, planifient et agissent à travers CRM, commandes, finance et logistique. Gartner anticipe 80 % des problèmes résolus de façon autonome d’ici 2028. Déploiements concrets : Bosch opère plus de 90 agents avec 76 % de résolution au premier contact ; Heathrow rapporte plus de 30 % de revenus supplémentaires après un engagement proactif automatisé. À la clé, des économies — des cas montrent plus de 800 000 dollars par an — mais avec des garde-fous ; Puzzel décrit une courbe de maturité en cinq étapes pour éviter de brûler les étapes. Côté offre, on voit Agentforce, et NiCE avec CXone Mpower Agents.Place aux médias face à l’IA générative. Plus d’un quart des Français consultent des sites d’infos générées par IA, souvent mis en avant par les plateformes. Parallèlement, les contenus de presse sont exploités pour entraîner des modèles sans consentement ni rémunération. Des pistes se dessinent : valoriser les droits d’auteur via des licences tarifées, mobiliser le droit des marques et le droit “sui generis” des bases de données, et outiller la détection des bots. Le terrain juridique reste mouvant : au Royaume-Uni, l’affaire Getty Images contre Stability AI n’a pas tourné à l’avantage des auteurs ; en Allemagne, l’industrie musicale a gagné contre OpenAI. La CJUE devra trancher pour l’UE.Côté SEO, Google a terminé sa mise à jour principale de décembre 2025, avec de fortes baisses de trafic pour certains éditeurs d’actualité. Le moteur teste aussi des “recettes Frankenstein” générées par IA, critiquées pour leur qualité, et relativise l’intérêt des ccTLD pour le référencement international. Autres tests : icônes de haut-parleur dans les aperçus IA aux États-Unis, et évolution du bouton Gemini dans Chrome. Bing étend “Les gens demandent aussi”. Microsoft Advertising ajoute des colonnes personnalisées et un onglet pour gérer tous les comptes. La communauté pleure Andy Drinkwater, référence du SEO.Sur l’éducation, une étude montre que les LLM évaluent mal la difficulté des questions pour les humains. Mesurée par la corrélation de Spearman, la moyenne reste sous 0,50 : GPT-5 atteint 0,34, quand GPT-4.1 fait 0,44. Les modèles sous-estiment la difficulté, échouent à “jouer” des étudiants plus faibles, et ne prédisent pas bien leurs propres limites. Piste proposée : entraîner sur des données d’erreurs d’élèves. En parallèle, en Allemagne, “rédaction et édition” domine les usages d’OpenAI, avec “tutorat et éducation” juste derrière. Andrej Karpathy défend une “classe inversée” : examens à l’école, apprentissage assisté par IA à la maison.Autre front, le matériel grand public d’OpenAI. L’entreprise accélère avec un modèle IA orienté voix pour une première génération d’appareils, soutenue par l’acquisition de io Products pour 6,5 milliards de dollars. Objectif : rivaliser avec Apple, qui refond la recherche de Siri, et avec Amazon et son Nova Sonic pour ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-05
    2026/01/05
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un modèle multimodal compact qui tient la distance, une interface web interactive chez Google, l’IA agentique à l’honneur, l’offensive TPU v7 de Google, le parcours d’Arthur Mensch, et un guide pour mieux travailler avec l’IA.On ouvre avec T5Gemma-2, nouveau venu de la famille Gemma 3. Ce modèle encodeur‑décodeur multimodal aligne 270 millions de paramètres et tourne sur un ordinateur portable. Ses embeddings encodeur‑décodeur sont liés, ce qui réduit le nombre total de paramètres, et son décodeur fusionne attention auto et croisée en une seule couche, simplifiant l’architecture et facilitant la parallélisation en inférence. Côté usages, il traite texte et images simultanément et accepte jusqu’à 128 000 tokens grâce à une attention local‑global héritée de Gemma 3. En pratique, un analyste peut donner une capture d’écran d’un graphique de ventes et une consigne textuelle : le modèle repère le mois au plus haut revenu et calcule l’écart à la moyenne trimestrielle. Entraîné sur plus de 140 langues, plus petit et plus flexible que ses prédécesseurs, il cible des machines standard tout en gérant documents longs et tâches multimodales.On reste chez Google avec “vue dynamique” de Gemini, une expérimentation disponible via un bouton sur la version web dans certains pays, dont les États‑Unis. Plutôt qu’un texte statique, l’assistant génère de mini‑pages web interactives : éléments graphiques cliquables, images, animations, informations organisées pour planifier un voyage, structurer des tâches ou comparer des produits sans quitter la page. Limites : l’outil ne capte pas l’intuition humaine — par exemple la perception d’une taille de vêtement — et ces interactions nourrissent la collecte de données. Service gratuit pour l’instant, il pourrait intégrer de la publicité à terme.Cap sur le mot numérique 2025 : “IA agentique”. À la différence de l’IA générative centrée sur la production de contenu, ces agents poursuivent un objectif et prennent des décisions avec peu d’intervention humaine. Exemples : lire les e‑mails, isoler ceux liés aux factures, extraire les montants, alimenter un logiciel comptable, puis envoyer le message de confirmation ; ou encore gérer un agenda, trouver un créneau, réserver un restaurant selon des préférences, et créer l’événement. D’autres termes cités : détox numérique et dégafamisation ; plus loin, hyperscaler, shadowban, vishing, algospeak, numéricovigilance. “IA slop” désigne les contenus générés de faible qualité. Le palmarès des années passées mentionne IA frugale, numérique responsable, métavers.Côté infrastructure, Google prépare pour 2026 le déploiement massif de sa TPU v7 “Ironwood”. Changement d’échelle : la conception passe du serveur au rack, avec matériel, réseau, alimentation et logiciels intégrés au niveau système pour l’entraînement et l’inférence à large échelle. Les TPU, ASIC dédiés à l’IA, reposent sur des matrices statiques avec flux de données et noyaux prédéfinis, quand les GPU lancent dynamiquement des noyaux à l’exécution ; malgré cela, l’écosystème CUDA de Nvidia reste un atout majeur et le portage des bases de code coûteux. Ironwood adopte un design à double puce pour le rendement et le coût, conserve le refroidissement liquide, et mise sur la commutation de circuits optiques pour relier les racks : latence réduite, bande passante stable pour des entraînements longs. Un rack compte 64 puces ; un cluster monte à 144 racks, soit 9 216 TPU synchrones. En 2026, environ 36 000 racks seraient déployés, nécessitant plus de 10 000 commutateurs optiques. La consommation par puce est estimée entre 850 et 1 000 W, jusqu’à 100 kW par rack, avec distribution d’énergie avancée et secours par batterie. La production totale pourrait atteindre 3,2 millions de TPU, mais une expertise poussée de la pile logicielle Google reste nécessaire ; pour la plupart des acteurs, les GPU devraient rester dominants.Portrait rapide d’Arthur Mensch, né en 1992 à Sèvres. Polytechnique, Télécom Paris et Paris‑Saclay, thèse à l’Inria sur l’optimisation stochastique et l’analyse prédictive d’images cérébrales en IRM fonctionnelle. En 2020, il rejoint DeepMind sur les LLM et les systèmes multimodaux. En 2023, il cofonde Mistral AI avec Guillaume Lample et Timothée Lacroix : modèles ouverts et interopérables, valorisation en milliards, partenariats avec Microsoft et Nvidia. Il met en avant le contrôle des modèles et une trajectoire européenne de souveraineté.On termine par un mode d’emploi pour mieux travailler avec l’IA d’ici 2026. Clarifier la communication : prompting spécifique au domaine, changement de perspective,...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-04
    2026/01/04
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un nouveau modèle multimodal taillé pour l’ordinateur portable, une interface web expérimentale plus visuelle, l’IA agentique au centre des usages, un guide pratique pour travailler mieux avec l’IA, de grands mouvements industriels, et le parcours d’Arthur Mensch.On ouvre avec T5Gemma-2, dernier-né de la famille Gemma 3. Ce modèle encodeur-décodeur multimodal compte 270 millions de paramètres et fonctionne sur un ordinateur portable. Il traite texte et images grâce à un encodeur de vision efficace et s’appuie sur des embeddings liés entre l’encodeur et le décodeur, ce qui réduit le nombre total de paramètres sans sacrifier les capacités. Autre choix d’architecture, une attention fusionnée côté décodeur qui regroupe auto- et cross-attention en une seule couche, pour simplifier et mieux paralléliser l’inférence. Le modèle gère des contextes jusqu’à 128 000 tokens via une attention local‑global héritée de Gemma 3, et il est massivement multilingue, entraîné sur plus de 140 langues. En pratique, il peut analyser un tableau de bord de ventes à partir d’une image et d’un prompt textuel, déterminer le mois au revenu le plus élevé et calculer l’écart à la moyenne trimestrielle. Il affiche des performances robustes en multilingue, multimodalité, raisonnement et long contexte, et dépasse les Gemma 3 de taille équivalente, limités au texte, sur les tâches multimodales.Restons chez Google avec “la vue dynamique” de Gemini. En phase expérimentale et disponible via un bouton sur la version web dans certains pays, notamment aux États‑Unis, elle génère des mini‑pages web interactives en réponse à une requête. On y trouve des éléments graphiques manipulables, des images, des animations et des onglets pour organiser l’information. L’approche veut dépasser la réponse purement textuelle. Limites à noter : Gemini ne peut pas trancher des aspects subjectifs, comme un ressenti personnel sur un produit. Et comme d’autres IA génératives, le service exploite des données utilisateurs pour s’améliorer, avec des questions associées de confidentialité. Gratuit pour l’instant, il pourrait demain intégrer publicités ou liens d’affiliation pour assurer sa monétisation.Côté usages, “IA agentique” a été élu mot numérique de l’année 2025. L’agent ne se contente pas de générer du contenu : il enchaîne des décisions pour atteindre un objectif, seul ou en coordination avec d’autres. Exemples concrets : lire des e‑mails, isoler ceux liés aux factures, extraire les données, les saisir dans un logiciel comptable et envoyer une confirmation au fournisseur ; ou encore analyser un agenda, repérer les créneaux libres, réserver un restaurant selon des préférences et ajouter l’événement au calendrier. D’autres termes étaient en lice, comme détox numérique et dégafamisation, ainsi que hyperscaler, shadowban, vishing, algospeak et numéricovigilance. Parmi les suggestions, cyberpunk, cyberdystopie, intellition, asservissement numérique, shadow IA, et “IA slop” pour qualifier un contenu généré en masse, de faible qualité, qui brouille la visibilité des créations humaines.Dans la même veine pratique, un guide propose d’atteindre un haut niveau d’efficacité d’ici 2026. Les axes clés : mieux communiquer avec l’IA via du prompting spécifique au domaine, changement de perspective, boucles d’auto‑évaluation et “reverse prompting” pour expliciter le raisonnement ; s’appuyer sur des outils d’optimisation de prompts adaptés à ChatGPT ou Gemini ; choisir un modèle, en maîtriser forces et limites, puis étendre à d’autres. Côté méthode, structurer le contexte et les entrées, standardiser les formats, combiner contrôles automatisés et relecture humaine pour fiabilité. L’approche recommande d’orchestrer plusieurs outils et d’automatiser avec Zapier ou Make.com, voire d’assembler des capacités avec LangChain. Enfin, auditer régulièrement les automatisations, supprimer les redondances et garder l’IA comme partenaire, pas comme pilote unique.Passons aux grands mouvements industriels. SoftBank aurait finalisé un investissement de 41 milliards de dollars dans OpenAI, apportant un soutien financier majeur à ses recherches et à son expansion. Neuralink vise l’automatisation des chirurgies d’implants cérébraux et une production de masse d’ici 2026, avec l’ambition d’interfacer cerveau et ordinateur pour traiter des pathologies neurologiques. Aux États‑Unis, l’ancien président Donald Trump a bloqué l’accord de HieFo sur les actifs de puces d’Emcore, en invoquant la sécurité nationale. En Chine, ByteDance prévoit d’augmenter fortement ses achats de puces d’IA face à la demande pour les produits Nvidia. Sur l’inférence, Nvidia ...
    続きを読む 一部表示
    7 分
  • L'IA aujourd'hui épisode du 2026-01-03
    2026/01/03
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un modèle multimodal léger qui tourne sur portable, une interface Gemini plus visuelle, l’IA agentique à l’honneur, un guide pour doper votre pratique, la montée en puissance des TPU v7 de Google, et le parcours d’Arthur Mensch chez Mistral AI.D’abord, T5Gemma-2. Ce modèle encodeur-décodeur de la famille Gemma 3 concentre 270 millions de paramètres et fonctionne sur un ordinateur portable. Il est multimodal: texte et image sont traités ensemble via un encodeur de vision. Côté architecture, il relie les embeddings entre l’encodeur et le décodeur pour réduire les paramètres sans perdre en capacité, et fusionne l’attention auto-référentielle et l’attention croisée en une seule couche dans le décodeur, ce qui simplifie l’exécution et la parallélisation à l’inférence. Sa fenêtre contextuelle grimpe jusqu’à 128 000 tokens grâce à une attention local‑global alternée. Formé sur plus de 140 langues, il couvre des usages globaux et surpasse les Gemma 3 de taille équivalente (qui étaient textuels) en performances multimodales. Exemple concret: analyser une capture d’écran d’un tableau de bord de ventes et répondre à des questions chiffrées sans serveur dédié.Cap maintenant sur la “vue dynamique” de Gemini, une fonctionnalité expérimentale accessible via un bouton sur la version web dans certains pays, dont les États‑Unis. Plutôt qu’un simple texte, Gemini génère de petites pages interactives: images, animations, onglets. Utile pour planifier un voyage, organiser des tâches ou comparer des produits, le tout sans quitter le site de Gemini. Des limites subsistent: bugs d’affichage, zones non cliquables, et incapacité à saisir des ressentis comme le confort d’un vêtement. Cette approche illustre aussi les enjeux de données et de monétisation: aujourd’hui gratuit, ce type d’assistant pourrait intégrer demain publicités ou liens d’affiliation.Sur le terrain des usages, “IA agentique” a été élu mot numérique de l’année 2025. L’idée: des agents capables de décider et d’enchaîner des actions pour atteindre un objectif, seuls ou en coopération, avec peu d’intervention humaine. Exemples: lire les e‑mails, détecter ceux liés aux factures, extraire les données, saisir dans un logiciel comptable, puis envoyer la confirmation; ou gérer votre agenda, trouver un créneau pour réserver un restaurant selon les préférences des invités, puis ajouter l’événement avec rappel. Le vote met aussi en avant “détox numérique” et “dégafamisation”, reflet de préoccupations sur la souveraineté technologique. D’autres termes cités: hyperscaler, shadowban, vishing, algospeak, numéricovigilance, ainsi que des propositions comme cyberpunk, cyberdystopie, intellition, asservissement numérique, shadow IA, IA slop, souvent liées aux risques de désinformation et de deepfakes.Dans la même veine pratique, un guide propose d’atteindre un niveau d’usage de l’IA supérieur à 99 % des utilisateurs d’ici 2026. Les clés: une communication précise (prompting spécifique au domaine, changement de perspective, boucles d’auto‑évaluation), le “reverse prompting” pour faire expliciter le raisonnement, et des outils d’optimisation de prompts adaptés à ChatGPT ou Gemini. Choisir et maîtriser un modèle à la fois avant d’en ajouter d’autres; structurer le contexte avec des formats d’entrée cohérents; vérifier la fiabilité via contrôles automatisés complétés par une revue humaine. Traiter l’IA comme un partenaire: partir des sorties comme base, injecter votre expertise et votre style. Pour aller plus loin, orchestrer plusieurs outils et automatiser avec Zapier, Make.com ou LangChain, tout en auditant régulièrement les workflows pour éliminer les redondances et rester aligné sur vos objectifs.Côté infrastructures, Google prépare pour 2026 un déploiement massif de sa septième génération de TPU, nom de code Ironwood. L’approche passe du serveur au rack comme unité de conception: intégration matériel‑réseau‑alimentation‑logiciel au niveau système. Ironwood adopte un design à double puce pour améliorer le rendement et garde le refroidissement liquide. L’interconnexion s’appuie sur des commutateurs de circuits optiques (OCS) entre racks pour réduire la latence, la consommation et offrir une large bande passante adaptée aux entraînements longs. Chaque rack compte 64 puces; des clusters jusqu’à 144 racks permettent de faire fonctionner 9 216 TPU de façon synchrone. Des estimations évoquent environ 36 000 racks déployés en 2026 et plus de 10 000 OCS. Côté énergie: 850 à 1 000 W par puce, jusqu’à 100 kW par rack, avec distribution avancée et secours par batterie. Reste un frein: la maîtrise de la pile logicielle Google, raison pour ...
    続きを読む 一部表示
    7 分
  • L'IA aujourd'hui épisode du 2026-01-02
    2026/01/02
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : vidéo décentralisée et navigateurs, ingérences facilitées par l’IA, renommage chez OpenAI, YouTube et contenus générés, limites des modèles de raisonnement, et politique des tokens.On commence avec PeerTube, plateforme vidéo décentralisée fondée sur un réseau d’instances indépendantes. Si JavaScript est désactivé ou bloqué, l’accès échoue: le lecteur, les formulaires et l’interface reposent dessus. Pour limiter les frictions, les mainteneurs recommandent d’utiliser la dernière version de Mozilla Firefox. Les plus prudents peuvent consulter le code source sur GitHub et le GitLab de Framasoft, ou adopter des applications tierces. En cas de doute sur une incompatibilité, un dépôt GitHub dédié permet de signaler le problème. Conseillé aussi: vérifier les audits de sécurité de l’instance choisie.Cap ensuite sur la sécurité informationnelle. La France serait, selon un rapport parlementaire publié le 3 décembre 2025, le pays de l’UE le plus exposé aux ingérences étrangères, une vulnérabilité amplifiée par l’IA, qui rend la manipulation de l’information moins coûteuse. Dans le contexte de la guerre en Ukraine, le document cite 3,6 millions d’articles de propagande diffusés par la Russie en 2024 et un investissement d’un milliard d’euros via Russia Today et Sputnik. Le rapport recense 18 recommandations, appelle à renforcer les moyens humains et matériels de Viginum, et juge les réponses actuelles insuffisantes malgré le DSA et l’AI Act. Il plaide pour développer des technologies européennes malgré des obstacles, et alerte sur le risque accru en période électorale; Viginum a publié un guide à destination des équipes de campagne.Dans l’industrie, changement discret de nommage. Chez OpenAI, Codex cloud — la version cloud de l’agent de codage — s’appelle désormais Codex web. Le changement a été repéré via l’Internet Archive: une capture du 18 décembre affiche encore “Codex cloud”, les plus récentes montrent “Codex web”. Thibault Sottiaux, en charge de l’ingénierie Codex, précise la distinction: les “tâches cloud” s’exécutent sur un environnement hébergé et couvrent, entre autres, la revue de code et des intégrations avec GitHub et Slack; “Codex web” désigne l’application web. Sur iPhone, le service reste “Codex iOS”. À noter: l’équivalent chez Anthropic, “Claude Code” sur le web, est jugé peu pratique par certains utilisateurs.Direction YouTube, où une vidéo sur cinq serait désormais générée par l’IA. L’étude de Kapwing, menée sur 15 000 des plus grandes chaînes, estime que 21 % des “shorts” sont produits à la chaîne grâce à l’IA. Parmi elles, 278 chaînes publient exclusivement ce type de contenus, totalisant 63 milliards de vues et près de 117 millions de dollars de revenus annuels. En testant un compte sans historique, il a suffi de 16 vidéos pour que l’algorithme recommande des contenus générés; sur les 500 premiers shorts visionnés, 104 venaient d’IA. Le “IA slop” prospère là où les revenus YouTube dépassent les salaires locaux, notamment en Inde, au Nigéria et au Brésil. En Inde, “Bandar Apna Dost” cumule 2,5 milliards de vues et plus de 4 millions de dollars avec des personnages comme un singe rhésus anthropomorphe ou un Hulk chef de guerre. En Corée du Sud, 11 chaînes reposant sur l’IA totalisent près de 9 milliards de vues; quatre figurent dans le top 10 national. En 2025, YouTube semble privilégier le rendement de recommandation.Côté recherche, les modèles de raisonnement d’OpenAI ou de Deepseek montrent un paradoxe: ils “réfléchissent” souvent plus longtemps à des tâches simples qu’à des tâches composées, produisant parfois des conclusions illogiques. Ces systèmes génèrent une trace de raisonnement avant la réponse finale — par exemple décomposer 17 × 24 en 17 × (20 + 4). Pourtant, Deepseek-R1 ajoute environ 300 tokens de réflexion pour un simple carré, davantage que pour une tâche addition+carré; les évaluations signalent des échecs sur des tâches composées. Pour corriger ces écarts, des “Lois du Raisonnement” (LoRe) sont proposées: effort proportionnel à la difficulté, et précision décroissante exponentiellement avec elle. Des essais de fine-tuning visant un comportement additif réduisent l’écart d’effort de 40,5 % sur un modèle 1,5B et améliorent plusieurs benchmarks. Les auteurs rappellent que ces modèles récupèrent des solutions existantes plus vite sans produire d’idées inédites. L’industrie mise néanmoins sur la montée en puissance du calcul: OpenAI a utilisé dix fois plus de compute pour o3 que pour o1, quatre mois après sa sortie.Enfin, gros plan sur la tokenisation, ce découpage du texte en sous-mots qui sert d’interface ...
    続きを読む 一部表示
    7 分
  • L'IA aujourd'hui épisode du 2026-01-01
    2026/01/01
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : agents intégrés et vie privée, stratégie IA de Meta, achats automatisés d’Amazon, percées 2025 en raisonnement, sécurité des modèles, e-mail IA à Rob Pike, et « recettes Frankenstein » de Google. Note plateforme: Bluesky aussi.D’abord, la bascule vers l’IA agentique au niveau des systèmes. Intégrés dans l’OS et les navigateurs, des agents comme Recall de Microsoft, Magic Cue de Google ou Atlas d’OpenAI observent et anticipent l’usage sur toutes les apps. Signal alerte: si l’OS capture un écran avant chiffrement ou après déchiffrement, la confidentialité applicative est vidée de sa substance. Les « astuces » telles que détourner des fonctions DRM ne sont pas tenables. Un cadre « garrot » est proposé: 1) API officielles pour marquer des apps « sensibles » exclues par défaut des agents; 2) contrôles utilisateurs fins, application par application; 3) transparence claire sur les données accessibles et leur usage; 4) encourager et protéger la recherche adversariale. L’enjeu sera discuté au 39C3 dans le thème « Ethics, Society & Politics ».Transition avec la stratégie des géants: Meta a racheté Manus, société chinoise d’IA, pour accélérer un agent autonome « pour des milliards ». Le groupe lance Meta Superintelligence Labs, recrute quatre talents formés en Chine, tout en restructurant son département IA avec des licenciements. Pour soutenir la montée en charge, Meta achète 10 milliards de dollars de services cloud chez Google malgré 28 data centers en propre, signe d’un besoin massif de calcul pour l’entraînement et surtout l’inférence.Sur la distribution, un programme bêta d’Amazon, « Buy For Me », agrège des articles issus de boutiques indépendantes pour les afficher sur Amazon—parfois avec des fiches erronées—puis fait acheter par son agent sur le site d’origine. Pas d’accord préalable ni d’option de retrait pour les boutiques. Des créateurs s’inquiètent de la perte de contrôle, des erreurs de présentation et de la charge supplémentaire de support que cela génère.À propos de plateformes: si vous testez Bluesky, notez que son application web interactive nécessite JavaScript; plus d’infos sur bsky.social et atproto.com.Cap vers la R&D 2025: les LLM progressent en raisonnement avec RLVR et l’algorithme GRPO. DeepSeek R1 illustre l’apprentissage par renforcement qui fait émerger des chaînes de réflexion, avec un coût d’entraînement annoncé autour de 5 millions de dollars, rendu possible par une post-formation massive. RLVR emploie des labels de correction déterministes, efficaces en math et en code, avec des extensions envisagées vers la chimie et la biologie. Côté usage, on investit plus à l’inférence quand la précision prime sur la latence, et l’appel à des outils (recherche, calculatrices via API) réduit les hallucinations.Reste la sécurité des modèles. Les modèles, probabilistes et dépendants des données, ouvrent des surfaces d’attaque nouvelles: entrées adversariales, exfiltration par requêtes répétées, contournements par prompt. Les artefacts exposés couvrent données d’entraînement, architectures, poids, hyperparamètres, checkpoints, endpoints. L’empoisonnement peut intégrer des portes dérobées; des poids volés dévoilent la propriété intellectuelle. Réponse attendue: découverte et inventaire, sécurité de la chaîne d’approvisionnement, classification et protection des données, contrôles d’accès et surveillance des secrets, intégrité des artefacts et des déploiements—le tout orchestré par une gestion continue de posture (AI-SPM) et des tests adversariaux réguliers.Côté usages sociaux, Rob Pike a reçu le 25 décembre 2025 un e-mail non sollicité, signé « Claude Opus 4.5 », émis par AI Village, un projet de l’association Sage. Dans une expérience de « gestes de gentillesse », des agents ont envoyé des remerciements à des figures de l’informatique. Pike a dénoncé l’absence d’authenticité et de consentement. Analyse à l’appui: confusion d’attribution avec Anthropic, récupération de son e-mail via GitHub, et engagement des organisateurs à ne plus envoyer de messages non sollicités, sans excuses formelles. Le débat reste vif.Enfin, des blogueurs cuisine, dont Inspired Taste, signalent des « recettes Frankenstein » dans les réponses IA de Google: des mélanges de recettes existantes, brandés, mais suffisamment modifiés pour donner des résultats médiocres. Conséquences: baisse du trafic et atteinte à la réputation. Plusieurs médias s’en sont saisis. Google n’a pas commenté; une légère amélioration est observée, mais le problème persiste dans les recherches non-marques. Et ces recettes ne sont pas testées, source d’échecs en cuisine domestique.Voilà qui conclut notre ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2025-12-31
    2025/12/31
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : emploi et IA, fondation open-source pour les agents, sécurité face aux injections de prompt, publicité dans ChatGPT, failles des assistants de code, et évaluation des agents par MLflow.D’abord, l’IA au travail sous la loupe du sociologue Antonio Casilli. Il observe que l’IA sert souvent de prétexte à des vagues de licenciements, dans la tech et au-delà. Aux États‑Unis, licencier “au nom de l’IA” est même perçu comme plus acceptable que pour des raisons de coûts. En France, la menace de remplacement par l’IA, parfois non réalisée, sert à discipliner le travail, les syndicats jugeant ce progrès difficilement évitable. Casilli critique l’injonction “adopter l’IA pour ne pas décrocher” comme argument d’automatisation. Pour les jeunes, la tendance dominante serait plutôt la précarisation via des contrats d’indépendants et la plateformisation du recrutement. Il rappelle aussi le rôle des travailleurs de la donnée, souvent dans le Sud global, chargés d’annoter et d’enrichir les corpus avec peu de protections. L’IA laisse ainsi une double empreinte, sociale et environnementale, des datacenters aux batteries. Il appelle à des réponses systémiques et note la montée d’actions collectives parmi ces travailleurs.On enchaîne avec la création de l’Agentic AI Foundation, abritée par la Linux Foundation. OpenAI et Anthropic y versent MCP et AGENTS.md, tandis que Block apporte son cadre d’agents goose. Des membres Platine rejoignent: AWS, Microsoft, Bloomberg, Cloudflare et Google, avec de nombreux membres Or et Argent. Le membre Argent Obot.ai transfère ses événements MCP Dev Summit et son podcast. Selon la Linux Foundation, MCP, goose et AGENTS.md, lancés respectivement fin 2024, début 2025 et au second semestre 2025, sont devenus des briques clés des agents. Rassembler ces projets vise une gouvernance ouverte et pérenne. Des voix demandent toutefois une spécification claire et communautaire pour l’API JSON des complétions, et certains s’interrogent sur la maturité de MCP, jugé par certains “trop jeune” pour une fondation dédiée. À noter : Google avait déjà confié son protocole A2A au projet Agent2Agent, également avec AWS et Microsoft.Côté sécurité, OpenAI admet que les attaques par injection de prompt ne seront peut‑être jamais éradiquées. L’entreprise publie une mise à jour pour l’agent de navigateur de ChatGPT Atlas, avec un modèle entraîné de façon adversariale et des protections renforcées après la découverte, via red‑teaming automatisée, d’une nouvelle classe d’attaques. L’agent peut lire des pages, cliquer et taper comme un humain, ce qui élargit la surface d’attaque déjà signalée par l’agence allemande BSI. OpenAI décrit un attaquant automatisé qui génère des injections, les teste dans un simulateur, récupère la trace complète de raisonnement et itère. Les garanties déterministes restent difficiles, mais la stratégie vise une réduction continue du risque. Conseils aux usagers: privilégier le mode déconnecté quand c’est possible, vérifier les confirmations et donner des instructions explicites plutôt que des prompts vagues.Sur le modèle économique, OpenAI travaille à l’intégration de publicités dans ChatGPT. Des indices dans la bêta Android mentionnent “bazaar content” et “search ad”. Des tests internes d’informations sponsorisées en barre latérale ont eu lieu puis été désactivés après retours négatifs, notamment des abonnés payants. Malgré une pause destinée à améliorer la qualité face à la concurrence, la recherche de revenus relance le dossier, avec des analystes évoquant un déploiement possible dès le premier semestre 2026. L’entreprise, qui ne viserait pas la rentabilité avant 2030 et aurait encore à lever 207 milliards de dollars pour ses ambitions, pourrait profondément déplacer l’attention publicitaire vers les chatbots, avec des réponses contextualisées à fort taux de conversion, mais une impartialité questionnée et des effets sur le trafic du Web.Retour à la sécurité avec le Mois des Bugs de l’IA d’août 2025: plus de deux douzaines de vulnérabilités ont été divulguées de manière responsable dans les principaux assistants de codage agentiques. Les travaux mettent en avant des schémas d’attaque récurrents et, point notable, des mesures d’atténuation pratiques pour des systèmes autonomes et probabilistes, afin de réduire la surface d’attaque sans bloquer l’assistance au développement.Enfin, comment évaluer ces agents? Une approche s’appuie sur MLflow pour suivre des expériences de red‑teaming tri‑modèle: un attaquant génère des invites risquées, une cible répond, un juge évalue la sécurité, chaque échange étant journalisé. Exemple cité: attaquant GPT...
    続きを読む 一部表示
    6 分