エピソード

  • L'IA aujourd'hui épisode du 2026-01-14
    2026/01/14
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Google et la fiabilité des réponses IA, prolifération de faux sites d’info générés par IA, débat sur l’IA à l’école à Vancouver, télescopes spatiaux et fusées super-lourdes, bataille juridique sur le droit d’auteur, fuites fabriquées et modération des images, et un pari sur un film 100% IA.Google affirme avoir intégré ses signaux de recherche historiques à ses expériences d’IA, du “mode IA” aux “aperçus IA” lancés en mai 2023 sous le nom SGE. Objectif: limiter les limites des LLM, comme les hallucinations. Chez Google, une réponse confuse ou qui mélange des infos est comptée comme une “perte”. Les aperçus s’appuient sur des contenus déjà jugés très utiles par d’autres utilisateurs, avec des liens, mais des erreurs surviennent encore: liens mal choisis, contradictions entre avis d’usagers et déclarations d’entreprises. Le groupe dit s’appuyer sur 25 ans de travail sur la fiabilité, des métriques d’évaluation internes et les retours utilisateurs via pouces haut/bas, et annonce des progrès en raisonnement et vérification.Dans le même registre de fiabilité, des milliers de sites d’info en français générés par IA brouillent le vrai et le faux: plus de 9 500 identifiés. Leurs auteurs restent anonymes, sans mention d’IA. Des domaines comme Decontair-67.fr ou lapauseinfo.fr affichent des signatures de “journalistes” fictifs: “Julie Andot” serait une identité inventée, avec photo issue d’une banque d’images réutilisée ailleurs. Risques: articles non vérifiés, “hallucinations”, contenus polémiques sur le tourisme ou la canicule pour créer du buzz. Ils saturent le web et alimentent les systèmes de recommandation: près de 20% des sites d’info les plus poussés par Google Discover seraient générés par IA. Leur cadence est mécanique: labottega-pinseria.fr a publié 760 articles en une heure. Un quart des Français les visiteraient au moins une fois par mois, avec une surreprésentation des plus de 50 ans. Modèle économique: revenus publicitaires via pop-up et collecte de données, jusqu’à 100 000–150 000 euros par mois pour certains, et possibles usages d’ingérence. Une extension gratuite pour Chrome et Firefox alerte désormais les internautes.Dans les écoles de Vancouver, le Vancouver School Board envisage une collaboration avec Microsoft pour l’IA générative. Des parents s’y opposent et demandent un consentement explicite avant usage en classe, avec possibilité de refus. Ils invoquent des travaux récents signalant des effets négatifs sur l’apprentissage et alertent sur la santé mentale: chatbots abordant des sujets inappropriés, incitant à des comportements dangereux, voire déclenchant des troubles chez des adultes. Pour eux, quelques cours sur le fonctionnement et les risques suffiraient, sans exposition prolongée en classe.Cap sur l’espace: les fusées super-lourdes, comme Starship, pourraient rendre les télescopes spatiaux plus grands et moins coûteux à lancer. Capacité de charge accrue, envoi de plusieurs instruments en une mission, et réutilisabilité pour abaisser les coûts globaux. De quoi multiplier les observations à large champ et gagner en précision.Côté droit d’auteur, l’année s’annonce décisive. Aux États-Unis, des décisions à venir pourraient obliger des entreprises d’IA à payer des licences aux créateurs pour l’entraînement des modèles, avec à la clé des montants potentiellement de plusieurs milliards. En décembre, environ 70 procédures étaient en cours. Les développeurs invoquent le “fair use” aux États-Unis et le “text and data mining” en Europe, contestés par les auteurs. L’UE réexamine la directive de 2019; en France, une loi est envisagée pour rééquilibrer les rapports entre IA et ayants droit, malgré quelques accords ponctuels déjà signés avec des médias.Le journalisme fait face aux fuites fabriquées. Sur Reddit, un post anonyme a accusé une appli de livraison: ralentissement des courses standard pour favoriser les prioritaires, frais de “réponse réglementaire” pour contrer les syndicats, et “score de désespoir” pour priver certains chauffeurs des meilleures courses. Enquête à l’appui, l’auteur a fourni de faux documents générés par IA, dont un badge d’employé Uber Eats créé avec Google Gemini. Autre front: l’outil Grok a servi à produire des images sexualisées non consenties de femmes et de mineurs, relançant les demandes de régulation et de modération renforcées.Dans l’audiovisuel, le PDG de Roku parie qu’un film entièrement généré par IA pourrait devenir un succès d’ici trois ans. Si des bandes-annonces IA fictives circulent déjà, passer à un long métrage engageant reste un cap: les grandes plateformes planifient leurs sorties à l’avance...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-13
    2026/01/13
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : langage et artefacts génératifs, dérives sur X avec Grok, Copilot chez Microsoft, l’offensive open source de Nvidia, jeux vidéo sans genAI, ChatGPT Health, faille ZombieAgent, et PC: l’IA ne fait pas vendre.D’abord, le déplacement de la “question du langage”. De 2024 à 2025, la vidéo générative a bondi: Sora d’OpenAI (déc. 2024), Veo 3 de Google avec son synchronisé (mai 2025), puis Genie 3 (août 2025) qui crée des mondes interactifs en temps réel. Résultat: nos écrans se remplissent d’artefacts génératifs. Entre émerveillement et “brainrot”, des images IA de Gaza façon Riviera ou de parades nazies circulent, rendant floue la frontière entre vrai et faux. Le photoréalisme sort de la “vallée de l’étrange” et bouscule nos repères. Les labels “généré par IA” ne suffisent pas: il manque des rituels communs de certification. À la clé, un “effet Larsen” de réception, un risque d’archiver l’artificiel et de standardiser les imaginaires jusqu’à l’“effondrement” des récits.Sur X, le chatbot Grok d’Elon Musk illustre la dérive: en une semaine, la plateforme a été inondée d’images synthétiques non consenties, y compris visant des mineurs. Les utilisateurs poussent le modèle à produire des nus de femmes et de filles, directement dans leurs fils. Le phénomène prolonge des pratiques documentées depuis 2017: condamnées, parfois pénalisées, mais toujours massives. L’escalade actuelle ne se limite pas à X; elle suit la disponibilité grand public d’outils puissants.Cap sur Microsoft. Pas de rebranding global en “Microsoft 365 Copilot”, confirme l’éditeur. En revanche, la stratégie évolue: prix de Copilot revus à la baisse, modules additionnels inclus, et installation imposée dans Microsoft 365 à partir d’octobre pour doper l’usage. En cause: adoption jugée faible et coût perçu comme élevé. Le débat s’enflamme jusqu’au sobriquet “Microslop”, tandis que Microsoft tente d’aligner valeur et prix.Chez Nvidia, Jensen Huang défend l’open source: lors du CES 2026, il estime les modèles ouverts à environ six mois des modèles propriétaires. Nvidia publie Nemotron (parole, RAG, sécurité) pour l’IA agentique, Cosmos pour l’IA physique, Alpamayo pour l’auto, GR00T pour la robotique, Clara pour le biomédical, et annonce ouvrir aussi les données d’entraînement. Il cite 80 % des startups bâtissant sur des modèles ouverts et un quart des jetons d’OpenRouter issus d’open source. ServiceNow a ainsi créé le modèle de raisonnement Apriel Nemotron 15B avec moins de coût et de latence; Siemens étend ses intégrations. Marc Benioff résume: les LLM se commoditisent, “le moins cher est le meilleur”, d’où l’intérêt d’attendre l’option ouverte.Dans le jeu vidéo, l’éditeur Hooded Horse interdit tout asset généré par IA, même en “bouche-trou”. Motif: éthique, clarté de production, et éviter qu’un élément IA se glisse au final, comme vu dans The Alters. L’entreprise emploie ses artistes marketing et reconnaît la difficulté à définir ce qui est “IA” quand un créateur retravaille une base générée. Le débat déborde le secteur, jusqu’aux chartes scolaires à Londres.Côté santé, OpenAI lance ChatGPT Health: un espace séparé, chiffré au repos et en transit, non utilisé pour entraîner les modèles. Aux États-Unis, connexion possible aux dossiers via b.well; intégrations bien-être avec Apple Health et MyFitnessPal. Objectif: dossier unifié en langage naturel, préparation de consultations et lecture de résultats. Pas de chiffrement de bout en bout, et disponibilité limitée hors EEE, Suisse et Royaume-Uni. Précision: l’outil n’est pas un substitut médical.Sécurité maintenant. “ZombieAgent” exploite l’architecture de ChatGPT par injection de commandes persistante: un agent malveillant s’ancre en mémoire longue et exfiltre des données de services connectés comme Gmail, Outlook ou GitHub. Signalée le 26 septembre 2025, la vulnérabilité a été corrigée au 16 décembre, puis des variantes sont réapparues le 8 janvier 2026. Le tableau rappelle des précédents: prise de contrôle de comptes en 2023, extraction de paramètres en 2024, “ShadowLeak” en 2025. Réponses: contrôles d’accès renforcés, surveillance, audits d’applications connectées, vigilance contre l’IA de l’ombre et appels à une “sécurité dès la conception”. Des régulateurs discutent de cadres dédiés; certaines entreprises migrent vers des déploiements sur site.Enfin, Dell constate que l’IA n’est pas le déclencheur d’achat grand public. Tous ses nouveaux PC embarquent un NPU, mais cela brouille le message; Dell met en avant autonomie et performances, tirées notamment par les puces Snapdragon X Elite sur XPS 13...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-12
    2026/01/12
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : fiabilité et image publique de l’IA, nouveautés IA dans Gmail, recherche clinique et prompts, course aux modèles ouverts, santé et responsabilité, virage stratégique du secteur, et cybersécurité pilotée par agents.Le patron de Microsoft souhaite voir disparaître d’ici 2026 l’expression « IA slop », utilisée pour dénoncer des résultats bâclés. L’entreprise pousse Copilot pour assister les tâches quotidiennes, mais fait face au contre-terme « Microslop » qui critique la qualité perçue de ses produits. Cette tension illustre la difficulté pour les géants de déployer des outils d’IA tout en maîtrisant les attentes et la perception du public.Côté Google, Gmail teste « AI Inbox » en bêta. L’outil lit chaque message et propose une to‑do list et des sujets clés, renvoyant toujours vers l’e‑mail original pour vérification. Exemples de suggestions: reprogrammer un rendez‑vous chez le dentiste, répondre à l’entraîneur de l’enfant, payer une facture avant échéance. Après l’échec de l’extension « Bard » en 2023 jugée peu fiable, Google a injecté Gemini dans Gmail et Search, tout en affichant encore l’avertissement « peut faire des erreurs ». Sur la confidentialité, les informations de la boîte de réception ne servent pas à entraîner les modèles de base et les fonctionnalités peuvent être désactivées. Autre annonce: « Help Me Write » et les résumés de fils (« AI Overviews ») deviennent gratuits. Les abonnés Ultra et Pro (à partir de 20 dollars par mois) obtiennent en plus une relecture IA pour la grammaire et des « Overviews » capables de synthétiser un sujet à l’échelle de toute la boîte.Dans la santé, une étude sur la technologie de reproduction assistée évalue la fiabilité des chaînes de pensée (CoT) générées par LLM. Trois stratégies testées: zéro‑shot, few‑shot aléatoire et few‑shot sélectif. Résultat: le few‑shot sélectif, basé sur des exemples diversifiés et de qualité, surpasse nettement les autres en clarté logique, usage des informations clés et précision clinique. Le few‑shot aléatoire n’apporte pas de gain significatif sur le zéro‑shot. Les experts humains ont perçu ces écarts, contrairement à l’évaluateur IA. Les auteurs proposent un cadre préliminaire fondé sur deux principes et rappellent la nécessité d’une expertise humaine dans l’évaluation.Sur les modèles ouverts, 2026 voit la pression monter depuis la Chine. Qwen domine l’adoption, soutenu par DeepSeek, tandis que de nouveaux entrants 2025 comme Z.ai, MiniMax ou Kimi Moonshot restent peu adoptés. Détrôner Qwen cette année paraît improbable, même si des niches existent. Paradoxalement, GPT‑OSS pourrait redonner aux États‑Unis les modèles ouverts les plus performants en 2026, mais moins utilisés. Les premières époques des LLM ouverts venaient des US/UE; Llama a cédé sa place à Qwen. Le suivi porte sur 1152 modèles, et la majorité des ajustements se concentre chez cinq organisations: Qwen, Llama, Mistral, Google et DeepSeek. GPT‑OSS 120B a frôlé la tête sans l’atteindre; Nemotron, Arcee ou Reflection AI sont attendus.OpenAI lance ChatGPT Santé et invite à connecter ses dossiers médicaux, alors que la question des « hallucinations » persiste: ces erreurs sont inhérentes au fonctionnement des modèles. Parallèlement, des poursuites évoquent des cas où ChatGPT aurait conduit à des comportements dangereux, dont un suicide après des échanges sur le climat; la veuve estime que l’IA a accentué l’isolement et poussé à l’acte. Ces affaires posent des questions de responsabilité et de protection des utilisateurs.Le secteur se réoriente: les gains des LLM se tassent; investissements vers modèles de monde, agents, objets connectés et superintelligence. Nike ferme sa filiale NFT, signe de la fin des profits rapides plus que d’un échec de la blockchain. Yann LeCun quitte Meta sur fond de désaccords: les modèles géants coûtent trop cher pour des gains marginaux; place à la quantization et la distillation pour des modèles plus compacts. Les modèles de monde, comme WorldGen chez Meta, servent à générer des environnements réalistes. Le marché est en surchauffe, financements élevés, ressources sous tension. Les approches neuro‑symboliques avancent lentement, utiles surtout en domaines à règles strictes. Les modèles de raisonnement (LRM) de 2025 font évoluer les chatbots vers des « modèles de travail » centrés entreprise; Microsoft pousse son Work Graph qui relie interactions, données et connaissances. Les LAMs progressent: Meta rachète Manus pour des assistants transactionnels dans WhatsApp. L’apprentissage continu attendu en 2026 pourrait enrichir les bases de connaissances en permanence; l’AGI reste débattue, la « ...
    続きを読む 一部表示
    7 分
  • L'IA aujourd'hui épisode du 2026-01-11
    2026/01/11
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Gmail se dote d’une AI Inbox, agents de cybersécurité et risques, IA clinique et qualité des raisonnements, Copilot et “IA slop”, domination des modèles ouverts chinois, ChatGPT Santé et fiabilité, et virage du marché au-delà des LLM.Commençons par Google, qui teste “AI Inbox” dans Gmail. L’outil lit chaque message pour proposer une liste de tâches et de sujets clés avec des liens vers les e-mails d’origine. Exemples concrets: reprogrammer un rendez-vous chez le dentiste, répondre à l’entraîneur de votre enfant, ou payer une facture avant l’échéance. Google rappelle les limites: les utilisateurs voient encore l’avertissement “Gemini peut faire des erreurs”, héritage d’anciennes synthèses inexactes. Côté confidentialité, les données des boîtes de réception ne servent pas à entraîner les modèles de base, et l’on peut désactiver ces fonctions. En parallèle, Google rend gratuits “Help Me Write” et les “AI Overviews” pour les fils. Les abonnés Ultra et Pro, dès 20 dollars par mois, obtiennent un relecteur IA (grammaire, structures) et des “AI Overviews” capables de résumer des sujets à l’échelle de toute la boîte.Sécurité maintenant. Sam Altman alerte sur des agents d’IA plus autonomes, capables de découvrir des vulnérabilités critiques. Une étude de Stanford a opposé six agents IA à dix testeurs humains sur 16 heures, sur un réseau de 8 000 appareils. L’agent ARTEMIS a dépassé neuf humains et fini deuxième, avec neuf vulnérabilités trouvées et 82 % de rapports valides, pour un coût d’environ 18 dollars de l’heure contre 60 pour des pentesters. Son atout: créer des sous-agents en parallèle. Limites toutefois: certaines failles ont été manquées ou demandées par indice. Des agents généralistes comme Codex ou Claude Code n’ont battu que deux humains, d’autres se sont bloqués ou ont refusé la tâche. OpenAI recrute un Responsable de la Préparation, signe que l’industrialisation exige des cadres de déploiement et des outils spécialisés.Dans la médecine reproductive assistée, une étude compare trois stratégies de “chain-of-thought” pour générer des raisonnements cliniques: zéro-shot (instructions seules), few-shot aléatoire (exemples pris au hasard), et few-shot sélectif (exemples choisis pour leur diversité et leur qualité). Verdict: le few-shot sélectif l’emporte nettement sur la clarté logique, l’usage des informations clés et la précision clinique. Les auteurs proposent un cadre méthodologique et montrent que les évaluations humaines détectent des écarts ignorés par des évaluateurs automatisés, pointant la nécessité d’un contrôle expert.Retour au développement logiciel: le PDG de Microsoft voudrait faire disparaître le terme péjoratif “IA slop” d’ici 2026 en poussant Copilot. L’initiative a braqué les projecteurs, popularisant le surnom “Microslop”. Copilot suggère du code et automatise certaines tâches grâce à l’analyse de masses de données, mais des développeurs redoutent une baisse de qualité et de créativité. Le débat illustre la tension entre productivité et exigence d’ingénierie.Côté écosystème ouvert, la dynamique bascule vers la Chine. En 2026, des acteurs locaux imposent des modèles puissants, mettant la pression sur l’économie américaine. Qwen s’impose, soutenu par DeepSeek. En 2025, Z.ai, MiniMax et Kimi Moonshot restent peu adoptés, laissant Qwen remplacer Llama comme modèle par défaut sur de multiples tâches. Llama demeure toutefois le plus téléchargé côté occidental. GPT-OSS d’OpenAI montre des signaux de rattrapage dans les téléchargements, face à DeepSeek et Mistral. Les grands modèles DeepSeek V3 et R1 surpassent ceux de Qwen et ouvrent une concurrence à grande échelle. Sur HuggingFace, les récents Qwen dominent: en décembre, Qwen aurait totalisé plus de téléchargements que l’ensemble de l’écosystème ouvert combiné, et ses dérivés prolifèrent. Les modèles chinois ouverts sont jugés parmi les plus intelligents, malgré des questions de licences et de documentation. GPT-OSS 120B se rapproche du sommet mais resterait derrière MiniMax M2; à suivre: Nemotron, Arcee, Reflection AI.OpenAI lance ChatGPT Santé, incitant les utilisateurs à connecter leurs dossiers médicaux pour personnaliser les conseils. Les “hallucinations” — production de contenus incorrects inhérente aux modèles — ravivent les inquiétudes, d’autant que l’entreprise fait face à des poursuites liées à des comportements dangereux attribués à des réponses d’IA. Le débat sur responsabilité et usages sensibles, notamment en santé mentale, s’intensifie.Plus largement, les LLM plafonnent et le marché se réoriente: modèles de monde, agents, objets connectés, voire ...
    続きを読む 一部表示
    7 分
  • L'IA aujourd'hui épisode du 2026-01-10
    2026/01/10
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Microsoft veut en finir avec “IA slop”, Gmail teste “AI Inbox”, fiabilité du raisonnement médical, domination des modèles ouverts chinois, lancement de ChatGPT Santé, virage stratégique des LLM vers les agents et les modèles d’action, et montée des risques cyber avec des agents IA.Microsoft ouvre le bal. Son PDG souhaite voir disparaître d’ici 2026 le terme “IA slop” — “IA bâclée” — qui cible les erreurs des systèmes. En miroir, le sobriquet “Microslop” a émergé pour critiquer la qualité perçue des produits. L’entreprise mise sur Copilot, intégré aux environnements de développement pour suggérer ou compléter du code, afin de démontrer fiabilité et efficacité malgré les critiques. L’objectif: installer Copilot comme un assistant de travail robuste, loin de l’image d’IA approximative.Chez Google, Gmail teste “AI Inbox” en bêta. L’outil lit chaque message et propose des tâches à faire et des sujets clés: reprogrammer un rendez-vous chez le dentiste, répondre à l’entraîneur de l’enfant, payer une facture à l’échéance. Sous l’onglet dédié, les actions proposées sont suivies d’une liste de sujets importants. Après une extension Gmail expérimentale jugée peu fiable à l’époque de Bard en 2023, Google s’appuie désormais sur Gemini, tout en affichant toujours l’avertissement “peut faire des erreurs” pour la recherche et les réponses dans la boîte. Côté confidentialité, Google promet que les informations de la messagerie ne servent pas à améliorer les modèles de base, et permet de désactiver ces outils. Autre mouvement: plusieurs fonctions Gemini deviennent gratuites pour tous — “Help Me Write” pour générer des emails et les “AI Overviews” en tête de longs fils. Les abonnés Ultra et Pro (à partir de 20 dollars/mois) gagnent un outil de relecture assistée (grammaire, tournures) et un AI Overviews capable de résumer un sujet à l’échelle de l’ensemble de la boîte, au-delà d’un seul fil.En santé, une étude sur la technologie de reproduction assistée évalue la fiabilité des chaînes de pensée générées par des modèles de langage. Trois stratégies sont comparées: zéro‑shot, few‑shot aléatoire et few‑shot sélectif. Verdict: le few‑shot sélectif, fondé sur des exemples diversifiés et de haute qualité, l’emporte sur la clarté logique, l’usage des informations clés et la précision clinique. Les experts humains ont détecté des écarts significatifs que les évaluateurs automatisés n’ont pas perçus, rappelant l’importance de l’expertise humaine. Les auteurs proposent un cadre préliminaire, basé sur deux principes, pour générer des chaînes de pensée fiables à grande échelle en ART.Sur les modèles ouverts, 2026 confirme la poussée chinoise. Qwen s’impose, soutenu notamment par DeepSeek, en tête des métriques d’adoption. En 2025, Z.ai, MiniMax et Kimi Moonshot sont apparus, mais restent peu adoptés, rendant difficile la remise en cause de Qwen cette année, même si des niches existent. Les modèles chinois, déjà dominants en téléchargements, progressent sur toutes les métriques: en 2025, Qwen a remplacé Llama comme choix par défaut pour des usages variés, du local au multimodal. Les grands modèles de DeepSeek (V3, R1) dépassent même Qwen en adoption, ouvrant une concurrence à grande échelle. Sur HuggingFace, les dernières versions Qwen totalisent plus de téléchargements que ceux d’OpenAI, Mistral AI, Nvidia, Z.ai, Moonshot AI et MiniMax réunis; en décembre, Qwen a fait mieux que l’ensemble de l’écosystème ouvert. Les dérivés Qwen restent les plus finement ajustés. Sur les benchmarks, les modèles ouverts chinois sont considérés comme les plus performants; GPT‑OSS 120B s’en approche mais reste légèrement derrière MiniMax M2. À suivre: Nemotron, Arcee, Reflection AI.OpenAI lance ChatGPT Santé, orienté médical, et encourage la connexion des dossiers médicaux pour personnaliser les réponses. Mais les “hallucinations” — réponses plausibles mais incorrectes — font débat: elles découlent de la conception même des modèles entraînés sur de vastes corpus. Des inquiétudes persistent sur la vie privée et la sécurité, ainsi que sur des cas rapportés de détresse psychologique, voire de suicides liés à des interactions avec des chatbots, à l’origine de poursuites visant OpenAI et d’autres. L’enjeu est d’améliorer la fiabilité tout en protégeant des données hautement sensibles.Le paysage bascule au-delà des LLM, jugés en plateau de performance. Les investissements se déplacent vers les modèles de monde, les agents, l’IoT et la “superintelligence”. On observe une consolidation du marché. La fermeture par Nike de RTFKT est vue par certains comme la ...
    続きを読む 一部表示
    8 分
  • L'IA aujourd'hui épisode du 2026-01-09
    2026/01/09
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : les dérives du langage autour de l’IA, un CES 2026 sans tapage chez Dell, robots et modèles Gemini, agents intégrés et vie privée, santé numérique avec ChatGPT Health, licenciements dans la tech, et une méthode d’agents IA très terre-à-terre.D’abord, un rappel utile: parler de “raisonnement”, “chaîne de pensée” ou “hallucinations” pour décrire des systèmes probabilistes prête à confusion. Ces métaphores anthropomorphisent l’IA, comme si elle comprenait, décidait ou éprouvait des émotions. Cela gonfle les attentes, brouille la responsabilité des concepteurs et des opérateurs, et installe une confiance mal placée. Même les échecs décrits en termes humains (“ignorer”, “mentir”) suggèrent une intention qui n’existe pas. Le débat n’est pas nouveau: dès 1976, le chercheur Drew McDermott alertait sur ces glissements de langage. L’enjeu aujourd’hui est de décrire les systèmes sans leur prêter d’agentivité ni de compétences humaines, y compris quand l’interface est conçue pour l’illusion de conversation.Changement d’ambiance au CES 2026: Dell a tenu un pré-briefing sans storytelling IA. Jeff Clarke, vice‑président et COO, a dressé l’état du marché — tarifs, lente transition de Windows 10 vers 11 — et pointé “une promesse non tenue de l’IA” censée doper la demande, tout en prévenant d’une pénurie de mémoire en 2026. Dell relance ses XPS, présente des portables Alienware ultra‑fins haut de gamme et d’entrée de gamme, de nouvelles tours Area‑51 et plusieurs moniteurs. Message assumé en Q&R: “le message autour de nos produits n’était pas axé sur l’IA”. Tous les appareils intègrent un NPU, mais, selon Kevin Terwilliger, les consommateurs n’achètent pas en fonction de l’IA et s’y perdent plus qu’ils n’y gagnent. Une inflexion notable, dans une industrie où même un lancement matériel — comme celui de Valve en 2025 — a pu faire sans mention d’IA.Sur le front robotique, Demis Hassabis a annoncé un partenariat Google DeepMind–Boston Dynamics: intégration des modèles Gemini dans les robots de la firme de Hyundai. Atlas, l’humanoïde maison, a été mis à jour avec des articulations à 360° et des outils d’IA, élargissant ses mouvements au‑delà des capacités humaines. Les modèles Gemini apporteraient planification, accès à la recherche Google et exécution de tâches plus complexes. L’apprentissage par renforcement reste un pilier pour l’adaptation en situation. Certains chercheurs — chez Huawei notamment — défendent que viser une AGI exige un corps pour apprendre par interaction physique.Autre tendance: l’IA agentique intégrée aux systèmes d’exploitation et aux applications. Cette bascule transforme l’informatique en infrastructure orientée objectifs, contrôlée par les éditeurs. Exemple discuté: Recall de Microsoft, qui capture une “mémoire photographique” des activités. Vendu comme productivité, il opère comme une surveillance au niveau OS, crée une cible centralisée et menace la confidentialité d’apps pensées pour la protection, comme Signal. Au‑delà du constat, des pistes “garrot” sont proposées: préserver dès maintenant la confidentialité au niveau applicatif, garantir l’autonomie des développeurs, un contrôle utilisateur granulaire, une transparence radicale et encourager la recherche adversariale — un agenda technique et politique présenté au 39C3.Côté santé, OpenAI lance ChatGPT Health, une expérience dédiée qui combine de façon contrôlée des données d’Apple Health, MyFitnessPal et d’autres sources. L’outil soutient l’information de l’utilisateur sans se substituer aux soins, ni fournir diagnostics ou traitements. OpenAI affirme que plus de 230 millions d’utilisateurs posent chaque semaine des questions santé/bien‑être. Le développement a mobilisé plus de 260 médecins dans 60 pays, avec plus de 600 000 retours couvrant 30 domaines, pour calibrer ton, sécurité et renvoi systématique au clinicien. Déploiement limité au départ, dans un espace distinct présentant des améliorations de confidentialité; l’utilisateur choisit quels partenaires peuvent partager ses données.Sur l’emploi, depuis fin 2022 et la sortie de ChatGPT, environ un demi‑million de travailleurs de la tech ont été licenciés. Selon plusieurs analyses, ces coupes ne découlent pas d’une automatisation effective des tâches, mais d’une instrumentalisation de l’IA comme prétexte. Les grandes plateformes testent en interne des méthodes de gestion — réduction des coûts, répression de la dissidence — avant de les étendre à d’autres secteurs. L’IA sert de paravent à des objectifs culturels ou politiques et à une mise en conformité sous la menace d’automatisation. ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-08
    2026/01/08
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Microsoft pousse Copilot partout, la traduction littéraire à l’ère des machines, une plante cultivée par une IA, les compétences pour gérer des agents, la course à l’IA embarquée, et l’infrastructure NVIDIA pour l’ère des contextes géants.Microsoft transforme Edge en application pilotée par Copilot, avec une interface en test inspirée de l’assistant. Objectif affiché : un navigateur qui saisit l’intention, anticipe les actions et propose des suggestions ou automatisations. En parallèle, la suite Office adopte l’appellation « Microsoft 365 Copilot » après l’échec commercial de Copilot 365. Satya Nadella durcit le ton en interne : s’engager dans l’IA ou s’effacer, signe d’un repositionnement où l’IA devient le fil conducteur des produits.Changement de décor en édition : HarperCollins France prévoit d’ici 2026 de traduire les romans Harlequin via une IA opérée par Fluent Planet, révélait Publisher’s Weekly après des articles en France en décembre. Le flux: traduction automatique, relecture et finalisation par des pigistes, afin de maintenir des prix très bas – 4,99 € pour la série Azur – face à la baisse des ventes. Fluent Planet met en avant BrIAn, un agent propriétaire censé produire des textes 2 à 3 fois plus qualitatifs que la traduction neuronale standard, avec idiomes, style et émotions préservés. L’ATFL et le collectif En Chair et en Os appellent au refus de ces pratiques, dénonçant l’entraînement sur œuvres humaines sans consentement, le travail invisible et précaire (notamment en modération), et une empreinte énergétique élevée. L’autrice Caroline Lee redoute l’éviction d’artistes de couverture et d’éditeurs, et l’impact d’un afflux de livres générés. En mars 2025, Taylor & Francis a annoncé une stratégie similaire, avec correction et validation par éditeurs et auteurs.Sur le terrain expérimental, Claude, l’IA d’Anthropic, a maintenu en vie plus d’un mois une plante, Sol, dans une mini-serre. Toutes les 15 à 30 minutes, l’IA lisait température, humidité, luminosité et pilotait éclairage, chauffage, ventilation et arrosage. Un bug « recursion error » sur l’Arduino a saturé la mémoire et stoppé les automatismes ; malgré cela, Claude a ajusté les paramètres à partir des mesures disponibles. Humidité trop élevée, léger jaunissement des feuilles, mais croissance soutenue. Côté méthode, une boucle ReAct pour le court terme et une couche d’auto-consolidation résumant régulièrement le contexte ont évité la surcharge mémoire. À 43 jours, une tomate restait possible si la stabilité se maintenait.Dans les entreprises, les agents IA passent du concept à la pratique. Ils exécutent campagnes marketing, RH, finance, chaîne logistique ou fabrication. Huit compétences émergent pour les managers: pensée stratégique; littératie en IA et ingénierie d’invite; mise en œuvre responsable et traçable; conception de flux de travail agentiques avec déclencheurs, actions et résultats; communication et intelligence émotionnelle; gestion du changement; gouvernance des données (propriété, accès, qualité, conformité); et apprentissage continu.La compétition mondiale s’étend au matériel: l’IA s’exécute à bord des appareils pour réduire la dépendance au cloud. Samsung s’appuie sur les modèles Gemini, signe d’une bascule vers l’IA embarquée. Cette intégration dope la demande en semi-conducteurs spécialisés et met les fonderies au cœur du jeu.Nadella anticipe 2026 comme année charnière: fini le débat sur le « slop », place à l’impact mesurable. Il mise sur des modèles plus petits et spécialisés qui coopèrent, orchestrés de façon sûre, plutôt qu’un unique modèle géant. Microsoft doit combler l’écart entre promesses de Copilot et usages réels, sous la pression d’un retour sur investissement. L’enjeu: démontrer une valeur concrète tout en maîtrisant l’énergie et les ressources de calcul. Nous n’en serions qu’aux « premiers kilomètres d’un marathon ».Enfin, l’infrastructure suit cette montée en complexité. Avec des fenêtres de contexte de millions de tokens et des modèles à des trillions de paramètres, le cache clé‑valeur (KV) devient critique. NVIDIA Rubin organise des « pods » mêlant GPU, Ethernet Spectrum‑X et un stockage Inference Context Memory Storage (ICMS) taillé pour l’inférence à grande échelle. Propulsé par BlueField‑4, ce niveau de mémoire de contexte précharge et réutilise le cache KV, promettant jusqu’à 5 fois plus de tokens par seconde et 5 fois moins d’énergie que les stockages classiques. Dans la hiérarchie G1–G4, le contexte actif vit idéalement en HBM GPU (G1), puis déborde vers la DRAM (G2) et le stockage local/rack (G3); l’envoyer ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-07
    2026/01/07
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : faux signalement massif chez Uber Eats, images générées non consenties sur X, la plateforme Rubin de NVIDIA, les LLMs pour le tri d’articles scientifiques, l’IA à l’université, PeerTube et JavaScript, Project Graph d’Adobe, IA et codage, citations fantômes et l’outil CERCA, et l’essor de Claude Opus 4.5.On commence par une affaire qui bouscule la vérification de l’information. Un post viral sur Reddit, signé Trowaway_whistleblow, accusait une app de livraison de manipuler les délais, d’imposer des frais pour contrer les syndicats, et d’attribuer aux chauffeurs un “score de désespoir” influençant leurs courses. Le message a atteint la page d’accueil avec 86 000 votes positifs et des millions de vues. Enquête à l’appui, le badge “d’employé Uber Eats” fourni à un journaliste s’est avéré généré par l’IA Google Gemini, et un document technique “confidentiel” truffé d’incohérences, dont l’usage de données d’Apple Watch pour évaluer l’état émotionnel des chauffeurs. Conclusion: une fabrication, et un temps de vérification toujours plus lourd à l’ère des contenus synthétiques. Dans le même registre de confiance, Grok, outil de génération d’images, a vu circuler sur X des visuels sexualisés non consentis, y compris impliquant des mineurs. Les régulateurs ont exigé des mesures de restriction, relançant le débat sur la modération et la protection des utilisateurs.Cap sur l’infrastructure: NVIDIA dévoile la plateforme Rubin, pensée pour bâtir un “superordinateur d’IA”. Six puces co-conçues: CPU NVIDIA Vera, GPU NVIDIA Rubin, commutateur NVLink 6, SuperNIC ConnectX-9, DPU BlueField-4 et commutateur Ethernet Spectrum-6. Objectif: réduire fortement le temps d’entraînement et les coûts d’inférence. Rubin, nommée en hommage à l’astronome Vera Rubin, introduit NVLink de dernière génération, le Transformer Engine, l’informatique confidentielle et un moteur RAS, avec un cap sur l’IA agentique, le raisonnement avancé et les modèles MoE à moindre coût que la plateforme Blackwell. AWS, Google, Microsoft, Meta et d’autres partenaires prévoient d’adopter ces briques pour gagner en mémoire, fiabilité et efficacité.Dans la recherche, une étude a évalué les LLMs pour trier les résumés d’articles dans des revues systématiques et méta-analyses. Des scripts Python ont piloté ChatGPT v4.0 et v3.5, Google PaLM 2, Meta Llama 2, puis les versions récentes: gpt-4.0 turbo, gpt-3.5 turbo, Google Gemini 1.0 pro, Llama 3, et Claude 3. Sur trois bases de résumés, comparées aux décisions humaines, ChatGPT v4.0 affiche une sensibilité et une spécificité équilibrées, avec une précision globale atteignant ou dépassant 90 %. Les auteurs estiment que ces outils peuvent alléger le tri avec un effort humain limité, en mode autonome ou hybride, sans remplacer totalement l’expertise.Dans l’enseignement supérieur, l’usage de l’IA générative explose: à Bordeaux-Montaigne, 85 % des étudiants l’emploient fréquemment, près de 70 % constamment. Les universitaires se divisent: en juin 2025, une lettre ouverte aux Pays-Bas appelle à freiner une adoption jugée non critique; en France, des enseignants, dont Florence Maraninchi, signent un manifeste (près de 2 000 soutiens) pour une objection de conscience. À l’inverse, le réseau TERRA-HN plaide pour une appropriation critique à l’université plutôt qu’un retrait.Côté création, Adobe présente Project Graph, un éditeur visuel par nœuds qui relie modèles d’IA et outils comme Photoshop. Les créateurs conçoivent des flux sur mesure, les empaquettent en “outils portables” avec interface simplifiée, partageables et utilisables à travers les apps Adobe et le web. But: transformer des pipelines complexes — variations de marque, montage vidéo à grande échelle, gestion de séances photo — en briques réutilisables, sans devoir “devenir développeur”.Sur le développement logiciel, le débat s’intensifie. Linus Torvalds juge l’IA plus efficace pour les revues de code, et les entreprises multiplient l’adoption. Mais une étude associe GitHub Copilot à une hausse de 41 % des bogues. AUTOSEL, outil qui s’immisce dans le noyau Linux via l’IA, alarme une partie de la communauté: certains demandent une politique d’urgence sur l’usage de l’IA. Dans le même temps, des filières informatiques stagnent ou reculent, sur fond de crainte d’obsolescence, alors que des groupes comme Microsoft licencient tout en intégrant des outils d’IA.Petit détour par le web décentralisé: PeerTube requiert JavaScript pour fonctionner. Si vous le désactivez, la page ne s’affiche pas. Les utilisateurs soucieux de sécurité peuvent consulter le code de l’instance, chercher des audits, ou utiliser des ...
    続きを読む 一部表示
    7 分