エピソード

  • L'IA aujourd'hui épisode du 2025-12-25
    2025/12/25
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une IA de jeu vidéo ouvre un débat sur l’e-sport et la robotique, un corpus de compétences pour construire des agents fiables, une affaire de deepfake dans une école de Louisiane, la sécurité mise à l’épreuve par des “API fantômes”, une note sur Bluesky et JavaScript, et l’Advent of Code vu par l’IA.Nvidia dévoile NitroGen, un modèle open source entraîné plus de 40 000 heures et fondé sur l’architecture GR00T N1.5. Capable de jouer à plus de 1 000 jeux, il analyse l’image en temps réel et génère des commandes de manette, avec une hausse de 52 % de réussite sur des jeux jamais “vus”. Code, modèle et poids sont publiés sur GitHub et Hugging Face. L’ouverture alimente deux dynamiques: d’un côté, un outil d’accessibilité potentielle pour des joueurs handicapés et un terrain d’entraînement pour la robotique humanoïde via le “multivers des simulations”; de l’autre, la crainte d’une prolifération de bots difficilement détectables en ligne, dans un contexte où 80 % des joueurs disent avoir déjà été confrontés à la triche. L’e-sport pourrait devoir renforcer ses contrôles à mesure que ces agents progressent.Dans un autre registre, une collection structurée de compétences d’ingénierie contextuelle propose un cadre pour bâtir des systèmes d’agents en production. L’accent est mis sur la gestion du contexte — prompts système, outils, documents récupérés, historique — plutôt que sur la seule rédaction d’instructions. Le corpus décrit la dégradation du contexte (perte au milieu, courbes d’attention en U, rareté de l’attention) et des techniques de compression pour ne conserver que les tokens à fort signal. Trois volets: fondamentaux, architectures (multi‑agents, mémoires, outils) et opérations (optimisation, évaluation avancée). Philosophie de divulgation progressive, approche agnostique des plateformes, exemples en pseudocode Python, et démonstrations comme “LLM-as-Judge”. Les compétences peuvent être intégrées en copiant les dossiers dédiés dans un répertoire de compétences.À la Louisiance, une collégienne de 13 ans a vu des images d’elle, générées par IA pour la montrer nue, circuler sur Snapchat. Messages éphémères, impossibles à retrouver, moqueries persistantes. Après des alertes à un conseiller et à un adjoint du shérif restées sans effet concret, elle a fini par frapper un camarade suspecté: exclusion de plus de dix semaines pour elle, pas de sanction équivalente pour le garçon. Deux élèves ont finalement été inculpés pour diffusion illégale d’images créées par IA, en vertu d’une nouvelle loi de l’État. La jeune fille souffre d’anxiété et de dépression; de retour dans son établissement, elle reste en probation, privée d’activités extrascolaires. L’affaire illustre la facilité de créer des deepfakes à partir de photos publiques et les limites des protocoles scolaires face au cyberharcèlement.Côté sécurité logicielle, une fintech a découvert un endpoint de production non documenté — une “API fantôme” — créé lors d’une session assistée par GitHub Copilot. Des attaquants s’en sont servis pour extraire des données clients. Ce type d’endpoint, tel qu’un “/api/v2/admin/debug-metrics”, peut exposer des PII s’il n’est ni testé ni protégé. Un rapport Veracode indique que 45 % du code généré par IA contient des vulnérabilités OWASP Top 10; Java échoue à 72 %, Python, JavaScript et C# entre 38 % et 45 %. Une étude Apiiro observe une multiplication par dix des failles en six mois dans les dépôts analysés, et un doublement des expositions d’identifiants cloud. Autre vecteur: le “slopsquatting”, quand l’IA recommande un package inexistant ensuite piégé sur npm ou PyPI. En réponse, des équipes instrumentent l’analyse du trafic pour repérer des endpoints non référencés, comparent en continu la spécification à la réalité de prod, et mènent des audits dédiés au code généré, avec relecture au niveau d’un débutant.Bref détour par le web: pour une application très interactive, JavaScript reste indispensable. Pour explorer le réseau social décentralisé Bluesky et son protocole, des informations publiques sont disponibles sur bsky.social et atproto.com.Enfin, Armin Ronacher, alias mitsuhiko, a confié un billet invité à Claude Code, brisant la ligne éditoriale de son blog sur l’IA. Il y annonce clore son aventure Advent of Code de cette année, menée avec Claude Opus pour écrire et optimiser tous les puzzles, y compris la génération d’entrées. Il présente cette démarche comme une pratique créative et publie un billet daté du 23 décembre 2025.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous ...
    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2025-12-24
    2025/12/24
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : transparence des vidéos générées, métiers de la rédaction bousculés, CES 2026 et agents autonomes, un espace projet autour de TRELLIS.2, et le lancement de GPT‑5.2‑Codex.D’abord, Google renforce la traçabilité des contenus. L’application Gemini permet désormais de vérifier si une vidéo a été créée ou retouchée avec les outils d’IA de Google. Concrètement, l’utilisateur importe une vidéo puis pose sa question à Gemini, qui analyse l’image et l’audio pour y détecter SynthID, un filigrane numérique invisible apposé par Google sur ses créations. L’outil peut distinguer image et son, et préciser les segments concernés. Limites à noter: les fichiers ne doivent pas dépasser 100 Mo ni 90 secondes, et la détection ne couvre que les technologies de Google. Une vidéo générée par une autre IA, comme ChatGPT, ou modifiée sans SynthID, ne sera pas identifiée. Ce n’est pas un détecteur universel de deepfakes, mais l’ajout de la vidéo répond à la diffusion de faux contenus sur les réseaux sociaux.Passons au monde du travail, où l’IA recompose les métiers de la rédaction. Jacques Reulet II, ex-responsable des opérations de support dans un éditeur de logiciels, raconte avoir d’abord formé des IA aux tâches qu’il enseignait à des humains. Quand les chatbots ont atteint un niveau jugé suffisant, son équipe a été remplacée et il a été licencié. Ce cas s’inscrit dans une tendance plus large: artistes, traducteurs, développeurs et surtout rédacteurs voient leurs départements réduits, leurs postes supprimés, parfois jusqu’à la fermeture d’entreprises. Des témoignages évoquent une rédactrice affublée du surnom “ChatGPT” avant un licenciement sans explication. Les promesses de gains faciles à l’IA foisonnent sur YouTube, mais la réalité décrite est faite de bascules vers des emplois précaires. Le travail ne disparaît pas, il se transforme: beaucoup éditent des textes générés par IA, pour des rémunérations en baisse. Certains espèrent que la “touche humaine” redevienne un différenciateur. Jacques, lui, a déménagé au Mexique pour réduire ses coûts en attendant un nouvel emploi, tout en demeurant pessimiste sur la suite.Cap sur le CES 2026, où l’IA agentique sort du laboratoire. Des “agents maîtres” orchestrent plusieurs agents autonomes, changeant la gouvernance des systèmes d’information: clients et collaborateurs délèguent de plus en plus leurs actions numériques. Conséquence, le SEO glisse vers le GEO, l’optimisation pour moteurs génératifs: les sites sont pensés pour être compris et exploités par des agents IA. En parallèle, la robotique entre en phase de commercialisation: robots humanoïdes et machines spécialisées sont déployés dans l’industrie et la logistique pour la surveillance et la maintenance. Les modèles économiques évoluent avec des contrats de leasing, à l’image des flottes automobiles. La mobilité autonome poursuit ses progrès malgré les aléas géopolitiques: investissements dans les batteries solides et les robotaxis, et intégration de kits d’autonomie sur des véhicules existants, avec des avancées visibles chez Waymo et Cruise. Côté usages, l’IA gagne les objets portés: lunettes à vision augmentée et dispositifs de monitoring biométrique, souvent préfigurés au CES. Enfin, énergie et IA convergent: optimisation du rendement des centrales solaires et baisse de la consommation des data centers. La cybersécurité reste sous tension: l’horizon du Q‑Day en 2030 pousse à adopter des mécanismes de chiffrement résistants au quantique, tandis que des attaquants exploitent déjà l’IA pour industrialiser les offensives. La sécurité post-quantique devient une priorité stratégique.Dans un registre plus technique de collaboration, “Spacesmicrosoft/TRELLIS.2like483” renvoie à un espace ou projet hébergé sur une plateforme liée à Microsoft, autour d’un projet nommé TRELLIS.2. Le statut “Running” indique qu’il est actif. La mention “Zero Spaces” pourrait signaler une configuration sans espace alloué. La section “App” renvoie à l’application en cours, tandis que “Files” et “Community” regroupent respectivement les documents du projet et les échanges. Le “6” accolé à “Community” suggère six discussions ou contributions.Terminons avec OpenAI et GPT‑5.2‑Codex, un modèle spécialisé dans le code. Héritier de Codex, il se positionne comme un agent de génie logiciel à l’échelle industrielle, capable de travailler sur de vastes dépôts et de garder le fil sur des sessions longues grâce à la “compaction native du contexte”, une technique qui réduit les coûts en tokens et améliore la gestion des contextes étendus. Côté mesures, le modèle atteint 56,4 % sur ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2025-12-23
    2025/12/23
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : entraînement des modèles multimodaux à grande échelle, nouvelles capacités et accès de GPT‑5.2 et Codex, vidéo générative en temps réel, contenus et désinformation en ligne, 3D instantanée chez Apple, deals industriels, sécurité, et emploi.On ouvre avec l’entraînement des modèles multimodaux. Des chercheurs présentent un parallélisme hybride désagrégé avec Ray: chaque module du modèle reçoit une stratégie adaptée. Sur Qwen‑VL, l’encodeur de vision exploite le parallélisme de séquence, tandis que le LLM utilise le parallélisme de tenseur. Le projecteur aligne ensuite les états et compresse la séquence à un quart avant passage dans le LLM. Résultat: moins de surcoût de communication, meilleure utilisation mémoire et possibilité d’entraîner à des longueurs de séquence extrêmes là où d’autres frameworks échouent, avec une accélération constante face au parallélisme de tenseur pur. Ray orchestre ces modules via des groupes d’acteurs indépendants, ce qui simplifie la boucle d’entraînement.Côté modèles d’agents, OpenAI lance GPT‑5.2‑Codex pour les tâches complexes d’ingénierie logicielle et de cybersécurité. Le modèle s’appuie sur la “compaction” pour comprimer le contexte et garder le fil sur de longues sessions, dans la lignée de GPT‑5.1‑Codex‑Max conçu pour travailler sur plus de 24 heures. L’entreprise annonce une interprétation d’images améliorée, une lecture plus fiable des environnements Windows et un accès via CLI, IDE et cloud, avec une interface tiers à venir. Les chiffres de bancs publics restent mesurés: 56,4 % sur SWE‑Bench Pro contre 55,6 % pour la version standard, et 64 % sur Terminal‑Bench 2.0. Le volet sécurité s’intensifie: suite à une enquête d’Andrew MacPherson révélant trois vulnérabilités inédites liées à React avec une version antérieure du modèle, OpenAI évalue désormais le risque à un niveau presque “élevé” et ouvre un programme d’accès de confiance pour experts certifiés, avec des filtres assouplis pour la recherche de failles.Dans le même mouvement, OpenAI dévoile GPT‑5.2, une suite orientée productivité — feuilles de calcul, présentations, code — avec de nouveaux records sur ARC‑AGI‑1 et AGI‑ARC‑2 et des gains d’efficacité computationnelle. La variante Codex met en avant le codage agentique et le fuzz testing pour débusquer des bogues et automatiser des corrections, ainsi qu’une compréhension visuelle utile au prototypage d’interfaces.Passons à la vidéo. Runway présente GWM‑1, une famille qui génère des scènes en temps réel image par image, en s’appuyant sur les frames précédentes et des contrôles utilisateurs. Cette approche autorégressive réagit aux entrées de contrôle à la volée et maintient la cohérence quelle que soit la position de la caméra, à rebours des diffusions qui synthétisent tout le clip d’un bloc.Sur le front des contenus sous licence, Disney signe un accord exclusif de trois ans avec OpenAI. Objectif: permettre à Sora de produire des clips de 30 secondes mettant en scène des personnages Disney. L’accord s’accompagne d’un investissement d’un milliard de dollars et s’inscrit dans un contexte de litiges sur la propriété intellectuelle autour des modèles génératifs.Chez Apple, SHARP peut générer une scène 3D à partir d’une seule image 2D en moins d’une seconde. Le modèle arrive avec de nouveaux outils d’édition d’images et de traitement du langage. Les usages visés: réalité augmentée, jeux et design, où la vitesse et la fidélité 3D accélèrent prototypage et création.Un rappel de méthode sur les LLM: pour les adapter à des tâches ciblées — langage de programmation, santé ou finance — les équipes doivent collecter, nettoyer, dédupliquer et paraphraser des corpus dédiés. Pour l’usage d’outils comme le navigateur, elles recourent à des “gyms” de renforcement. Malgré des volumes d’entraînement massifs, ces modèles généralisent encore moins largement qu’un humain; la progression s’appuie donc sur des choix manuels et une ingénierie de données fine, avec des améliorations graduelles et quelques comportements émergents.En parallèle, le web bascule vers une majorité de contenus générés par IA. Les “hallucinations” des LLM — erreurs structurelles — alimentent le risque de désinformation et uniformisent les contenus. Les bots deviennent majoritaires dans le trafic, souvent avec des objectifs malveillants, ce qui menace la qualité et la fiabilité de la recherche en ligne.Retour au terrain: une expérience au Wall Street Journal montre les limites actuelles des agents. “Claudius”, basé sur Claude d’Anthropic, devait gérer un distributeur: stocks, prix, relation client. Manipulé par ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2025-12-22
    2025/12/22
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : codage agentique, IDE autonomes, traçage par IA, financements en sécurité, audiences face aux sites d’actualité générés par IA, génération d’images et navigateur IA.On commence avec GPT-5.2-Codex, nouvelle version de la famille Codex d’OpenAI, pensée pour le codage agentique. Objectif: mener des tâches longues et complexes comme des refactorisations ou des migrations sans changer le comportement externe du code. Le modèle progresse sur Terminal-Bench 2.0 avec 64 %, contre 62,2 % pour GPT-5.2. OpenAI annonce aussi de meilleures performances sous Windows et un net renforcement des capacités en cybersécurité. Accessible via les agents de codage Codex, il arrive bientôt via API, d’abord en prévisualisation sur invitation pour les professionnels de la sécurité. Un exemple cité: via Codex CLI, génération d’un SVG représentant un pélican à vélo, illustrant l’exécution de commandes complexes en ligne de commande.Dans la même veine d’automatisation, Google lance Antigravity, un IDE agentique disponible depuis novembre 2025 sur Windows, Mac et Linux. Contrairement aux IDE classiques, des agents IA peuvent piloter l’éditeur, exécuter des commandes terminal, relire des PR et manipuler des pages web dans un Chrome intégré pour tester des apps locales, ouvrir des serveurs et jouer des parcours utilisateurs. L’Agent Manager centralise l’orchestration jusqu’à cinq agents travaillant en parallèle sur des bugs, chacun produisant des artefacts interactifs annotables sans bloquer les agents. L’usage s’appuie sur quatre modes ajustables, une boîte de réception unifiée de notifications, des Rules et des Workflows personnalisables, plus l’intégration de services via les Model Context Protocol. Positionnement: Antigravity cible le développement complexe en local, quand Firebase Studio vise surtout le prototypage rapide et l’intégration cloud.Changement de registre avec l’Immigration and Customs Enforcement américain, qui finance des “agents IA” pour le skip tracing. ICE a dépensé des centaines de milliers de dollars auprès d’une entreprise capable de localiser rapidement des cibles pour la branche Enforcement and Removal Operations. Cela s’ajoute à des dépenses de plusieurs millions déjà engagées, avec l’intention d’en dépenser des dizaines de millions de plus pour ces services. La pratique implique aussi des chasseurs de primes qui utilisent des outils numériques et des suivis physiques pour vérifier des adresses, cartographier la famille et les relations, puis transmettre ces informations à l’agence.Autre actualité, OpenAI propose jusqu’à 2 millions de dollars pour des études sur la sécurité et le bien-être liés à l’IA. Des critiques parlent de “grantwashing”: des subventions de 5 000 à 100 000 dollars jugées trop faibles pour produire des résultats solides, et des données d’usage jugées indispensables mais non partagées. Cette annonce survient alors que la société se défend dans une affaire où ChatGPT aurait encouragé un adolescent californien au suicide; ses avocats ont demandé la liste des invités et des vidéos des funérailles. Des experts en psychologie du développement et en IA appellent à des recherches plus robustes; en Europe, le Digital Services Act pourrait imposer des obligations d’accès aux données. Une piste avancée: consacrer 3 à 5 % des budgets de R&D à une science de la sécurité indépendante, sur le modèle des études éthiques du projet génome humain.En France, un quart des internautes, soit 14 à 16 millions de personnes par mois, visitent des sites d’informations générées par IA. Ces sites GenAI sont massivement alimentés par les recommandations de Google via Discover, Search et Actualités. 74 % de ces visiteurs ont plus de 50 ans, qui consultent davantage ces sites que les médias d’information traditionnels. Le phénomène attire des spécialistes SEO cherchant à capter le trafic Discover, alors même que la qualité des contenus est souvent critiquée. Google affirme filtrer la majorité des contenus de faible qualité, mais les limites persistent. Une extension web alerte désormais les utilisateurs lorsqu’un site est généré par IA, en s’appuyant sur des listes de domaines suspects et d’entités non autorisées à proposer des services financiers en France.Côté image, OpenAI présente ChatGPT Image 1.5: génération quatre fois plus rapide et coûts réduits de 20 %. Le modèle gère l’édition en plusieurs étapes, la rétention de la ressemblance, des mises en page complexes et le rendu précis de textes. L’objectif est de proposer une plateforme créative accessible, tout en reconnaissant des limites à maîtriser selon les usages. Cette version se pose face à Nano Banana Pro de Google, avec un débat ouvert sur la ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2025-12-21
    2025/12/21
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : nouveau Codex d’OpenAI et IDE agentique de Google, IA et suivi par l’ICE, débat sur les subventions d’OpenAI, sites d’actualités générées par IA en France, ChatGPT Image 1.5, et virage IA de Firefox.On commence avec GPT-5.2-Codex, dernière mouture de la famille Codex d’OpenAI, taillée pour le “codage agentique”, ces tâches longues et contextuelles comme les refactorisations ou migrations. Le modèle annonce de meilleurs résultats sur Windows, des capacités de cybersécurité renforcées, et une prévisualisation sur invitation destinée aux professionnels de la cybersécurité vérifiés, afin d’accéder à des variantes plus permissives. Côté performance, il obtient 64 % sur le benchmark Terminal-Bench 2.0, contre 62,2 % pour GPT-5.2. L’écart est modeste mais sur des défis multi-heures, c’est un signal. Anecdote à l’appui : via le Codex CLI, le modèle a généré une image SVG d’un pélican sur un vélo, montrant sa compréhension d’instructions créatives précises.Restons dans l’atelier des développeurs avec Google Antigravity, un IDE “agentique” lancé en novembre 2025. Ici, l’IA ne se contente plus d’autocompléter : elle agit. Antigravity s’appuie sur Gemini, Claude Sonnet 4.5, Claude Opus 4.5 et GPT-OSS, s’installe sur Windows, Mac et Linux, et propose quatre modes de fonctionnement ajustables. Les agents exécutent des commandes terminal, valident des revues de code, et interagissent avec des pages via un Chrome intégré pour tester en local, ouvrir des serveurs et simuler des scénarios utilisateurs. Un Agent Manager centralise l’orchestration, jusqu’à cinq agents en parallèle, qui produisent des artefacts commentables sans casser le flux. La plateforme introduit une boîte de réception unifiée pour les notifications, avec un changement de contexte à apprivoiser. Côté personnalisation : “Rules”, “Workflows” et intégrations via Model Context Protocol. Par rapport à Firebase Studio, l’accent est mis sur l’exécution locale de tâches complexes avec une IA autonome.Cap sur les États-Unis : l’ICE a engagé des centaines de milliers de dollars auprès d’une société développant des agents IA de “skip tracing”, destinés à l’ERO, la branche chargée d’identifier, d’arrêter et de renvoyer des personnes. L’agence dépense déjà des millions et vise des dizaines de millions supplémentaires pour ces services. Le dispositif passe aussi par des chasseurs de primes qui utilisent des outils numériques et des filatures pour vérifier des adresses. Les agents IA promettent d’accélérer l’analyse de données massives, de localiser plus vite des cibles et de cartographier leurs relations familiales.Toujours côté OpenAI, l’annonce d’un financement jusqu’à 2 millions de dollars pour des recherches sur la sécurité et le bien-être suscite des critiques de “grantwashing”. Les subventions proposées, de 5 000 à 100 000 dollars, sont jugées trop faibles pour des études robustes, qui exigent des cohortes larges, des suivis séquentiels et un cadre éthique solide. En toile de fond, une procédure judiciaire en Californie où OpenAI a soutenu ne pas être responsable d’un suicide d’adolescent présenté comme encouragé par ChatGPT, en demandant notamment la liste des invités et des vidéos des funérailles. Des chercheurs appellent à un accès aux données d’usage des systèmes, que l’entreprise détient. En Europe, le Digital Services Act pourrait imposer des obligations d’accès aux données. Des propositions émergent : consacrer 3 à 5 % du budget R&D annuel à une science de la sécurité indépendante, afin de produire des résultats vérifiables sans fragiliser la crédibilité des chercheurs.En France, une étude Médiamétrie signale qu’un quart des internautes — environ 14 à 16 millions de personnes — consultent chaque mois des sites d’informations générées par IA, souvent poussés par Google Discover, Search ou Actualités. 74 % de ce public a plus de 50 ans. Après l’identification de plus de 1 000 médias en février, près de 8 900 sites ont désormais été répertoriés, gérés par plus de 200 éditeurs, et monétisés via la publicité, notamment celle de Google. Discover est devenu une source majeure de trafic, mais il est accusé de favoriser des contenus de faible qualité. Google affirme exclure 99 % des contenus médiocres via ses antispams, une promesse mise en doute par des enquêtes. Ces sites recourent à des fermes de contenus, à des domaines expirés et à du “black hat SEO”. Pour alerter les lecteurs, une extension de navigateur signale les pages générées par IA.Côté image, OpenAI présente ChatGPT Image 1.5 : génération quatre fois plus rapide et coûts en baisse de 20 %. Le modèle met en avant l’édition en ...
    続きを読む 一部表示
    7 分
  • L'IA aujourd'hui épisode du 2025-12-20
    2025/12/20
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : codage agentique chez OpenAI, IDE autonomes chez Google, IA et traque par l’ICE, polémique autour des financements “sécurité” d’OpenAI, explosion des sites d’actus générées par IA en France, nouveau générateur d’images d’OpenAI, et virage IA de Firefox.Commençons par GPT-5.2-Codex, dernière mouture d’OpenAI dédiée au codage agentique. Le modèle est calibré pour des chantiers logiciels longs, avec compaction du contexte pour suivre des informations sur la durée et de meilleures performances lors de refactorisations et migrations massives. Il progresse aussi sous Windows et renforce ses capacités de cybersécurité. En préversion, un accès sur invitation vise des pros de la cybersécurité vérifiés, avec des modèles plus permissifs. Côté métriques, il atteint 64 % sur Terminal-Bench 2.0, contre 62,2 % pour GPT-5.2. Et en pratique, l’outil a su générer, via Codex CLI, un SVG d’un pélican sur un vélo, illustrant une exécution créative et technique.Cap sur Google Antigravity, un IDE “agentique” lancé en novembre 2025. L’installation est rapide sur Windows, Mac et Linux, puis l’on règle l’autonomie via quatre modes prédéfinis, jusqu’à l’exécution de commandes terminal et la validation de revues de code. Antigravity délègue à des agents qui traitent en parallèle bugs et fonctionnalités. Le panneau Agent Manager sert de tour de contrôle, les artefacts produits (rapports, diffs) sont interactifs pour commenter et itérer sans stopper les agents. Un navigateur intégré permet de simuler des parcours utilisateurs complets et d’enregistrer les actions. Les “Rules” et “Workflows” personnalisent les consignes et automatisent des commandes. L’IDE s’appuie sur Gemini, Claude Sonnet 4.5, Claude Opus 4.5 et GPT-OSS, et se distingue de Firebase Studio, tourné vers le prototypage cloud, en gérant localement des tâches complexes avec une IA actrice à part entière, ce qui impose aux équipes un pilotage par délégation et suivi.Autre usage des agents: l’ICE a contractualisé pour des “agents d’IA” de skip tracing, capables de localiser vite des cibles et de cartographier entourage et relations. Le contrat vaut des centaines de milliers de dollars pour la branche Enforcement and Removal Operations, tandis que l’ICE dépense déjà des millions et prévoit des dizaines de millions de plus pour le skip tracing en général. La pratique combine bases publiques et privées, outils numériques et suivi physique par des chasseurs de primes pour vérifier des adresses et les remonter à l’agence.Sur le terrain de la sécurité et du bien-être, OpenAI annonce jusqu’à 2 millions de dollars d’aides à la recherche. Des critiques parlent de “grantwashing”: des montants unitaires entre 5 000 et 100 000 dollars, loin du financement médian du NIMH en 2024, à 642 918 dollars. Des spécialistes demandent un véritable accès aux données d’usage, absent pour l’instant, alors que le Digital Services Act européen pourrait l’exiger. Contexte sensible: dans une procédure judiciaire, OpenAI a soutenu ne pas être responsable du suicide d’un adolescent et a demandé la liste des invités et les vidéos des funérailles. Des observateurs recommandent que les entreprises allouent 3 à 5 % de leur budget R&D à une science indépendante, rappelant aussi le précédent de Meta en 2019 avec des subventions à 50 000 dollars et des pressions internes rapportées.En France, Médiamétrie estime qu’un quart des internautes, soit 14 à 16 millions de personnes par mois, visitent des sites d’informations générées par IA. Environ 74 % ont plus de 50 ans, et consultent plus ces sites que des médias journalistiques. Le trafic vient surtout de Google Discover, Search et Actualités, alimenté par des stratégies SEO. Ces sites, souvent monétisés via AdSense, concurrencent les médias traditionnels et s’appuient sur du contenu de journalistes sans compensation. Le ministère de la Culture envisage des mesures législatives; une extension web alerte déjà les utilisateurs lorsqu’ils visitent un site GenAI.Côté création visuelle, OpenAI lance ChatGPT Image 1.5: génération d’images quatre fois plus rapide et coûts réduits de 20 %. L’outil introduit l’édition en plusieurs étapes, la rétention de la ressemblance, et gère mieux les mises en page complexes ainsi que le rendu de texte. Il vise un large public tout en reconnaissant des limites. Face à Google Nano Banana Pro, réputé pour sa constance, le choix dépendra des besoins entre flexibilité créative et fiabilité.Enfin, Mozilla oriente Firefox vers un “navigateur AI”. Objectif: recommandations personnalisées, optimisation des performances et renforcement de la sécurité. La décision suscite des réactions négatives d’utilisateurs...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2025-12-19
    2025/12/19
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une ferme de téléphones hackée, des petits modèles pour l’extraction d’infos, l’IA locale d’EPFL, des tests d’images dans Bing, la mue de Stack Overflow, la course aux générateurs d’images, et un kit open-source pour agents en TypeScript.On commence avec Doublespeed, startup soutenue par Andreessen Horowitz, piratée via sa “ferme de téléphones”. Un intrus affirme contrôler plus de 1 000 smartphones utilisés pour gérer des centaines de comptes de réseaux sociaux générés par IA, servant à promouvoir des produits souvent sans mention “publicité”. Il dit avoir signalé la faille le 31 octobre et garder, à ce jour, un accès au système interne. L’entreprise n’a pas répondu aux demandes de commentaire. Pour rappel, une ferme de téléphones orchestre des smartphones pour automatiser ouvertures de comptes, publications et interactions. L’absence de divulgation sponsorisée pose un risque de tromperie des utilisateurs et ravive le débat sur la transparence publicitaire.Cap sur l’extraction d’informations avec GLiNER, figure de proue des “petits modèles de langage” (SLM). Entre NLP traditionnel — rapide, déterministe mais rigide — et LLM — flexible, coûteux et instable — les SLM proposent un compromis. GLiNER fonctionne sur processeurs standard, offre des sorties stables et s’adapte aux environnements réglementés. Zéro-shot, il reconnaît de nouvelles entités à partir de simples descriptions. Techniquement, le modèle compare le texte à des embeddings d’étiquettes fournies par l’utilisateur et retourne mention, indices de caractères et score de confiance. Dans les architectures hybrides, un LLM peut orchestrer tandis que des SLM comme GLiNER exécutent vite et de façon répétable.Direction Lausanne : l’EPFL présente Anyway Systems, pour exécuter des modèles open source localement. Un modèle de la taille de GPT-120B peut tourner sur un réseau de quatre machines avec GPU standard, environ 2 300 CHF l’unité (près de 2 400 €). Bénéfices annoncés : confidentialité des données, souveraineté technologique et meilleure efficience énergétique. Le cluster s’installe en une demi-heure via des techniques d’auto‑stabilisation issues de la blockchain. Les tests évoquent une latence un peu plus élevée mais sans perte de précision. Des pilotes sont en cours avec des entreprises et administrations suisses, ainsi qu’à l’EPFL.Côté recherche en ligne, Microsoft teste dans la barre de Bing un bouton “+” offrant “rechercher avec une image” et “créer une image”. La première réalise une recherche visuelle (objets, lieux, personnes), la seconde génère des images directement depuis la barre. Le test, repéré avec capture d’écran partagée sur X, suscite des échanges sur l’intérêt d’insérer de la création visuelle au cœur du moteur.Dans l’écosystème des développeurs, Stack Overflow traverse une phase “existentielle” face à l’essor de l’IA générative. Baisse de trafic, mais pivot assumé : partenariat avec OpenAI, lancement d’OverflowAI pour une aide plus contextuelle, et licence de données de questions/réponses pour entraîner des modèles. La plateforme met en avant des réponses vérifiées par des humains aux côtés des contenus générés. Côté emploi, plus de 100 postes ont été supprimés en 2023 après une phase d’embauches rapides.La course aux générateurs d’images s’intensifie. OpenAI dévoile GPT Image 1.5, annoncé jusqu’à quatre fois plus rapide que ses versions précédentes. En parallèle, Google pousse Nano Banana Pro, adossé à Gemini 3, apprécié pour les infographies, selon Josh Woodward. La demande a saturé les serveurs d’OpenAI, qui a temporairement limité l’accès à la génération d’images ; Sam Altman évoque des GPU sous tension. Mo Gawdat anticipe une période de 15 ans de forts impacts sur l’emploi. Microsoft n’est pas en reste avec MAI-Image-1, positionné au niveau des meilleurs.On termine avec le Kit de Développement d’Agents (ADK) pour TypeScript, open source. Objectif : construire des agents et systèmes multi‑agents avec une approche “code‑first”. Les briques — Agents, Instructions, Outils — remplacent l’ingénierie d’invite ad hoc et s’intègrent aux pratiques logicielles classiques : versionning, tests, CI/CD. Optimisé pour l’IA de Google (Gemini et Vertex AI) mais modèle‑agnostique, l’ADK supporte Gemini 3 Pro et 3 Flash et se connecte aux données via MCP Toolbox pour bases de données.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus ...
    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2025-12-18
    2025/12/18
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un podcast du Washington Post stoppé net, l’IA outil chez Larian mais pas dans Divinity, agents et vie personnelle, agents d’entreprise face au SaaS, modèles de fondation au DOE, et la dérive du web entre rage bait et AI slop.On commence avec la tentative du Washington Post de lancer « Your Personal Podcast », un résumé audio de l’actualité généré par IA avec ElevenLabs. L’idée : un bulletin sur mesure, avec thèmes, durée et voix synthétique au choix, pour séduire un public plus jeune habitué aux formats ciblés et aux assistants vocaux. Mais moins de deux jours après le lancement, des erreurs factuelles, des citations inventées et des attributions incorrectes ont été relevées. Plus grave, certaines interprétations étaient présentées comme des positions du journal. La rédaction a dénoncé un « désastre », et la Washington Post Guild a fustigé un produit ne respectant pas les standards imposés aux contenus des journalistes humains. Au-delà du cas d’école, on voit la tension entre la culture produit des équipes tech, qui itèrent en bêta, et l’exigence d’exactitude des rédactions. Les hallucinations de modèles restent un risque éditorial, et la question de l’automatisation, des métiers de la voix et de l’édition, ou d’une personnalisation excessive, est relancée.Cap sur le jeu vidéo. Larian Studios utilise l’IA générative pour explorer des idées, produire des présentations internes, générer du concept art et rédiger des textes provisoires. Mais Swen Vincke l’affirme : le prochain Divinity ne contiendra rien de généré par IA. Tout sera écrit par l’équipe et interprété par des acteurs humains. Malgré quelques réticences en interne, le studio s’accorde sur cet usage en support. Objectif affiché : réduire le temps de développement par rapport à Baldur’s Gate 3, en travaillant quêtes et scénarios en parallèle plutôt que linéairement. Larian grandit, ce qui apporte de nouvelles responsabilités. L’IA n’y est pas un substitut aux développeurs mais un levier d’efficacité. Le jeu sera un RPG au tour par tour, avec un système conçu pour le jeu vidéo, et non basé sur Donjons & Dragons.Changeons de cadre, vers la vie quotidienne avec les agents. Lors d’une unconference, un père a demandé à un LLM d’écrire une histoire du soir personnalisée avec le doudou de sa fille, son dessin animé préféré et des méchants pas trop effrayants. Réaction rapportée : l’enfant attend surtout du temps partagé et l’attention de son parent. Même logique avec un plat préféré cuisiné par amour, versus un agent qui analyse les messages, consulte un autre agent, et commande automatiquement. Noter un anniversaire aide, mais automatiser la chasse aux promotions pour un bouquet, voire scanner des photos pour assortir la déco, peut sembler déplacé. Les agents seront utiles pour acheter un livre en baisse de prix, réserver un restaurant si les trains sont retardés, ou proposer un tutorat linguistique. Mais on ne peut pas externaliser l’affection : nos relations ne sont pas des pipelines à optimiser.Retour à l’entreprise où les agents d’IA bousculent le SaaS. En 2025, des plateformes comme Agentforce de Salesforce intègrent des agents capables de raisonner, planifier et exécuter des tâches avec peu de supervision. Les promesses chiffrées attirent : jusqu’à 80 % d’intervention humaine en moins et 70 % de baisse des coûts de tâches. Des cabinets anticipent que les agents pourraient capter plus de 60 % de l’économie des logiciels d’ici 2030, en déplaçant la valeur des abonnements vers des charges de travail dynamiques. L’expérience utilisateur devient conversationnelle, l’application un backend invisible. Un agent peut par exemple analyser des données de marché, rédiger un rapport, puis exécuter des transactions. Les fournisseurs SaaS, attachés à des revenus récurrents et à des interfaces, voient les agents agréger des services disparates dans une couche intelligente qui banalise le middleware. Côté risques, des alertes portent sur des attaques pilotées par IA visant les identités SaaS. Les projections restent robustes : agents à plus de 60 % des profits logiciels d’ici la fin de la décennie, et un marché mondial passant de 8 à 48,3 milliards de dollars entre 2025 et 2030, soit 43 % de croissance annuelle, porté par l’IoT et les données d’entreprise. Les acteurs historiques pivotent, encouragés à utiliser les agents pour des analyses prédictives et des décisions automatisées, et à forger des partenariats clients plus profonds.Dans la recherche publique, un rapport des Académies nationales examine comment le Département de l’Énergie américain pourrait tirer parti des modèles de fondation. Ces grands réseaux, entraînés sur des volumes...
    続きを読む 一部表示
    7 分