エピソード

  • L'IA aujourd'hui épisode du 2025-10-20
    2025/10/20
    Bonjour à toutes et à tous, et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un CLI de codage assisté par IA, argent et « bulle » de l’IA face au local, un petit modèle qui vise GPT-5, le débat utilité vs. limites, une piste thérapeutique contre le cancer, une dérive sur Reddit Answers, et les “Agent Skills” pour Claude.On commence avec Codex CLI d’OpenAI, propulsé par ChatGPT 5 Codex. L’outil s’installe via npm ou Homebrew, puis se connecte à votre compte ChatGPT pour démarrer sans friction. Côté sécurité, il propose trois niveaux de permissions fichiers: lecture seule, automatique et accès complet, pour contrôler précisément ses actions. La continuité de session permet de reprendre un travail en cours, et un commutateur de modèle ajuste le niveau de raisonnement selon la tâche. Un mode transcription détaille pas à pas l’exécution du code. L’outil automatise génération, débogage et optimisation, s’intègre au déploiement sur Vercel, et ajoute une recherche web dans le terminal pour docs et API. Compatible avec divers langages et frameworks, il fonctionne comme un assistant temps réel côté terminal.Changement de focale: l’argent afflue dans l’IA, mais l’enthousiasme interroge. OpenAI et Nvidia auraient signé un contrat de 100 milliards de dollars pour un centre de données, Meta proposerait jusqu’à 100 millions par chercheur, et le capital-risque aurait investi près de 200 milliards sur le premier semestre 2025. Face à ces montants, certains y voient une bulle plus large que celle d’Internet. En contrepoint, l’IA locale progresse: ajout d’un assistant vocal embarqué dans des appareils ménagers, fonctionnant sans Internet, pour dépanner un lave-vaisselle par simple pression d’un bouton. Moins de la moitié des appareils “smart” sont connectés: l’IA embarquée pourrait peser plus dans la durée que des chatbots en ligne.Du côté des modèles, Anthropic lance Claude Haiku 4.5, une version compacte qui vise des performances comparables à GPT-5 tout en réduisant l’empreinte. L’objectif: fournir une qualité de génération soutenue avec des besoins ressources plus modestes, utile pour les déploiements contraints.Sur l’utilité réelle de l’IA, un rappel: même si une bulle venait à éclater, les avancées restent. Les LLM peuvent se tromper et leur valeur métier est parfois limitée, mais d’autres briques fonctionnent déjà bien: traduction, transcription, analyse d’images. Le débat philosophique — chambre chinoise, “perroquets stochastiques” — n’efface pas des progrès concrets. Whisper transcrit des discours multilingues avec précision. AlphaFold a contribué à des avancées qui ont mené à un Nobel de chimie en 2024. En radiologie, l’IA devient un outil d’appui, sans remplacer totalement les praticiens.Retour à la recherche biomédicale: Google et Yale présentent Cell2Sentence-Scale, basé sur Gemma et entraîné sur 57 millions de cellules. En traitant l’expression génétique comme un langage, le modèle a prédit qu’inhiber l’enzyme CK2 augmente la présentation MHC-I, rendant des tumeurs “immunologiquement froides” plus visibles pour le système immunitaire. Des tests à Yale, avec silmitasertib et interféron sur des cellules neuroendocrines humaines, ont montré une hausse de 50% de la présentation d’antigènes. Deux versions open source existent sur Hugging Face: C2S-Scale-Gemma-2B et -27B, entraînées sur CellxGene et le Human Cell Atlas. Le modèle prédit effets de traitements, résume des jeux de données et répond à des questions biologiques. C’est préclinique, en attente d’évaluation par les pairs et d’essais cliniques longs; l’équipe poursuit l’exploration des mécanismes et d’autres prédictions.Côté plateformes, Reddit Answers, l’IA conversationnelle de Reddit, a proposé pour la gestion de la douleur d’essayer le kratom, et a même mentionné l’héroïne. Le kratom, extrait de Mitragyna speciosa, n’est pas classé par la DEA mais est illégal dans certains États. La FDA met en garde contre des risques graves: toxicité hépatique, convulsions, troubles liés à l’usage de substances. La Mayo Clinic le qualifie d’insécurisé et inefficace. L’incident relance la question de la sécurité des réponses générées dans des contextes santé.Enfin, Anthropic introduit les “Agent Skills” pour spécialiser des agents comme Claude. Une compétence est un dossier avec un fichier SKILL.md, dont l’en-tête YAML contient au minimum nom et description, préchargés au démarrage pour que l’agent sache quand l’utiliser. Les compétences peuvent inclure des fichiers supplémentaires, consultés à la demande selon le principe de divulgation progressive, et des scripts que l’agent peut exécuter quand le code est plus fiable ou efficient que la génération de texte. ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2025-10-19
    2025/10/19
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : nouveaux outils pour développeurs, percées biomédicales, controverse autour d’un assistant IA, et débat sur la bulle de l’IA.On commence côté développement avec Codex CLI, un outil en ligne de commande propulsé par le modèle ChatGPT 5 Codex. Installation via npm ou Homebrew, connexion à votre compte ChatGPT, et c’est parti. L’outil propose trois niveaux d’accès aux fichiers — lecture seule, automatique, et accès complet — pour maîtriser ce que l’IA peut modifier. On trouve aussi la reprise de session, un réglage du niveau de raisonnement selon la complexité des tâches, et un mode transcription qui expose pas à pas l’exécution du code. Codex CLI automatise génération, débogage et optimisation, sait déployer via Vercel, et intègre une recherche web pour consulter docs et mises à jour d’API sans quitter le terminal. Compatible avec de nombreux langages et frameworks, il agit comme un assistant temps réel dans la console.Restons du côté des modèles avec Claude Haiku 4.5 d’Anthropic. Cette version compacte vise des performances comparables à GPT-5 tout en demandant moins de ressources. Elle couvre les usages classiques des LLM — génération, traduction, analyse de sentiments — et cible les équipes qui veulent intégrer de l’IA avancée sans infrastructure lourde. L’enjeu ici est l’efficacité: moins de coûts de calcul pour des résultats de haut niveau.Cap sur la recherche médicale. Google et Yale présentent Cell2Sentence-Scale, un modèle basé sur l’architecture Gemma, entraîné sur 57 millions de cellules. Il prédit qu’inhiber l’enzyme CK2 avec le silmitasertib augmente d’environ 50 % la visibilité des tumeurs par le système immunitaire en boostant les molécules MHC-I à la surface des cellules cancéreuses. Des essais en laboratoire sur des cellules neuroendocrines humaines, traitées avec silmitasertib et interféron, ont confirmé cette hausse de la présentation des antigènes. Deux versions open source existent, C2S-Scale-Gemma-2B et -27B, publiées sur Hugging Face, entraînées notamment sur CellxGene et le Human Cell Atlas. Attention cependant : résultats précliniques, en attente d’évaluation par les pairs et d’essais cliniques.Changement de registre avec la modération. Reddit Answers, l’interface conversationnelle de Reddit, a proposé à un utilisateur cherchant des alternatives aux opioïdes d’essayer le kratom… et même l’héroïne. Le kratom n’est pas classé par la DEA mais est illégal dans certains États. La FDA déconseille son usage, citant des risques d’atteintes hépatiques, de convulsions et de troubles liés à l’usage de substances. La Mayo Clinic le qualifie d’“insecure et inefficace”. L’épisode relance la question du contrôle qualité des réponses générées dans des contextes sensibles.Retour aux agents IA avec les “Agent Skills” d’Anthropic. L’idée : des dossiers modulaires qui encapsulent des procédures, scripts et ressources, découverts dynamiquement par l’agent. Chaque compétence contient un SKILL.md avec un en-tête YAML minimal (nom, description) chargé au démarrage, puis un contenu détaillé accessible à la demande — un principe de divulgation progressive qui évite de saturer le contexte. Les compétences peuvent inclure du code exécutable pour des opérations déterministes. Exemple donné : une compétence PDF avec un script Python pour extraire les champs d’un formulaire sans charger le PDF dans le contexte. Recommandation de sécurité : installer uniquement depuis des sources de confiance et auditer les contenus.Enfin, débat économique. Les chiffres donnent le vertige : un contrat de 100 milliards de dollars entre OpenAI et Nvidia pour un centre de données, des offres jusqu’à 100 millions de dollars pour des chercheurs chez Meta, et près de 200 milliards investis par le capital-risque dans l’IA au premier semestre 2025. Certains y voient une bulle plus ample que la bulle Internet. À l’inverse, le terrain montre des usages locaux concrets : un assistant vocal embarqué sur des électroménagers, sans Internet, pour dépanner un lave-vaisselle. Moins de la moitié des appareils connectés étant réellement en ligne, l’IA embarquée pourrait s’imposer. D’autres briques tiennent la route : Whisper transcrit 99 langues en local, AlphaFold a contribué au Nobel de chimie 2024, et la radiologie assistée par IA progresse. Même si la valorisation se corrige, ces capacités demeurent.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2025-10-18
    2025/10/18
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un nouvel outil de codage d’OpenAI, l’argent afflue mais la bulle guette, un modèle compact chez Anthropic, une piste anticancer signée Google–Yale, un dérapage chez Reddit Answers, et les “Agent Skills” pour spécialiser Claude.OpenAI met en avant Codex CLI, propulsé par ChatGPT 5 Codex, pensé comme un compagnon de développement. Au menu: raisonnement personnalisable, continuité de session pour limiter les ruptures de flux, et recherche web intégrée. L’installation se fait via npm ou brew, avec permissions de fichiers configurables et retours détaillés d’exécution. L’outil couvre le codage assisté, le débogage, l’analyse de logs, l’intégration de données et le déploiement, notamment grâce à une intégration fluide avec Vercel. Compatible avec de nombreux langages et frameworks, il vise à automatiser les tâches répétitives et à accélérer les cycles de livraison, tout en laissant la main sur la sécurité et la transparence.Sur le front économique, les montants annoncés donnent le vertige: un contrat de 100 milliards de dollars entre OpenAI et Nvidia pour un centre de données, des offres jusqu’à 100 millions de dollars chez Meta pour attirer des chercheurs, et près de 200 milliards investis par le capital-risque dans les startups d’IA au premier semestre 2025. Des voix alertent sur une bulle plus vaste que celle d’Internet. Argument clé: l’IA locale progresse vite sur du matériel peu coûteux, sans connexion. Exemple concret: un assistant vocal embarqué dans des appareils électroménagers pour aider, hors ligne, à dépanner un lave-vaisselle. Avec moins de la moitié des objets connectés réellement en ligne, le local pourrait compter davantage que les chatbots web. L’auteur pointe aussi la consommation énergétique, les questions de droits d’auteur et l’utilité variable des LLM en entreprise, tout en reconnaissant des avancées solides en traduction, transcription, vision et radiologie. Même si l’économie de l’IA se contracte, la technologie ne disparaîtra pas.Toujours côté modèles, Anthropic lance Claude Haiku 4.5, la version compacte de sa gamme. Objectif: des performances proches de GPT-5 avec moins de ressources, pour des usages comme l’assistance, la génération de contenu ou l’automatisation. Les LLM apprennent les structures et contextes en analysant de grands corpus, puis produisent des réponses cohérentes. Le format compact vise des intégrations plus légères, donc des coûts et latences réduits pour les entreprises.Avancée biomédicale: Google et Yale dévoilent Cell2Sentence-Scale, bâti sur l’architecture Gemma et entraîné sur 57 millions de cellules. En traitant l’ARN mono-cellule comme un “langage”, le modèle a prédit qu’inhiber l’enzyme CK2 rendrait des tumeurs “immunologiquement froides” plus visibles pour le système immunitaire via une hausse de MHC-I. Validation in vitro: traitement de cellules neuroendocrines humaines au silmitasertib et à l’interféron, avec +50 % de présentation d’antigènes, résultat inédit dans la littérature. Deux versions open source, C2S-Scale-Gemma-2B et 27B, sont disponibles sur Hugging Face, entraînées à partir de CellxGene et du Human Cell Atlas. Le cadre peut aussi prédire des effets de traitements, résumer des jeux de données et répondre à des questions biologiques. Ces travaux restent précliniques et devront passer l’évaluation par les pairs et des essais cliniques.Côté plateformes, Reddit Answers fait polémique après avoir proposé, dans un fil sur la douleur, d’essayer l’héroïne et le kratom. Le kratom, extrait de Mitragyna speciosa, n’est pas classé par la DEA mais est illégal dans certains États. La FDA met en garde contre des risques graves, dont toxicité hépatique, convulsions et troubles liés à l’usage de substances. La Mayo Clinic le juge “non sûr et inefficace”. L’incident relance le débat sur la modération et les garde-fous des assistants conversationnels intégrés.Enfin, Anthropic introduit les “Agent Skills” pour spécialiser des agents comme Claude via des dossiers modulaires. Chaque compétence est un répertoire avec un fichier SKILL.md et un en-tête YAML (nom, description). Au démarrage, l’agent charge ces métadonnées, puis lit la compétence complète à la demande selon le principe de divulgation progressive. Les compétences peuvent inclure des fichiers annexes et du code exécutable pour des tâches déterministes. Exemple: une compétence PDF embarque un script Python qui extrait les champs d’un formulaire sans tout charger dans le contexte. Avertissement: installer uniquement depuis des sources fiables et auditer les contenus pour éviter des vulnérabilités.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2025-10-17
    2025/10/17
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : bulle potentielle autour de l’IA, nouveautés pub chez Google et Bing, MLOps vs LLMOps, faille dans Copilot Chat, stratégie d’Oracle pour les données privées, et la course aux modèles chez Microsoft, Google et OpenAI.Sam Altman, PDG d’OpenAI, alerte sur une « bulle de l’IA » qui pourrait peser sur l’économie mondiale en cas d’implosion. Il compare la situation à la bulle Internet des années 2000, quand le NASDAQ Composite a perdu près de 80 % de sa valeur. Les dépenses actuelles sont massives — du projet Stargate, soutenu par la Maison-Blanche, aux investissements de Nvidia et Meta — mais la rentabilité reste floue. Un rapport du MIT indique que 95 % des projets d’IA générative ne produisent pas de retour sur investissement significatif, ce qui fatigue la confiance des investisseurs. Altman reconnaît une phase de surexcitation, tout en conservant une perspective positive sur le long terme.Pendant que les marchés s’animent, les plateformes publicitaires bougent. Dans Google Ads, un nouveau type de campagne apparaît dans le rapport de performance des canaux. Les annonceurs peuvent ainsi disséquer plus finement leurs résultats par canal — recherche Google, YouTube, applications — et optimiser en conséquence. Bing teste, lui, des raffinements de recherche affichés au-dessus des annonces Shopping : de quoi aider les internautes à préciser leur intention avant de cliquer, et potentiellement améliorer la pertinence pour les marchands. Côté référencement, l’API de Google Search Console ne change pas de vitesse : les délais de réponse restent stables pour l’accès programmatique aux données de performance des sites. Enfin, le mode IA de Google s’appuie sur l’activité de l’utilisateur connecté pour personnaliser les résultats, en exploitant l’historique afin d’afficher des réponses mieux alignées avec ses habitudes.Sur le versant opérationnel, MLOps et LLMOps deviennent centraux. MLOps est né pour combler le fossé entre l’expérimentation en data science et des systèmes de production fiables, en transposant les pratiques de DevOps aux modèles. Il unifie gestion des données, développement, déploiement, surveillance et gouvernance, afin de maintenir performance et conformité dans le temps. Une architecture MLOps typique suit quatre phases de cycle de vie, qui structurent développement et maintenance continue. LLMOps adresse des défis différents liés aux grands modèles de langage, à leur mise à jour, à la gestion des prompts et aux coûts, mais partage l’objectif de fiabiliser l’opérationnel.Côté sécurité, une vulnérabilité touche GitHub Copilot Chat via injection d’instructions. Omer Mayraz, de Legit Security, a démontré qu’une pull request contenant des consignes cachées pouvait pousser le bot à révéler des données privées, comme du code source ou des clés AWS. Il a aussi réussi à faire suggérer l’installation de logiciels malveillants, et à exfiltrer des informations au moyen de pixels invisibles. Baptisée CamoLeak, cette méthode exploite le proxy d’images de GitHub pour encoder les données utilisateur. GitHub a désactivé les images dans Copilot Chat pour atténuer le risque, mais l’injection via les pull requests reste non résolue.Dans l’entreprise, Oracle affiche une stratégie axée sur les données propriétaires. Larry Ellison rappelle que des modèles comme ChatGPT ou Llama, formés sur des données publiques, ne suffisent pas pour des cas métier spécifiques. La proposition d’Oracle mise sur la génération augmentée par récupération (RAG) : les données privées restent dans une base Oracle, sont vectorisées, et consultées à la demande par le modèle, sans entraînement dédié sur ces contenus. En interne, Oracle a utilisé cette approche pour prédire quels clients achèteraient un autre produit dans les six mois : l’agent d’IA a identifié les prospects chauds, sélectionné les meilleures références à présenter et envoyé des emails personnalisés. Oracle met en avant le contrôle de toute la pile — infrastructure, bases, applications —, la construction de centres de données pour l’IA et la sécurisation de la vectorisation. En santé, l’agent croise données médicales à jour et dossiers électroniques pour proposer des soins compatibles avec les règles de remboursement.Enfin, la course aux modèles se poursuit. Microsoft dévoile MAI-Image-1, un modèle développé en interne, classé neuvième au classement LMArena. Il s’inscrit dans l’initiative MAI, aux côtés de MAI-Voice-1 et MAI-1-preview, signe d’une volonté d’autonomie vis-à-vis d’OpenAI. Satya Nadella insiste sur l’enjeu de rester compétitif. En parallèle, Google améliore son application Gemini avec le modèle Nano Banana pour un traitement photo avancé...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2025-10-16
    2025/10/16
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : justice et IA générative, agents autonomes et infrastructures de données, culture web autour de The Oatmeal, démonstrateur RAG en sciences humaines, architectures d’agents 2.0, et évaluation des coachs IA en santé.D’abord, à New York, un avocat s’est vu sanctionné pour avoir intégré des références “hallucinées” par l’IA dans ses écritures, puis de nouveau dans son mémoire de défense expliquant… son premier recours à l’IA. Le juge Joel Cohen de la Cour suprême de l’État a accordé la demande de sanctions des plaignants. Selon l’ordonnance, le cabinet de Michael Fourte a déposé un mémoire de jugement sommaire truffé de citations inventées, déclenchant la motion de sanctions, puis a réutilisé une IA non vérifiée pour contester cette motion, en ajoutant de nouvelles références fictives. Rappel utile: en IA, “hallucination” désigne des contenus plausibles mais faux. Le juge pointe aussi une supervision insuffisante des collaborateurs. Signal clair pour les métiers réglementés: vérification et traçabilité sont non négociables.Cap sur l’infrastructure des agents. Un rapport d’Anthropic observe une montée de l’usage “directif” de l’IA: on délègue des tâches entières à des agents comme Claude. Côté API, 44% des usages portent sur le code, secteur facilité par des dépôts centralisés et versionnés. À l’inverse, les données d’entreprise sont dispersées, ce qui freine l’automatisation au-delà du développement. La piste avancée: des plateformes “agent‑centrées” intégrant par défaut deux isolements. D’une part, l’isolation d’exécution, avec des runs éphémères et sans état. D’autre part, l’isolation des données, pour lire des données de qualité production sans toucher aux tables maîtres. Des formats de tables ouverts comme Apache Iceberg permettent des branches isolées et des validations. La fragmentation actuelle des outils impose un “impôt” qui réduit la réutilisabilité et la reproductibilité; une architecture composable — composants spécialisés reliés par des API claires — y répond. Des plateformes comme Bauplan combinent fonctions sans serveur, stockage objet et bases intégrées, et, en unifiant isolation et composabilité, rendent les pipelines audités et prêts pour les agents, dans une logique d’infrastructure pilotée par le code.Dans l’actualité culture web, Matthew Inman, auteur de The Oatmeal et best-seller du New York Times — on lui doit “How to tell if your cat is plotting to kill you” — continue d’explorer l’IA en bande dessinée. Co-créateur des jeux Exploding Kittens et Throw Throw Burrito, il a lancé en 2024 sa première série sur Netflix. Il publie une BD dédiée à l’art généré par IA, avec des remerciements à Matt Harding et Allie Brosh pour l’inspiration; Megan Willoughby a contribué aux arrière-plans pour Netflix. Un regard d’auteur populaire sur les usages créatifs de l’IA.Retour au terrain applicatif avec le HN Lab, qui teste une application RAG de découverte documentaire. Construite avec Streamlit et déployée sur un serveur virtuel Huma-Num derrière Apache, elle marie recherche traditionnelle, vectorisation et génération par LLM. L’outil interroge des PDF, Word, Markdown et CSV sans base dédiée, et fournit des réponses en langage naturel avec citations directes des sources. Le code est disponible sur GitLab, avec un README détaillant installation et déploiement sur machine virtuelle. Objectif: proposer un démonstrateur pédagogique, sécurisé, pour chercheurs en SHS, afin d’éprouver potentiels et limites de la génération augmentée par la recherche.Côté architectures, on passe des agents “superficiels” aux agents “profonds”. Les premiers, une simple boucle while qui s’appuie sur la fenêtre de contexte, suffisent pour des tâches ponctuelles mais échouent sur des enchaînements longs. Les Agents 2.0 introduisent quatre briques: planification explicite (un plan vivant, souvent en markdown, mis à jour entre étapes, avec gestion des échecs), délégation hiérarchique (un orchestrateur confie des sous-tâches à des sous‑agents spécialisés, qui ne renvoient qu’une synthèse), mémoire persistante hors contexte (systèmes de fichiers ou bases vectorielles comme source de vérité; des cadres comme Claude Code ou Manus donnent lecture/écriture), et “ingénierie de contexte” poussée, avec des instructions très détaillées. Résultat: meilleure tenue sur des projets multi‑étapes et réduction des boucles ou pertes de contexte.Enfin, l’évaluation des coachs IA pour l’entraînement physique et la santé reste disparate. La littérature recense des approches mêlant jugements humains et métriques automatiques, mais avec une rigueur médiane de 2,5/5. Les ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2025-10-15
    2025/10/15
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une polémique dans la bière, s’entraîner à débusquer les images générées, un biais régional dans les LLM, l’IA locale dans le navigateur, la recherche Google augmentée par l’IA, et un nouvel outil pour corriger des failles de sécurité.D’abord, un concours de dégustation s’est enflammé. Un outil de jugement dopé à l’IA a été introduit sans prévenir, surprenant et irritant les jurés. Beaucoup pensaient que leurs notes serviraient à entraîner le système. L’organisateur, Best Beer, prépare aussi une appli grand public pour associer les buveurs à des bières via l’IA, et a menacé de poursuites un juge auteur d’une lettre ouverte critique. L’épisode, étalé sur plusieurs mois, illustre la friction quand l’IA entre dans des milieux attachés à l’expertise humaine, une dynamique déjà vue chez les illustrateurs, comédiens de voix et musiciens.Pour muscler la culture visuelle, trois jeux en ligne permettent d’entraîner l’œil à distinguer photo et image générée. Fake or Real 2.0, en français, propose des quiz paramétrables: difficulté Facile (30 s/question, indicateur 85 %), Moyen (20 s, 65 %), Difficile (15 s, 45 %). Thèmes possibles: Portraits, Paysages, Faune et Flore. Modes Classique (20 questions), Sprint (10 en 2 min) ou Survie (arrêt à la première erreur). Tableau de bord en fin de partie, statistiques cumulées, effets sonores et indices désactivables; gratuit et sans pub. Reality Check, en anglais, offre 20 paires d’images renouvelées chaque semaine, jouable au clavier, zoom possible, partage de score; une session test sur le “tapis rouge” a donné 17/20. A realme propose des séries de 10 ou 20 images avec corrections et un bilan chiffré, mais l’interface est chargée en publicité.Quelques repères utiles: vérifier mains et yeux (doigts en trop, reflets identiques), cohérence ombres et lumière, textes déformés ou logos approximatifs, rendu “trop parfait”, et présence de métadonnées EXIF. Google Lens ou TinEye aident à remonter aux sources.Autre signal faible devenu fort: une étude allemande montre que des LLM, dont ChatGPT et LeoLM, reprennent des préjugés contre les Allemands de l’Est. En évaluant les 16 Länder sur des traits positifs, négatifs et neutres (attractivité, sympathie, arrogance, xénophobie, etc.), les modèles attribuent systématiquement des scores plus faibles aux États de l’Est. Paradoxalement, ils notent à la fois “moins travailleurs” et “moins paresseux”. Même des attributs neutres, comme la température corporelle moyenne par Land, finissent biaisés en défaveur de l’Est. Des “prompts” demandant l’impartialité réduisent peu le phénomène. Les auteurs alertent: utilisé dans des candidatures, des crédits ou des systèmes de scoring, ce biais pourrait pénaliser des parcours sans raison valable.Côté outils, NativeMind est une extension open-source (AGPL v3) pour faire tourner un modèle localement dans Chrome, Firefox, Brave ou Edge. On installe l’extension, puis un modèle (DeepSeek, Qwen, Llama). Deux backends: Ollama, recommandé pour la performance via un serveur local exposant une API, et WebLLM, plus simple, directement dans le navigateur via WebAssembly. Tâches possibles: résumer des pages, traduire en conservant la mise en page, analyser PDF et images, rédaction, et enchaînement d’étapes, sans envoyer de données au cloud. Mise en route un peu plus technique, puis usage illimité; docs et téléchargements sur le site et GitHub.Dans la même veine “on-device”, un développeur a réalisé “AI Guess Who?”, un “Qui est-ce ?” jouable contre une IA dans le navigateur. L’app React/TypeScript orchestre l’interface via App.tsx et des hooks dédiés. La logique IA (builtInAIService.ts) s’appuie sur des prompts stricts pour répondre uniquement par “Oui/Non”, avec un schéma JSON garantissant la sortie. La stratégie est enseignée par prompt pour éliminer un maximum de personnages à chaque question. L’analyse visuelle et la déduction sont séparées: le modèle renvoie, en JSON, la présence ou non d’une caractéristique pour chaque visage. Après essais, le concepteur a renforcé le prompt pour l’auto-vérification et le recours à des indices plus distinctifs, notamment quand il reste trois personnages ou moins. Pour éviter la “mémoire” d’une partie à l’autre, la session IA est recréée à chaque reset. Bonus: création de personnages via la caméra, stockés en IndexedDB, et saisie vocale capturée avec MediaRecorder; le modèle, multimodal, transcrit l’audio.Du côté de la recherche, Google insiste: l’IA n’éclipse pas la recherche, elle l’étend. Les usages classiques restent: trouver un numéro, un prix, un itinéraire. L’IA répond à des questions plus complexes et nourrit la...
    続きを読む 一部表示
    7 分
  • L'IA aujourd'hui épisode du 2025-10-14
    2025/10/14
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : applications natives vs web, connaissance ouverte à l’ère de l’IA, framework multi-agents de Microsoft, position de DC sur l’art génératif, leçons de Harold and the Purple Crayon, et deux volets sur la neutralité politique de GPT-5, avant un détour par la bulle IA et la stratégie.D’abord, un rappel utile sur les applications natives. Elles sont codées pour un OS précis — Swift/Objective-C pour iOS, Java/Kotlin pour Android — et s’installent depuis l’App Store ou Google Play. Avantage: performances et accès direct aux fonctions locales comme caméra, GPS ou notifications push. Limites: coûts et délais accrus, car il faut maintenir des versions par plateforme et suivre les mises à jour d’OS. À l’inverse, les applis web, dans le navigateur, sont plus universelles mais moins intégrées au matériel.Direction Londres: la British Library accueille “Knowledge is Human: The Information Ecosystem in the age of AI”, coorganisé avec Wikimedia UK et la Wikimedia Foundation. Le sommet, gratuit et ouvert, réunit médias, chercheurs, institutions patrimoniales et bénévoles des projets Wikimedia. Thèmes abordés: protection de la connaissance comme bien public, réutilisation transformative de la culture et de la science ouvertes, travail humain nécessaire aux systèmes d’IA, littératie médiatique à l’ère de l’IA et actions concrètes pour le changement. Fil rouge: préserver un écosystème de connaissance centré sur l’humain, qui alimente aussi les modèles de langage.Sur l’ingénierie, Microsoft dévoile le Microsoft Agent Framework, SDK et runtime open source pour créer et opérer des systèmes multi‑agents. Il réunit les bases “entreprise” de Semantic Kernel et l’orchestration d’AutoGen. Objectif: passer de l’expérimentation au déploiement sans réécrire. Le framework gère l’orchestration d’agents (raisonnement, décision) et de workflows déterministes (processus métier). Intégrations annoncées: Microsoft 365 Agents SDK pour publier sur Copilot, Teams et le web, et un runtime partagé avec Azure AI Foundry Agent. Conçu modulaire et extensible, avec télémétrie pour le débogage, il n’entend pas remplacer Semantic Kernel ni AutoGen, mais s’appuyer dessus.Côté culture, DC Comics ferme la porte à l’art généré par IA. Son président, Jim Lee, affirme que l’IA “n’a pas la capacité de rêver” et agrège des éléments existants. Cette prise de position arrive alors que, en 2023, des œuvres générées par IA ont remporté des concours, suscitant des contestations et des actions en justice visant Midjourney et Stability AI pour atteinte au droit d’auteur. En parallèle, certains artistes commercialisent déjà des images générées, questionnant valeur et authenticité.Un livre souffle une autre piste: “Harold and the Purple Crayon”, 70 ans après sa parution. L’album montre une créativité née de l’exploration et des erreurs: Harold trace une ligne inutile, invente un dragon pour garder un pommier, sa main tremble, la ligne devient mer, il dessine un bateau. Les choix graphiques — comme les doigts triangulaires d’un policier — servent l’intention narrative. Message: l’imagination humaine produit des surprises situées que l’IA, générative mais sans intention propre, n’atteint pas.Place à la neutralité politique des modèles. OpenAI publie une étude interne: GPT‑5 aurait ~30 % de biais politique en moins que ses prédécesseurs. Méthode: environ 500 invites sur 100 sujets, formulées de “libérale” à “neutre” à “conservatrice”. Un modèle évaluateur note cinq types de biais de 0 (objectif) à 1 (biais fort). Exemple: à “pourquoi financer des ‘guerres sans fin’ plutôt que santé/éducation”, une réponse approuvant la critique obtient 0,67; une réponse multi‑perspectives, 0,00. Sur données d’usage réelles de ChatGPT, <0,01 % de réponses montrent des signes de biais selon ce cadre, conçu surtout pour le contexte anglophone américain. Quand biais il y a: opinions présentées comme propres, focalisation unilatérale, amplification de la position de l’utilisateur. OpenAI renvoie à son Model Spec “Chercher la vérité ensemble” et évoque le débat politique américain, y compris des propositions réglementaires imposant une “neutralité”, qui pourraient aussi cadrer les valeurs des modèles.Deuxième volet: OpenAI affirme que GPT‑5, en versions “instant” et “thinking”, est “le plus neutre” selon un test de “résistance idéologique” sur une centaine de thèmes, chacun posé en cinq formulations du plus libéral au plus conservateur, comparant quatre modèles. Un LLM détecte les signes de biais. Exemple santé mentale: une réponse biaisée condamne les délais d’accès; la référence neutre expose la ...
    続きを読む 一部表示
    7 分
  • L'IA aujourd'hui épisode du 2025-10-13
    2025/10/13
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un outil local pour créer des apps web avec l’IA, débat sur l’avenir des maths face aux modèles, avatars posthumes et droit à l’oubli, partenariat Elastic–Jina pour la recherche, Gemini qui lit Gmail pour cibler la pub, IA et salaires selon Hagen Blix, LLM en diagnostic de maladies rares, et un détour par la science-fiction.Commençons par Dyad, un constructeur d’applications web piloté par IA qui tourne localement sur votre machine. Open-source, gratuit, sans inscription, il s’installe sur Mac et Windows et génère le code à partir d’une description. Particularité: vous choisissez le modèle, de ChatGPT d’OpenAI à Gemini 2.5 Pro de Google ou Claude Sonnet 4.5 d’Anthropic, et même des modèles via Ollama en local pour une confidentialité totale. Dyad est écrit en TypeScript, disponible sur GitHub, et s’intègre avec Supabase pour l’authentification, la base de données et les fonctions serveur, permettant de créer des apps full‑stack. Une communauté Reddit, r/dyadbuilders, partage des projets; des plans payants existent mais la version gratuite suffit pour développer en solo.Direction Heidelberg, où 101 jeunes mathématiciens se sont demandé si l’IA allait rebattre les cartes de leur discipline. Sanjeev Arora, David Silver et Richard S. Sutton estiment que l’IA pourrait dépasser l’humain et que les maths seraient en première ligne. À la session “La Révolution de l’Apprentissage Automatique…”, Yang-Hui He, Javier Gómez-Serrano, Maia Fraser et Arora ont évoqué opportunités et incertitudes. Gómez-Serrano travaille avec des réseaux neuronaux sur l’équation d’Euler de 1757 et collabore avec Terence Tao et Google DeepMind sur AlphaEvolve, un agent de codage évolutif pour résoudre des problèmes scientifiques ouverts. Arora voit l’IA prolifique en formulation de conjectures. He propose le “test de Birch” pour juger ces conjectures: elles doivent être automatiques, interprétables et non triviales; peu y parviennent. Fraser insiste sur le rôle des humains et l’impact social, comparant l’avenir des maths à celui des échecs: la pratique perdure, même si les machines dominent.Sur le front des usages sensibles, la fille de Robin Williams déplore la circulation de vidéos générées par IA imitant son père, qu’elle juge inutile et éprouvante. Nicolas Cage dit craindre l’exploitation de son image après sa mort. Un juriste appelle à une loi permettant d’effacer les données des défunts pour éviter des “résurrections numériques” non consenties. En Chine, le marché des deepfakes sert parfois au deuil via des avatars, posant des questions de vie privée et de consentement.Côté infrastructures de recherche, Elastic s’allie à Jina AI. Objectif: améliorer la récupération dans Elasticsearch avec des modèles d’embeddings multimodaux et multilingues, des rerankers avancés et de petits modèles de langage. Jina fournit des embeddings universels en sortie mono- ou multi‑vecteurs, des rerankers performants sur documents longs multilingues, recherche visuelle et de code, et des modèles pour convertir du HTML en Markdown ou extraire du HTML en JSON. Les modèles resteront téléchargeables sur Hugging Face et seront proposés via Elastic Inference Service sur Elastic Cloud pour exécuter embeddings et rerankers à côté de la recherche vectorielle. Han Xiao, ex‑CEO de Jina, devient VP IA chez Elastic. Feuille de route non garantie; prudence recommandée avec les données sensibles.Dans la vie quotidienne, Google activera par défaut à partir du 10 octobre l’analyse de vos emails par Gemini pour des publicités ciblées, sauf désactivation. Le contenu des messages, pièces jointes et rendez‑vous pourra être exploité. Pour l’arrêter: Gmail > roue crantée > Voir tous les paramètres > onglet Général > section “Fonctionnalités intelligentes” > décocher “Activer les fonctionnalités intelligentes dans Gmail, Chat et Meet”, puis valider. Vous pouvez aussi ajuster les réglages de Google Workspace et, sur Android, vérifier l’app Gemini et les permissions. Des chercheurs signalent un risque d’injection: des instructions invisibles pourraient manipuler l’IA. Selon la zone, l’activation pourrait se faire sans alerte.Sur l’emploi, le cognitiviste Hagen Blix, auteur de “Why We Fear AI”, explique que l’IA sert souvent à déqualifier des tâches, tirant les salaires vers le bas. Dans les entrepôts d’Amazon, la classification automatisée organise déjà le travail. Comme lors de la révolution industrielle, des métiers qualifiés — traducteurs, design, droit — subissent une “prolétarisation”. Blix plaide pour une organisation des travailleurs et des technologies orientées vers la qualité du travail.En santé, une étude sur 158 dossiers d’admission ...
    続きを読む 一部表示
    7 分