エピソード

  • L'IA aujourd'hui épisode du 2026-01-22
    2026/01/22
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’accord Oracle–OpenAI sous pression, le classement LMArena rebattant les cartes, Wikipedia à 25 ans face à l’IA, évolutions chez Google Search et la pub, chevauchement d’audience ChatGPT–Gemini, un jouet AI par Bravo iDeas, et MemU, mémoire pour agents.Commençons par Oracle. L’éditeur a scellé un accord géant avec OpenAI: 300 milliards de dollars sur cinq ans pour des centres de données, soit 60 milliards par an. L’annonce a propulsé l’action Oracle à des records, mais a aussitôt soulevé une question: OpenAI a déclaré environ 10 milliards de revenus annuels, loin des 60 nécessaires. Sam Altman mise sur les ventes de ChatGPT pour combler l’écart. Cette proximité financière a toutefois enflammé le juridique: des détenteurs d’obligations, emmenés par l’Ohio Carpenters’ Pension Plan, poursuivent Oracle pour des documents d’offre de septembre jugés « faux et trompeurs », accusant l’entreprise d’avoir omis des plans d’octobre qui ont ensuite fait chuter le prix des obligations. Oracle, souvent derrière Amazon, Azure et Google dans le cloud, voyait dans ce partenariat un levier majeur et a parlé à Wall Street d’un objectif de 166 milliards de dollars de revenus cloud annuels d’ici 2030, dépendant largement d’OpenAI. En novembre, les gains boursiers liés à l’accord se sont effacés, le marché doutant de sa viabilité. Autre signal: le méga-centre de données « Stargate » à Saline Township, Michigan, vacille, Blue Owl Capital disant ne pas pouvoir réunir les 10 milliards requis.Côté performances des modèles, LMArena place en janvier 2026 les modèles de Google devant ceux d’OpenAI. Le GPT-5.1 « high » n’arrive qu’en neuvième position, battu par Gemini, mais aussi par Grok, Claude et Ernie de Baidu. Rappelons que LMArena repose sur des duels anonymes à partir d’un même prompt, les votes alimentant un score Elo: gagner contre mieux classé rapporte davantage; perdre contre moins bien classé coûte plus. Déjà en 2025, OpenAI perdait du terrain. ChatGPT demeure très utilisé, mais Gemini progresse par ses performances, et Claude s’installe dans l’usage professionnel. En 2026, Google domine plusieurs catégories, que LMArena détaille via des classements par tâche.Passons à Wikipedia, qui fête ses 25 ans. Son modèle éditorial, ses citations de sources et sa gouvernance collective restent une référence à l’heure où le web est inondé de contenus générés par IA. La fondation a mis en pause des résumés générés automatiquement après une réaction des éditeurs, très vigilants face aux canulars issus de l’IA et inquiets d’une baisse des visites humaines. Jimmy Wales a évoqué un usage possible de l’IA, mais des éditeurs y voient « l’antithèse de Wikipedia ». Dans ce contexte, Selena Deckelmann, directrice produit et technologie de la Wikimedia Foundation, rappelle le défi: piloter l’infrastructure et la stratégie produit d’un des sites les plus visités au monde tout en préparant l’encyclopédie à l’ère générative.Chez Google, plusieurs signaux: la firme ne soutient pas les fichiers LLMs.txt pour la recherche; le mode IA teste des couleurs de police plus claires pour afficher prix et stocks; il propose désormais d’élargir les requêtes; et les aperçus IA peuvent inclure des réponses avec texte barré, pointant des informations écartées. Côté pub, un sondage indique que davantage d’annonceurs envisagent Microsoft Advertising cette année, sans doute pour diversifier leurs canaux.Les audiences de ChatGPT et de Gemini se rapprochent nettement, surtout depuis le lancement de Nano Banana fin août, signe d’une convergence d’usage entre plateformes.Du côté produits, Bravo iDeas arrive sur le jouet intelligent avec, le 20 janvier, un « jouet émotionnel » intégrant puces AI et LLMs. L’architecture centrée personnage vise des échanges plus naturels; les puces traitent localement pour des réponses plus rapides et fluides.Enfin, zoom sur MemU, un système de mémoire agentique pour LLM et agents IA. Il ingère conversations, documents, images, en extrait une mémoire structurée et la range dans un système de fichiers hiérarchique, compatible récupération par intégration (RAG) et récupération pilotée par LLM. Deux voies d’essai: en cloud via memu.so, ou en auto-hébergement avec Python 3.13+ et une clé API OpenAI, stockage en mémoire ou PostgreSQL. MemU accepte des fournisseurs de modèles et d’embeddings au-delà d’OpenAI, et fonctionne avec OpenRouter. Côté API, memorize() pour extraire et stocker, retrieve() pour retrouver la mémoire pertinente. Deux stratégies: recherche vectorielle rapide par similarité cosinus, ou récupération par raisonnement LLM pour une compréhension sémantique plus profonde. Cas d’usage: mémoire...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-21
    2026/01/21
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un vote mondial sur l’IA et la vie privée, OpenAI introduit des publicités et un abonnement Go, Anthropic accélère avec Claude Opus 4.5 et Cowork, limites et usages réels des agents de code, et le scepticisme économique d’Ed Zitron.On commence par une initiative civique: un vote anonyme pour mesurer l’opinion publique sur l’IA, présenté comme un choix individuel. Les votes sont agrégés par État ou pays, sans lien avec l’identité des participants. Le processus met l’accent sur la confidentialité: l’identité n’est pas associée au vote, ce qui permet de publier des tendances par localisation sans exposer de données personnelles.Transition vers les plateformes: OpenAI va tester l’intégration de publicités dans ChatGPT, visibles dans la version gratuite et dans l’abonnement à faible coût, ChatGPT Go. Les annonces apparaîtront sous la réponse principale, clairement étiquetées, et ne modifieront pas le contenu des réponses. Les annonceurs n’auront pas accès aux conversations; certaines annonces pourront être interactives pour aider à une décision d’achat. OpenAI prévoit, selon la presse financière, des revenus de “quelques milliards” d’ici 2026. La personnalisation s’appuiera sur des signaux contextuels, tout en garantissant que les échanges restent privés vis-à-vis des annonceurs. Les niveaux Pro, Business et Enterprise ne sont pas concernés, et OpenAI affirme ne pas accepter d’argent pour influencer les réponses.Dans le même mouvement, l’entreprise a officialisé ChatGPT Go à prix réduit au niveau mondial pour doper les revenus, alors que des pertes estimées à 12 milliards de dollars au dernier trimestre alimentent les critiques. Malgré l’assurance que les publicités n’affectent pas les réponses, des réactions négatives d’abonnés payants ont poussé OpenAI à désactiver temporairement certaines fonctionnalités publicitaires. Le secteur est sommé de prouver sa viabilité: 2026 est vu comme un test de gestion de trésorerie, avec des investisseurs plus prudents et un intérêt croissant pour des alternatives à ChatGPT.Face à cette pression, Anthropic avance ses pions avec Claude Opus 4.5 et son agent de développement Claude Code. Des ingénieurs décrivent des gains de temps majeurs: un projet estimé à un an bouclé en une semaine par le CTO de Vercel, tandis que le PDG d’Awaken Tax évoque un facteur x5 de productivité et annule des embauches prévues. Claude Code agit sur fichiers, navigateurs et apps avec supervision minimale, et séduit aussi des non-ingénieurs pour l’analyse de données de santé ou des rapports de dépenses. Anthropic lance également Cowork, une interface graphique construite en environ dix jours… avec Claude Code lui-même. Cowork accède aux fichiers locaux, navigue sur le web, et intègre le Model Context Protocol pour se connecter à des outils externes. Opus 4.5 se distingue en codage, tâches agentiques et workflows d’entreprise (feuilles de calcul, analyse financière), au tarif de 5/25 dollars par million de tokens. L’entreprise revendique des performances en tête des benchmarks et indique que 90 % du code de Claude est désormais généré par l’IA. Une panne récente a touché Opus 4.5, mais la demande reste élevée.Reste à comprendre ce que ces agents savent et ce qu’ils ne savent pas. Leur usage s’apparente à l’impression 3D: produire un prototype est rapide, mais livrer un produit robuste exige compétences et expérience humaines. Les modèles actuels, fondés sur des Transformers, appliquent surtout des savoirs appris; ils réussissent là où les données d’entraînement sont riches, mais peinent à généraliser sur des terrains peu couverts. Exemple parlant: concevoir un jeu pour l’Atari 800 avec des graphismes authentiques demande une compréhension fine difficile à obtenir par simple génération. Leur créativité est contrainte par des associations sémantiques préexistantes; il faut souvent reformuler les problèmes pour éviter des impasses. En pratique, ces outils amplifient le travail des développeurs, sans les remplacer, et ne sont pas des employés autonomes.Enfin, le débat public s’intensifie. Ed Zitron attaque frontalement la promesse des LLM, décrivant des systèmes probabilistes dont les résultats ne justifient pas les investissements massifs. Il souligne un écart entre dépenses et revenus, des retours incertains pour des infrastructures financées à grande échelle, y compris chez des acteurs comme Nvidia. Avec d’autres voix critiques, il pointe les risques d’une bulle, les coûts environnementaux des data centers et une industrie guidée par la croissance plus que par l’utilité. De quoi remettre en perspective les annonces commerciales et techniques du moment.Voilà qui conclut notre épisode d’aujourd...
    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2026-01-20
    2026/01/20
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’IA d’entreprise face à la rareté des GPU, la vision de Jeff Bezos d’un PC dans le cloud, l’offre ChatGPT Go et ses pubs, les partenariats de Wikimedia avec les géants de l’IA, et un focus sur l’assistant de code OpenAI Codex.D’abord, dans les entreprises, un basculement s’opère: l’infrastructure devient la limite des systèmes d’IA. Les grands modèles sont passés de l’expérimentation à la production pour la relation client, l’aide à la décision et l’automatisation. Mais contrairement au cloud « élastique » des dix dernières années, les GPU ne suivent pas. Approvisionnement restreint, coûts d’acquisition élevés, délais de mise à disposition et planification anticipée pèsent désormais sur les choix d’architecture: quantité de contexte, profondeur du raisonnement, enchaînement des étapes d’inférence. Les pipelines en couches — génération de représentations, raisonnement multi-étapes, classement, post-traitement — consomment plus vite la capacité que ne progressent les performances matérielles. Conséquences: plafonds d’activité d’inférence, budgets difficiles à prévoir, pression énergétique croissante dans les data centers, exigences de latence et d’auditabilité plus complexes à tenir, surtout en environnement régulé. Les équipes réévaluent donc combien de contexte maintenir à jour et quand recourir à de très grands modèles.Dans ce contexte de ressources comptées, Jeff Bezos projette un futur où le PC s’efface au profit d’une machine virtuelle dans le cloud, accessible par abonnement. L’idée: données et logiciels hébergés à distance, accessibles depuis n’importe quel appareil connecté, avec des mises à jour fluides et moins de matériel local coûteux. Une promesse de souplesse, mais qui renforce la dépendance aux fournisseurs et pose des questions de sécurité, car la protection des informations personnelles et professionnelles repose sur ces acteurs.Côté produits, OpenAI déploie mondialement ChatGPT Go, proposé à 8 dollars par mois aux États-Unis. Les abonnés accèdent au modèle GPT-5.2 Instant avec dix fois plus de messages, de dépôts de fichiers et de créations d’images que la version gratuite, ainsi qu’une mémoire plus longue pour conserver davantage d’informations sur l’utilisateur. ChatGPT compte désormais trois niveaux d’abonnement dans le monde; pour les tâches demandant un raisonnement plus poussé, GPT-5.2 Thinking reste réservé aux formules Plus ou Pro. Go était déjà disponible en Inde et dans certains autres pays avant cette annonce. OpenAI prévoit par ailleurs de tester, dans les prochaines semaines, des publicités dans les versions gratuite et Go pour les adultes connectés aux États-Unis: encarts clairement identifiés en bas des réponses, explication du ciblage et option pour masquer la publicité. Pas d’annonces sur des sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique. OpenAI affirme que les pubs n’influenceront pas les réponses, que les conversations restent privées et que les données ne sont pas vendues aux annonceurs. Les offres Plus, Pro, Business et Enterprise resteront sans publicité, et l’entreprise promet de conserver au moins une formule payante sans pub pour soutenir des tarifs accessibles.Autre mouvement structurant: la Wikimedia Foundation a signé des partenariats avec Meta, Microsoft, Amazon, Perplexity et Mistral AI. Ces accords garantissent un accès aux contenus de Wikipédia à des volumes et vitesses adaptés aux besoins d’entraînement des modèles, tout en réduisant la charge imposée par les bots sur l’infrastructure de l’encyclopédie. Wikipédia compte plus de 65 millions d’articles dans près de 300 langues. Alors que l’usage des chatbots pour la recherche fait reculer le trafic humain — baisse estimée à 8 % en un an — ces partenariats doivent contribuer à la pérennité financière et technique du projet. Jimmy Wales salue l’usage de données issues de contributions humaines.Enfin, gros plan sur OpenAI Codex, un assistant de codage pensé pour la génération de code, le débogage et la documentation. Il s’utilise en ligne de commande ou via des extensions d’IDE comme Visual Studio Code, et peut exécuter des tâches dans le cloud pour décharger les machines locales en lançant des processus en parallèle. La configuration vise une intégration rapide et adaptée aux usages de chaque équipe. Codex s’interface avec des outils externes via des serveurs MCP, unifiant le flux de développement. Pour les organisations exigeantes en matière de sécurité, il prend en charge des revues de code sur site et des workflows CI personnalisés. OpenAI met à disposition guides et vidéos pour accélérer l’adoption.Voilà qui conclut notre épisode ...
    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2026-01-19
    2026/01/19
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : travail et IA, création musicale et plateformes, enquête en Californie sur des abus liés à la génération d’images, et nouvel outil de traduction d’OpenAI, sur fond de débat sur la fiabilité des modèles.On ouvre avec “Entre la chaise et le clavier”. Dans son troisième épisode, le sociologue Juan Sebastian Carbonell explore comment l’IA recompose le travail. Auteur d’“Un taylorisme augmenté”, il avance que l’IA peut parfois servir d’écran à des stratégies classiques de licenciements. L’épisode revient sur le rapport Frey-Osborne de 2013, qui annonçait 47 % d’emplois menacés d’automatisation, et sur un rapport 2025 signalant la baisse de l’emploi chez les jeunes, présentés comme les “canaris dans la mine” face aux risques liés à l’IA. Antonio Casilli et Paola Tubaro y décrivent l’essor des micro-tâches qui soutiennent l’IA, qualifiant le secteur d’“industrie extractive”. Des travaux de Philippe Aghion et d’Alessandro Delfanti nourrissent l’analyse, tout comme ceux de Mariane Le Gagneur et de la DARES sur le télétravail. Produit par Next et réalisé par Clarice Horn, le podcast invite à regarder la transformation des métiers entre automatisation, sous-traitance invisible et nouvelles formes d’organisation.Changement de registre avec Bandcamp, qui interdit désormais toute musique générée par IA. La plateforme dit vouloir préserver une expérience “sans IA” pour artistes et public, en valorisant des œuvres créées par des humains. Elle encourage les signalements d’albums suspects afin de procéder à des retraits, sans détailler le protocole de vérification ni la mise en place d’une équipe dédiée, tout en affirmant son droit de supprimer le contenu concerné. Un positionnement net, à rebours de plateformes comme Spotify, qui n’ont pas opté pour un retrait global du contenu généré par IA.Cap sur la Californie, où le procureur général Rob Bonta ouvre une enquête sur la prolifération de matériel sexuellement explicite non consensuel produit via Grok, le modèle d’images de xAI. Des utilisateurs prennent des photos ordinaires de femmes et d’enfants pour les transformer sans consentement en scènes suggestives ou explicites diffusées notamment sur X. xAI a intégré un “mode épicé” générant du contenu explicite, utilisé comme argument de vente, et pointé comme facilitateur de la diffusion d’images sexualisant des personnes, y compris des mineurs. Une analyse évoque que, sur 20 000 images générées par xAI entre Noël et le Nouvel An, plus de la moitié représenteraient des personnes en vêtements minimalistes, certaines semblant être des enfants. Bonta, qui s’est déjà entretenu avec OpenAI en septembre au sujet d’interactions inappropriées avec des jeunes et a écrit en août à 12 grandes entreprises d’IA, rappelle l’obligation des acteurs de protéger les mineurs. En 2023, il a rejoint une coalition de 54 États et territoires sollicitant au Congrès une commission d’experts sur l’exploitation d’enfants via l’IA. Il s’oppose aux tentatives d’empêcher les États de réguler et affirme la volonté de défendre les lois californiennes.Toujours côté produits, OpenAI déploie ChatGPT Translate. Introduit le 15 janvier 2026, l’outil propose une interface dédiée et gratuite, sans compte, avec détection automatique de la langue et adaptation du ton et du registre. Certains tests font état de plus de 50 langues, d’autres d’une liste de 28 et d’un déploiement progressif des fonctions: dictée vocale et import de photos pour extraire du texte sont annoncés, mais pas disponibles pour tous; aux États‑Unis, une dictée limitée semble accessible, tandis que la traduction d’images est parfois inactive. Des boutons permettent de choisir un style naturel, académique ou formel, mais ces réglages s’appuient sur le service principal de ChatGPT: l’outil redirige souvent vers une fenêtre avec un prompt pré-rempli. Côté performances, la latence est plus élevée que Google Traduction ou DeepL. OpenAI met en avant l’apprentissage des langues et la prise en compte du contexte, avec un accent sur le ton et le registre plutôt que sur la simple correspondance mot à mot.Enfin, débat sur la fiabilité des modèles génératifs. Un article rappelle qu’ils reposeraient encore largement sur la mémorisation, sujet de désaccord avec Geoffrey Hinton. Quant à l’impact sur l’emploi, le Remote Labor Index estime qu’environ 2,5 % des postes seraient remplaçables par l’IA, un chiffre loin des scénarios de substitution massive. Les promesses d’améliorations par simple changement d’échelle paraissent limitées, et certains alertent sur le risque de fonder des choix économiques ou géopolitiques sur une technologie qui n’a pas ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-18
    2026/01/18
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’IA et le travail entre automatisation et micro-tâches, Bandcamp bannit la musique générée, enquête en Californie sur des images explicites produites avec Grok, et lancement de ChatGPT Translate sur fond de scepticisme envers les promesses de l’IA générative.Dans le podcast « Entre la chaise et le clavier », le sociologue Juan Sebastian Carbonell analyse l’impact de l’IA sur l’emploi. Il rappelle que l’automatisation peut supprimer des postes, dans la lignée du rapport Frey-Osborne de 2013 qui estimait 47 % des emplois menacés. Mais l’IA déplace aussi le travail et en crée sous forme de micro-tâches, souvent précaires mais indispensables pour entraîner et maintenir les systèmes. S’appuyant sur les travaux d’Antonio Casilli et Paola Tubaro, l’IA est décrite comme une « industrie extractive », dépendante de données et de main-d’œuvre. Carbonell, auteur d’« Un taylorisme augmenté », souligne que l’IA peut parfois servir de paravent à des stratégies classiques de licenciements. Reste la promesse de réorganiser les tâches: automatiser le répétitif pour dégager du temps vers des missions plus créatives, à condition d’investir dans la formation continue.On change de scène avec la musique en ligne: Bandcamp annonce l’interdiction de toute musique générée par IA sur sa plateforme. Objectif affiché: préserver une expérience « sans IA » pour artistes et auditeurs, en valorisant la création humaine. Les utilisateurs sont invités à signaler les morceaux suspects; la plateforme se réserve le droit de retirer les contenus, sans détailler son dispositif de vérification ni l’existence d’une équipe dédiée. Une position plus tranchée que celle d’autres services comme Spotify, qui n’ont pas banni globalement ces contenus.Autre dossier, côté régulation: le procureur général de Californie, Rob Bonta, ouvre une enquête sur la prolifération de contenus sexuellement explicites non consensuels produits avec Grok, le modèle d’images de xAI. Des rapports décrivent l’usage d’un « mode épicé » promu commercialement, permettant de transformer des photos ordinaires de femmes et d’enfants pour les sexualiser sans consentement. Une analyse cite plus de la moitié des 20 000 images générées par xAI entre Noël et le Nouvel An montrant des personnes en vêtements minimalistes, certaines semblant être des enfants; des allégations évoquent des images photoréalistes d’enfants dans des actes sexuels. Bonta rappelle ses démarches: soutien à une loi californienne sur la sécurité des chatbots pour mineurs, rencontres en septembre avec OpenAI au sujet d’interactions inappropriées avec des jeunes, et envoi en août d’une lettre à 12 entreprises d’IA. En 2023, il a rejoint une coalition de 54 États et territoires demandant au Congrès une commission d’experts sur l’usage de l’IA dans l’exploitation des enfants, et s’est opposé à une tentative d’interdiction fédérale de réguler l’IA au niveau des États.Côté outils, ChatGPT Translate fait son apparition pour concurrencer Google Traduction et DeepL. Une première description le présente comme gratuit, sans création de compte, couvrant 28 langues dont l’espagnol, le français et des variantes du chinois et du portugais. L’interface affiche deux blocs et une liste de langues; la traduction d’images est annoncée mais pas opérationnelle, et la dictée n’est pas disponible partout. Des boutons permettent d’affiner le style — naturel, académique ou formel — via un prompt côté ChatGPT. Latence notable par rapport à Google ou DeepL, et fonctionnalités encore incomplètes.Une autre présentation, datée du 15 janvier 2026, évoque une version plus étoffée: plus de 50 langues, adaptation du ton et du registre, interface dédiée, possibilité de dicter des phrases ou d’importer une photo, et quatre styles de rendu. Des limites persistent: difficultés ponctuelles d’affichage des traductions ou d’application des styles, avec redirection vers l’interface classique. OpenAI mise sur la qualité stylistique et le contexte pour des usages quotidiens — voyage, travail, études — plutôt que sur une stricte équivalence mot à mot.Enfin, un état des lieux plus critique rappelle que les grands modèles de langage demeurent peu fiables. Le débat sur la part de mémorisation reste vif, en désaccord avec des figures comme Geoffrey Hinton. Le Remote Labor Index estime qu’environ 2,5 % des emplois seraient réellement accomplissables par l’IA aujourd’hui. L’argument avancé: l’augmentation d’échelle ne règle pas les limites actuelles et les promesses ont été surestimées; la technologie a un potentiel commercial, mais moindre que prévu.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous ...
    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2026-01-17
    2026/01/17
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’IA et le travail vu par un sociologue, Bandcamp bannit la musique générée, enquête en Californie sur du contenu explicite créé par IA, et la bataille des traducteurs en ligne avec ChatGPT Translate, sur fond de bilan mesuré de l’impact des LLM.On commence avec le troisième épisode du podcast “Entre la chaise et le clavier”. Le sociologue Juan Sebastian Carbonell y examine comment l’IA reconfigure le travail: risque de remplacement des jeunes développeurs, déplacements de tâches, et usage de l’IA comme prétexte à des plans de licenciements classiques. Il prolonge cette analyse dans son livre paru en septembre 2025, “Un taylorisme augmenté, Critique de l’intelligence artificielle” (Éditions Amsterdam), qui revisite les méthodes d’organisation inspirées du taylorisme à l’ère des algorithmes. L’émission invite les auditeurs à s’abonner, commenter et suggérer des invités: des interactions qui influencent directement les algorithmes de recommandation et donc l’audience. Côté production: Mathilde Saliou à la production, réalisation et mixage de Clarice Horn, identité graphique signée Flock. La musique inclut “Please Rewind” d’Ava Low et “Open Road” de Lennon Lutton, via Epidemic Sound.Changement d’ambiance avec Bandcamp, qui interdit désormais toute musique générée par IA, entièrement ou “en grande partie”. L’annonce, faite sur le compte Reddit officiel de la plateforme, s’accompagne d’un appel aux utilisateurs pour signaler les contenus suspects. Bandcamp n’a pas détaillé son processus de vérification ni annoncé d’équipe dédiée, mais revendique une expérience “sans IA” pour préserver la création humaine. Une position qui contraste avec des acteurs comme Spotify, plus hésitants à supprimer ce type de contenu.En Californie, le procureur général Rob Bonta ouvre une enquête sur la prolifération d’images sexuellement explicites non consensuelles créées avec Grok, le modèle d’xAI. Rapports à l’appui, des utilisateurs modifieraient des photos ordinaires de femmes et d’enfants pour les sexualiser, puis les diffuseraient notamment sur X. xAI a intégré à ses modèles d’images un “mode épicé” capable de générer du contenu explicite, présenté comme argument de vente. Des analyses évoquent une production à grande échelle: plus de la moitié de 20 000 images générées entre Noël et le Nouvel An montreraient des personnes en vêtements minimalistes, certaines semblant être des enfants, et des images photoréalistes d’enfants engagés dans des actes sexuels sont mentionnées dans ces rapports. Bonta rappelle ses actions: soutien à une législation visant à protéger les enfants des chatbots compagnons, rencontre en septembre avec OpenAI aux côtés de la procureure générale du Delaware, envoi en août d’une lettre à 12 grandes entreprises d’IA sur des interactions inappropriées avec des mineurs, et participation en 2023 à une coalition de 54 États et territoires demandant au Congrès une commission d’experts sur le CSAM impliquant l’IA. Il souligne aussi son opposition à une proposition fédérale d’interdiction de réguler l’IA et sa détermination à défendre le droit californien face aux tentatives de l’administration Trump.Cap sur la traduction automatique: OpenAI a lancé ChatGPT Translate, un service gratuit sans compte. Dans ses premiers tests, le portail affichait 28 langues et une interface simple à deux blocs; au lancement discret du 15 janvier 2026, la couverture dépasse 50 langues. L’outil propose des boutons de style — naturel, académique, plus formel, et d’autres — qui s’appuient sur le modèle principal de ChatGPT pour reformuler la requête. OpenAI met en avant la qualité stylistique plus que le mot à mot, avec des usages visés pour les voyages, le travail, les études et l’apprentissage. Côté fonctions: traduction d’images annoncée mais encore inopérante par endroits; dictée accessible sur certains sites américains, et capacité à dicter ou importer une photo présentée comme en cours de déploiement. Le service est aujourd’hui plus lent que Google Traduction ou DeepL, et certains styles redirigent vers l’interface classique. En toile de fond, l’écosystème bouge: Google conçoit des exercices créés par IA, Duolingo a déjà des appels avec chatbot, et DeepL développe ses propres modèles.Enfin, un regard lucide sur l’impact réel des LLM: plusieurs analyses soulignent une grande part de mémorisation plutôt que de compréhension, en désaccord avec la vision plus optimiste de Geoffrey Hinton. Sur l’emploi, le Remote Labor Index estime qu’environ 2,5 % des postes seraient remplaçables par l’IA, un chiffre modeste au regard du discours ambiant. Le constat: la technologie est solide et ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-16
    2026/01/16
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Bandcamp interdit la musique générée par IA, inquiétudes autour de l’IA agentique, Apple transforme une photo en scène 3D, et un cadre de compétences IA pour les cliniciens.La musique générée par IA sature les plateformes. Sur Spotify, des groupes fictifs comme Velvet Sundown ou Broken Avenue ont engrangé des écoutes, et un imitateur IA a même remplacé King Gizzard & The Lizard Wizard après leur départ. Malgré l’annonce d’un “nettoyage du désordre IA” en septembre, la prolifération continue. Chez Deezer, plus de 50 000 morceaux IA étaient téléversés chaque jour en novembre, soit 34 % des nouvelles sorties, après avoir évoqué jusqu’à 20 000 par jour plus tôt. Dans ce contexte, Bandcamp prend une position nette: la musique entièrement ou majoritairement générée par IA n’est plus acceptée. Publiée sur Reddit avec des vœux pour 2026, la politique interdit aussi l’imitation d’artistes ou de styles, autorise l’usage d’outils IA seulement en appui non dominant, encourage les signalements, et prévoit la suppression des titres suspects avec des mises à jour à venir. La communauté a salué la décision. Ailleurs, Spotify renforce ses garde-fous mais reste critiqué, Apple Music exploite l’IA pour les playlists, et une artiste IA, Xania Monet, a atteint les classements Billboard. Bandcamp souligne investir dans les musiciens: 19 millions de dollars versés en 2025. Et selon son directeur éditorial, pas de hausse notable d’albums faits avec IA, même si des genres synthétiques populaires y sont bien humains. Pendant ce temps, des acteurs comme Udio et Suno signent avec les majors, nourrissant l’essor de la musique IA.Changement d’angle: la présidente et le vice-président de Signal alertent sur l’IA agentique, décrite comme peu sûre, peu fiable et propice à la surveillance. Ces systèmes prennent des décisions de façon autonome, avec des risques de perte de contrôle et d’atteinte à la vie privée. Ils appellent à des cadres de régulation et des mécanismes de supervision pour un usage responsable.Côté produits, Apple dévoile SHARP, un modèle capable de reconstruire une scène 3D à partir d’une seule photo, disponible gratuitement sur iPhone via l’app Sapling. Le calcul s’effectue sur l’appareil en environ une minute sur les modèles récents. Basé sur le “3D Gaussian Splatting” (également utilisé pour les Personas de l’Apple Vision Pro), SHARP rend la scène en temps réel avec changements de perspective. Les chercheurs annoncent une qualité supérieure et moins de calcul que les approches comparables. L’intégration dans l’écosystème Apple reste incertaine. Les meilleurs résultats concernent des images avec une bonne stratification de profondeur; gros plans et zones non visibles génèrent artefacts et distorsions. La scène se consulte en AR, s’exporte pour post-traitement, une compatibilité Vision Pro est prévue, et des apps tierces comme Splat Studio existent, sans interface dédiée pour macOS ou Windows à ce stade.Enfin, dans la santé, les LLM passent des pilotes au quotidien clinique. Un cadre en trois niveaux est proposé. Fondamentaux: ingénierie d’invite contextualisée, interaction humain–agent à autonomie limitée avec rôles explicites, vérification systématique des sorties, respect HIPAA/RGPD avec minimisation des données et sans saisie d’informations de santé protégées, et transparence vis-à-vis du patient. Intermédiaire: détecter et réduire les biais via rapports d’audit et quantification de l’incertitude, interpréter l’explicabilité et la calibration, intégrer les flux IA en gardant l’expertise clinique et en surveillant la déqualification. Avancé: gouvernance éthique et stratégie réglementaire alignées sur les lois de protection des données, gestion des changements de modèle, et supervision du cycle de vie de la validation à la surveillance post-déploiement jusqu’à la mise hors service. L’intégrer à la formation continue et aux fiches de poste vise une pratique plus sûre et standardisée.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2026-01-15
    2026/01/15
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : IA à l’école et risque de triche en Allemagne, messagerie Mailo Junior pour enfants, Niji 7 pour l’art animé, Apple Creator Studio, et Siri propulsé par Gemini.D’abord, cap sur Hambourg. Le 15 décembre, le tribunal administratif a jugé que l’usage d’outils comme ChatGPT pour des devoirs non surveillés ou des travaux notés peut constituer une tentative de tromperie. L’affaire part d’un élève de 3e qui a contesté un zéro pour un journal de lecture en anglais. Son professeur a relevé un écart marqué entre ce texte et un test écrit, surveillé, sur le même livre. L’élève a reconnu avoir utilisé ChatGPT. Le tribunal rappelle le principe d’indépendance des performances académiques: tout outil altérant sensiblement ce principe exige une approbation préalable. ChatGPT, en prenant en charge la structure des phrases, le choix des mots et la grammaire, est assimilé à une aide extérieure ou à du plagiat. Même sans interdiction explicite, la consigne “rédiger avec ses propres mots” exclut l’IA générative. Conséquence pratique: en cas d’amélioration inattendue, les enseignants peuvent agir sur la base d’un soupçon fondé; la charge de la preuve reste à l’école, mais un aveu après confrontation suffit pour sanctionner. Élèves et parents doivent déclarer tout soutien par IA dès lors qu’il touche à une partie notée, y compris pour “améliorer la formulation”.On reste du côté jeunes, mais avec un service pensé pour eux: Mailo Junior. Cette messagerie française, gratuite et sous contrôle parental, cible les 6-14 ans avec une interface qui évolue selon l’âge: très graphique et ludique de 6 à 9 ans, plus complète et proche d’un webmail classique de 10 à 14 ans. Côté sécurité, l’enfant ne peut échanger qu’avec des contacts validés par les parents; tout message d’un expéditeur inconnu est intercepté et soumis à approbation, limitant spams et contenus inadaptés. Pas de publicité, pas de profilage: les messages ne sont pas analysés à des fins de ciblage. Les données sont hébergées en France, dans le cadre du RGPD. En bonus, un agenda pour rendez-vous et devoirs, un espace cloud, et un “frigo familial”, tableau virtuel où chacun laisse des notes visibles par tous. Accès via navigateur et applications Android et iOS. Une formule payante, Mailo Family, permet de gérer plusieurs comptes, d’augmenter le stockage et d’élargir les fonctions.Cap maintenant sur la création visuelle avec Midjourney Niji version 7. Ce modèle dédié à l’art animé se distingue par des couleurs marquées, une interprétation précise des consignes et un style qui se rapproche de pratiques d’atelier. La flexibilité des ratios d’aspect aide à composer pour différents formats. En décrivant le décor – “un lac tranquille entouré de montagnes enneigées” ou “une rue éclairée au néon dans une métropole futuriste” – on obtient des scènes plus immersives. Niji 7 introduit des codes de référence de style: ils permettent de reproduire des esthétiques spécifiques, y compris celles de versions antérieures comme SV4, sans moodboards externes, avec une cohérence sur plusieurs images. Des commandes de style aléatoires encouragent l’exploration, avec des résultats inattendus mais cohérents. Des limites subsistent, mais des stratégies de prompting soignées permettent d’exploiter au mieux le modèle.Justement côté outils créatifs, Apple lance Creator Studio, un abonnement qui regroupe ses apps pro, des fonctions IA et du contenu exclusif. Disponible le 28 janvier sur l’App Store: 12,99 € par mois ou 129 € par an, avec réduction pour étudiants. Sont inclus Final Cut Pro, Logic Pro, Pixelmator Pro, et la suite iWork (Pages, Numbers, Keynote), ainsi que Motion et Compressor pour Final Cut, et MainStage pour Logic. Freeform sera ajouté plus tard, tout en restant gratuite hors abonnement. Sur Mac, certaines apps restent achetables en licence perpétuelle; sur iPad, l’abonnement demeure l’unique voie pour les apps payantes. Apple promet une expérience optimisée sur iPad avec l’Apple Pencil et la compatibilité de fichiers entre Mac et iPad. Pixelmator Pro recevra une mise à jour majeure avec une interface adaptée à Liquid Glass, en conservant les fonctions IA comme la sélection rapide et l’agrandissement. Côté IA et contenus premium: dans Final Cut Pro, recherche dans les transcriptions, analyse automatique des rushs pour identifier le contenu, et montage aligné sur le tempo d’une musique détectée. Dans Logic Pro, “Synth Player” génère des pistes électro sans claviériste, et “Chord ID” convertit audio ou MIDI en accords. Une vaste bibliothèque de sons libres de droits est incluse. Un “Content Hub” fournira photos, éléments graphiques, illustrations...
    続きを読む 一部表示
    7 分