エピソード

  • L'IA aujourd'hui épisode du 2026-01-24
    2026/01/24
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : des modèles capables de lire plus de 10 millions de mots, la nouvelle Intelligence Personnelle de Google, la mémoire des IA et le droit d’auteur, la sécurité face aux injections de prompts, la détection de textes générés sur Wikipedia, et l’avenir du code selon le créateur de NodeJS.On commence au MIT CSAIL, où un “modèle récursif” ou RLM a analysé des documents de 6 à 11 millions de jetons sans perdre le fil. Plutôt que d’avaler tout le texte, le RLM garde le document hors du modèle et n’envoie au grand modèle central — typiquement un GPT-5 complet — que les fragments utiles, étape par étape. Résultat: sur BrowseComp-Plus, il récupère correctement 91 % des réponses attendues; sur OOLONG-Pairs, pensé pour le raisonnement multi-étapes, 58 % de bonnes réponses contre 0,04 % pour le modèle de base; et sur CodeQA, il double le score d’un GPT-5 classique, jusqu’à 62 %. Concrètement, il lit d’abord des consignes générales, écrit du code pour localiser les passages clés, analyse chaque extrait, puis assemble. Il peut s’appuyer sur du RAG pour retrouver vite des segments précis. Le code est disponible sur GitHub, et malgré des étapes supplémentaires, les coûts restent comparables aux approches standards.Transition avec Google, qui déploie l’Intelligence Personnelle de Gemini dans le Mode IA de la recherche. Pour l’instant, c’est réservé aux abonnés AI Pro et AI Ultra aux États-Unis, sur comptes personnels, et entièrement optionnel. L’outil peut utiliser Gmail, Google Photos, YouTube et l’historique de recherche afin d’ajuster ses réponses. On peut connecter Gmail et/ou Photos, et débrancher quand on veut. Exemple concret: le Mode IA peut croiser une réservation d’hôtel trouvée dans Gmail avec des souvenirs dans Photos pour proposer un itinéraire adapté, comme un musée interactif pour enfants ou un salon de crème glacée rétro si vos images regorgent de selfies glacés. Google précise ne pas entraîner directement ses modèles sur votre boîte mail ou vos photos; l’entreprise parle de “prompts spécifiques” pour améliorer les réponses. Elle prévient aussi des risques de mauvaises connexions entre des sujets ou de contexte mal saisi; on peut clarifier en suivi et signaler avec le pouce vers le bas. Une extension à d’autres pays et à des utilisateurs non payants est prévue.Passons aux données d’entraînement et au droit d’auteur. Les LLM apprennent sur des corpus massifs, incluant souvent Wikipédia et Books3, une collection d’environ 200 000 livres réunis sans l’accord des auteurs. Certains soutiennent que ces données forment un “savoir universel” et que les modèles ne mémorisent pas les œuvres mot à mot. Or, une étude récente de Stanford et Yale, menée par Ahmed Ahmed et ses collègues, a obtenu de quatre IA grand public déconnectées d’Internet qu’elles récitent des pages entières. Gemini 2.5 Pro a restitué 77 % du texte de “Harry Potter à l’école des sorciers”, pourtant protégé. La méthode: compléter la première phrase, puis poursuivre par petits morceaux. Dans un autre test, Le Monde a pu faire reproduire le premier paragraphe de “Du côté de chez Swann” et des œuvres anglaises du domaine public ; pour les œuvres protégées, les réponses se sont limitées à des résumés. Le débat sur la mémoire des modèles et l’usage d’œuvres protégées se poursuit.Côté sécurité, les LLM restent vulnérables aux injections de prompt, des demandes formulées pour contourner les garde-fous et obtenir des actions indésirables. Ces modèles s’appuient sur des similitudes textuelles sans compréhension des intentions ou des hiérarchies, et privilégient la production d’une réponse plutôt que l’expression d’incertitude. Leur entraînement sur des cas moyens les met en difficulté face aux situations extrêmes. Des pistes émergent: renforcer la compréhension du contexte, intégrer des modèles du monde physique, et doter les systèmes de signaux de confiance et de normes sociales. Des progrès de fond restent nécessaires.Sur Wikipedia, le guide visant à identifier les contenus générés par IA est désormais détourné pour les masquer. Les critères de détection, pensés pour repérer des textes peu profonds ou trop rigides, servent à “ajuster” des algorithmes afin de rendre les productions plus difficiles à distinguer des écrits humains. Cette course aux armements fragilise la fiabilité de plateformes collaboratives et relance le débat sur transparence et authenticité. Certains experts appellent à interdire légalement le fait de cacher l’origine non humaine d’un contenu, tout en reconnaissant la difficulté d’appliquer de telles règles au rythme des évolutions techniques.Enfin, l’avenir du code avec Ryan Dahl, ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-23
    2026/01/23
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : contrat CSU–OpenAI contesté, contrôle d’âge sur ChatGPT, critiques d’Elon Musk, un préprint sur l’IA et les institutions, et un nouveau modèle d’images en temps réel.D’abord en Californie : le système des universités d’État a signé en février 2025 un contrat de 17 millions de dollars avec OpenAI pour déployer ChatGPT Edu auprès du personnel et des étudiants sur 22 campus, dans l’initiative “Université Équipée par l’IA”. Des voix internes s’y opposent. Elles soutiennent que, malgré son nom, ChatGPT Edu n’est pas une technologie éducative dédiée : hormis des paramètres de confidentialité et de sécurité, il serait équivalent à la version gratuite en ligne, non entraîné ni optimisé pour l’enseignement, sans appui systématique sur des sources fiables et évaluées par des pairs, et indifférent à la véracité. Des experts avancent des risques pour les conditions de travail académiques, la qualité pédagogique, de nouvelles formes de discrimination et la santé mentale des étudiants. Le contexte budgétaire tend la situation : à Sonoma State, 46 membres du corps professoral ont été licenciés et 6 départements fermés en janvier 2025 ; à San Francisco State, 615 professeurs vacataires ont disparu en deux ans, et un programme de départ volontaire a été proposé en décembre 2025 aux professeurs proches de la retraite, avec la perspective de licenciements de titulaires si moins de 75 départs sont actés. Neuf campus ont reçu des avis de licenciements possibles depuis 2024. Les signataires demandent de ne pas renouveler le contrat OpenAI et d’allouer les économies à la protection des emplois, ainsi qu’une gouvernance partagée sur l’IA, au service de la mission éducative de CSU.Transition vers la sécurité des usages grand public. OpenAI déploie une fonction qui devine l’âge des utilisateurs de ChatGPT pour mieux protéger les mineurs, hors Union européenne pour l’instant en raison des règles locales. Le modèle de prédiction croise l’âge du compte, les horaires et schémas d’utilisation, les types de questions et centres d’intérêt ; l’âge déclaré n’est qu’un signal parmi d’autres. Des erreurs sont attendues, comme classer à tort un adulte en mineur. Dans ce cas, OpenAI propose une vérification via Persona, un tiers spécialisé, avec documents d’identité officiels ou selfie en direct selon le pays. Les comptes identifiés comme mineurs accèdent à une version spécifique de ChatGPT, limitant l’exposition à certains contenus. Des contrôles parentaux permettent de désactiver des fonctions ou de restreindre les horaires. L’entreprise indique évaluer et ajuster ces dispositifs en continu, dans un contexte de critiques et d’actions en justice, notamment après le suicide d’un adolescent ayant interagi avec le chatbot.Sur le terrain des controverses publiques, Elon Musk a qualifié ChatGPT de “diabolique”, affirmant qu’il aurait convaincu une personne de commettre un meurtre-suicide. OpenAI est également accusée de partager des données de manière sélective dans cette affaire, ce qui alimenterait des soupçons de dissimulation pour préserver son image. Alors que près d’un milliard de personnes utilisent des outils de type ChatGPT, la question de la transparence et de la responsabilité revient au premier plan. OpenAI dit travailler à améliorer la sécurité et la fiabilité de ses produits, tout en reconnaissant la complexité de la tâche.Cette interrogation rejoint un débat académique plus large. Deux professeurs de droit de l’Université de Boston publient un préprint, “Comment l’IA détruit les institutions”. Leur thèse : la conception des systèmes d’IA, en particulier générative et prédictive, est incompatible avec des fonctions clés des institutions civiques – coopération, transparence, responsabilité, capacité d’évolution. Selon eux, l’IA n’est pas un simple outil d’efficacité neutre ; elle tend à “optimiser” des structures comme les agences administratives, les universités, la santé ou le journalisme au point de les affaiblir. Ils soutiennent que, même sans intention d’éradication, l’IA peut épuiser ces institutions. Initialement partis pour un essai plus positif, ils disent avoir réorienté leur travail face à l’ampleur perçue du risque.Pour finir, une avancée côté modèles d’images avec Flux.2 Klein, dédié à la génération et à l’édition en temps réel, pensé pour tourner vite et sur du matériel modeste. Intégré à la famille Flux.2, Klein privilégie la latence faible et la réactivité pour des usages interactifs: aperçus en direct, édition, prototypage rapide, ou intégration dans des flux agentiques. La “famille Klein” comporte plusieurs variantes pour arbitrer vitesse, ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-22
    2026/01/22
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’accord Oracle–OpenAI sous pression, le classement LMArena rebattant les cartes, Wikipedia à 25 ans face à l’IA, évolutions chez Google Search et la pub, chevauchement d’audience ChatGPT–Gemini, un jouet AI par Bravo iDeas, et MemU, mémoire pour agents.Commençons par Oracle. L’éditeur a scellé un accord géant avec OpenAI: 300 milliards de dollars sur cinq ans pour des centres de données, soit 60 milliards par an. L’annonce a propulsé l’action Oracle à des records, mais a aussitôt soulevé une question: OpenAI a déclaré environ 10 milliards de revenus annuels, loin des 60 nécessaires. Sam Altman mise sur les ventes de ChatGPT pour combler l’écart. Cette proximité financière a toutefois enflammé le juridique: des détenteurs d’obligations, emmenés par l’Ohio Carpenters’ Pension Plan, poursuivent Oracle pour des documents d’offre de septembre jugés « faux et trompeurs », accusant l’entreprise d’avoir omis des plans d’octobre qui ont ensuite fait chuter le prix des obligations. Oracle, souvent derrière Amazon, Azure et Google dans le cloud, voyait dans ce partenariat un levier majeur et a parlé à Wall Street d’un objectif de 166 milliards de dollars de revenus cloud annuels d’ici 2030, dépendant largement d’OpenAI. En novembre, les gains boursiers liés à l’accord se sont effacés, le marché doutant de sa viabilité. Autre signal: le méga-centre de données « Stargate » à Saline Township, Michigan, vacille, Blue Owl Capital disant ne pas pouvoir réunir les 10 milliards requis.Côté performances des modèles, LMArena place en janvier 2026 les modèles de Google devant ceux d’OpenAI. Le GPT-5.1 « high » n’arrive qu’en neuvième position, battu par Gemini, mais aussi par Grok, Claude et Ernie de Baidu. Rappelons que LMArena repose sur des duels anonymes à partir d’un même prompt, les votes alimentant un score Elo: gagner contre mieux classé rapporte davantage; perdre contre moins bien classé coûte plus. Déjà en 2025, OpenAI perdait du terrain. ChatGPT demeure très utilisé, mais Gemini progresse par ses performances, et Claude s’installe dans l’usage professionnel. En 2026, Google domine plusieurs catégories, que LMArena détaille via des classements par tâche.Passons à Wikipedia, qui fête ses 25 ans. Son modèle éditorial, ses citations de sources et sa gouvernance collective restent une référence à l’heure où le web est inondé de contenus générés par IA. La fondation a mis en pause des résumés générés automatiquement après une réaction des éditeurs, très vigilants face aux canulars issus de l’IA et inquiets d’une baisse des visites humaines. Jimmy Wales a évoqué un usage possible de l’IA, mais des éditeurs y voient « l’antithèse de Wikipedia ». Dans ce contexte, Selena Deckelmann, directrice produit et technologie de la Wikimedia Foundation, rappelle le défi: piloter l’infrastructure et la stratégie produit d’un des sites les plus visités au monde tout en préparant l’encyclopédie à l’ère générative.Chez Google, plusieurs signaux: la firme ne soutient pas les fichiers LLMs.txt pour la recherche; le mode IA teste des couleurs de police plus claires pour afficher prix et stocks; il propose désormais d’élargir les requêtes; et les aperçus IA peuvent inclure des réponses avec texte barré, pointant des informations écartées. Côté pub, un sondage indique que davantage d’annonceurs envisagent Microsoft Advertising cette année, sans doute pour diversifier leurs canaux.Les audiences de ChatGPT et de Gemini se rapprochent nettement, surtout depuis le lancement de Nano Banana fin août, signe d’une convergence d’usage entre plateformes.Du côté produits, Bravo iDeas arrive sur le jouet intelligent avec, le 20 janvier, un « jouet émotionnel » intégrant puces AI et LLMs. L’architecture centrée personnage vise des échanges plus naturels; les puces traitent localement pour des réponses plus rapides et fluides.Enfin, zoom sur MemU, un système de mémoire agentique pour LLM et agents IA. Il ingère conversations, documents, images, en extrait une mémoire structurée et la range dans un système de fichiers hiérarchique, compatible récupération par intégration (RAG) et récupération pilotée par LLM. Deux voies d’essai: en cloud via memu.so, ou en auto-hébergement avec Python 3.13+ et une clé API OpenAI, stockage en mémoire ou PostgreSQL. MemU accepte des fournisseurs de modèles et d’embeddings au-delà d’OpenAI, et fonctionne avec OpenRouter. Côté API, memorize() pour extraire et stocker, retrieve() pour retrouver la mémoire pertinente. Deux stratégies: recherche vectorielle rapide par similarité cosinus, ou récupération par raisonnement LLM pour une compréhension sémantique plus profonde. Cas d’usage: mémoire...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-21
    2026/01/21
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un vote mondial sur l’IA et la vie privée, OpenAI introduit des publicités et un abonnement Go, Anthropic accélère avec Claude Opus 4.5 et Cowork, limites et usages réels des agents de code, et le scepticisme économique d’Ed Zitron.On commence par une initiative civique: un vote anonyme pour mesurer l’opinion publique sur l’IA, présenté comme un choix individuel. Les votes sont agrégés par État ou pays, sans lien avec l’identité des participants. Le processus met l’accent sur la confidentialité: l’identité n’est pas associée au vote, ce qui permet de publier des tendances par localisation sans exposer de données personnelles.Transition vers les plateformes: OpenAI va tester l’intégration de publicités dans ChatGPT, visibles dans la version gratuite et dans l’abonnement à faible coût, ChatGPT Go. Les annonces apparaîtront sous la réponse principale, clairement étiquetées, et ne modifieront pas le contenu des réponses. Les annonceurs n’auront pas accès aux conversations; certaines annonces pourront être interactives pour aider à une décision d’achat. OpenAI prévoit, selon la presse financière, des revenus de “quelques milliards” d’ici 2026. La personnalisation s’appuiera sur des signaux contextuels, tout en garantissant que les échanges restent privés vis-à-vis des annonceurs. Les niveaux Pro, Business et Enterprise ne sont pas concernés, et OpenAI affirme ne pas accepter d’argent pour influencer les réponses.Dans le même mouvement, l’entreprise a officialisé ChatGPT Go à prix réduit au niveau mondial pour doper les revenus, alors que des pertes estimées à 12 milliards de dollars au dernier trimestre alimentent les critiques. Malgré l’assurance que les publicités n’affectent pas les réponses, des réactions négatives d’abonnés payants ont poussé OpenAI à désactiver temporairement certaines fonctionnalités publicitaires. Le secteur est sommé de prouver sa viabilité: 2026 est vu comme un test de gestion de trésorerie, avec des investisseurs plus prudents et un intérêt croissant pour des alternatives à ChatGPT.Face à cette pression, Anthropic avance ses pions avec Claude Opus 4.5 et son agent de développement Claude Code. Des ingénieurs décrivent des gains de temps majeurs: un projet estimé à un an bouclé en une semaine par le CTO de Vercel, tandis que le PDG d’Awaken Tax évoque un facteur x5 de productivité et annule des embauches prévues. Claude Code agit sur fichiers, navigateurs et apps avec supervision minimale, et séduit aussi des non-ingénieurs pour l’analyse de données de santé ou des rapports de dépenses. Anthropic lance également Cowork, une interface graphique construite en environ dix jours… avec Claude Code lui-même. Cowork accède aux fichiers locaux, navigue sur le web, et intègre le Model Context Protocol pour se connecter à des outils externes. Opus 4.5 se distingue en codage, tâches agentiques et workflows d’entreprise (feuilles de calcul, analyse financière), au tarif de 5/25 dollars par million de tokens. L’entreprise revendique des performances en tête des benchmarks et indique que 90 % du code de Claude est désormais généré par l’IA. Une panne récente a touché Opus 4.5, mais la demande reste élevée.Reste à comprendre ce que ces agents savent et ce qu’ils ne savent pas. Leur usage s’apparente à l’impression 3D: produire un prototype est rapide, mais livrer un produit robuste exige compétences et expérience humaines. Les modèles actuels, fondés sur des Transformers, appliquent surtout des savoirs appris; ils réussissent là où les données d’entraînement sont riches, mais peinent à généraliser sur des terrains peu couverts. Exemple parlant: concevoir un jeu pour l’Atari 800 avec des graphismes authentiques demande une compréhension fine difficile à obtenir par simple génération. Leur créativité est contrainte par des associations sémantiques préexistantes; il faut souvent reformuler les problèmes pour éviter des impasses. En pratique, ces outils amplifient le travail des développeurs, sans les remplacer, et ne sont pas des employés autonomes.Enfin, le débat public s’intensifie. Ed Zitron attaque frontalement la promesse des LLM, décrivant des systèmes probabilistes dont les résultats ne justifient pas les investissements massifs. Il souligne un écart entre dépenses et revenus, des retours incertains pour des infrastructures financées à grande échelle, y compris chez des acteurs comme Nvidia. Avec d’autres voix critiques, il pointe les risques d’une bulle, les coûts environnementaux des data centers et une industrie guidée par la croissance plus que par l’utilité. De quoi remettre en perspective les annonces commerciales et techniques du moment.Voilà qui conclut notre épisode d’aujourd...
    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2026-01-20
    2026/01/20
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’IA d’entreprise face à la rareté des GPU, la vision de Jeff Bezos d’un PC dans le cloud, l’offre ChatGPT Go et ses pubs, les partenariats de Wikimedia avec les géants de l’IA, et un focus sur l’assistant de code OpenAI Codex.D’abord, dans les entreprises, un basculement s’opère: l’infrastructure devient la limite des systèmes d’IA. Les grands modèles sont passés de l’expérimentation à la production pour la relation client, l’aide à la décision et l’automatisation. Mais contrairement au cloud « élastique » des dix dernières années, les GPU ne suivent pas. Approvisionnement restreint, coûts d’acquisition élevés, délais de mise à disposition et planification anticipée pèsent désormais sur les choix d’architecture: quantité de contexte, profondeur du raisonnement, enchaînement des étapes d’inférence. Les pipelines en couches — génération de représentations, raisonnement multi-étapes, classement, post-traitement — consomment plus vite la capacité que ne progressent les performances matérielles. Conséquences: plafonds d’activité d’inférence, budgets difficiles à prévoir, pression énergétique croissante dans les data centers, exigences de latence et d’auditabilité plus complexes à tenir, surtout en environnement régulé. Les équipes réévaluent donc combien de contexte maintenir à jour et quand recourir à de très grands modèles.Dans ce contexte de ressources comptées, Jeff Bezos projette un futur où le PC s’efface au profit d’une machine virtuelle dans le cloud, accessible par abonnement. L’idée: données et logiciels hébergés à distance, accessibles depuis n’importe quel appareil connecté, avec des mises à jour fluides et moins de matériel local coûteux. Une promesse de souplesse, mais qui renforce la dépendance aux fournisseurs et pose des questions de sécurité, car la protection des informations personnelles et professionnelles repose sur ces acteurs.Côté produits, OpenAI déploie mondialement ChatGPT Go, proposé à 8 dollars par mois aux États-Unis. Les abonnés accèdent au modèle GPT-5.2 Instant avec dix fois plus de messages, de dépôts de fichiers et de créations d’images que la version gratuite, ainsi qu’une mémoire plus longue pour conserver davantage d’informations sur l’utilisateur. ChatGPT compte désormais trois niveaux d’abonnement dans le monde; pour les tâches demandant un raisonnement plus poussé, GPT-5.2 Thinking reste réservé aux formules Plus ou Pro. Go était déjà disponible en Inde et dans certains autres pays avant cette annonce. OpenAI prévoit par ailleurs de tester, dans les prochaines semaines, des publicités dans les versions gratuite et Go pour les adultes connectés aux États-Unis: encarts clairement identifiés en bas des réponses, explication du ciblage et option pour masquer la publicité. Pas d’annonces sur des sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique. OpenAI affirme que les pubs n’influenceront pas les réponses, que les conversations restent privées et que les données ne sont pas vendues aux annonceurs. Les offres Plus, Pro, Business et Enterprise resteront sans publicité, et l’entreprise promet de conserver au moins une formule payante sans pub pour soutenir des tarifs accessibles.Autre mouvement structurant: la Wikimedia Foundation a signé des partenariats avec Meta, Microsoft, Amazon, Perplexity et Mistral AI. Ces accords garantissent un accès aux contenus de Wikipédia à des volumes et vitesses adaptés aux besoins d’entraînement des modèles, tout en réduisant la charge imposée par les bots sur l’infrastructure de l’encyclopédie. Wikipédia compte plus de 65 millions d’articles dans près de 300 langues. Alors que l’usage des chatbots pour la recherche fait reculer le trafic humain — baisse estimée à 8 % en un an — ces partenariats doivent contribuer à la pérennité financière et technique du projet. Jimmy Wales salue l’usage de données issues de contributions humaines.Enfin, gros plan sur OpenAI Codex, un assistant de codage pensé pour la génération de code, le débogage et la documentation. Il s’utilise en ligne de commande ou via des extensions d’IDE comme Visual Studio Code, et peut exécuter des tâches dans le cloud pour décharger les machines locales en lançant des processus en parallèle. La configuration vise une intégration rapide et adaptée aux usages de chaque équipe. Codex s’interface avec des outils externes via des serveurs MCP, unifiant le flux de développement. Pour les organisations exigeantes en matière de sécurité, il prend en charge des revues de code sur site et des workflows CI personnalisés. OpenAI met à disposition guides et vidéos pour accélérer l’adoption.Voilà qui conclut notre épisode ...
    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2026-01-19
    2026/01/19
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : travail et IA, création musicale et plateformes, enquête en Californie sur des abus liés à la génération d’images, et nouvel outil de traduction d’OpenAI, sur fond de débat sur la fiabilité des modèles.On ouvre avec “Entre la chaise et le clavier”. Dans son troisième épisode, le sociologue Juan Sebastian Carbonell explore comment l’IA recompose le travail. Auteur d’“Un taylorisme augmenté”, il avance que l’IA peut parfois servir d’écran à des stratégies classiques de licenciements. L’épisode revient sur le rapport Frey-Osborne de 2013, qui annonçait 47 % d’emplois menacés d’automatisation, et sur un rapport 2025 signalant la baisse de l’emploi chez les jeunes, présentés comme les “canaris dans la mine” face aux risques liés à l’IA. Antonio Casilli et Paola Tubaro y décrivent l’essor des micro-tâches qui soutiennent l’IA, qualifiant le secteur d’“industrie extractive”. Des travaux de Philippe Aghion et d’Alessandro Delfanti nourrissent l’analyse, tout comme ceux de Mariane Le Gagneur et de la DARES sur le télétravail. Produit par Next et réalisé par Clarice Horn, le podcast invite à regarder la transformation des métiers entre automatisation, sous-traitance invisible et nouvelles formes d’organisation.Changement de registre avec Bandcamp, qui interdit désormais toute musique générée par IA. La plateforme dit vouloir préserver une expérience “sans IA” pour artistes et public, en valorisant des œuvres créées par des humains. Elle encourage les signalements d’albums suspects afin de procéder à des retraits, sans détailler le protocole de vérification ni la mise en place d’une équipe dédiée, tout en affirmant son droit de supprimer le contenu concerné. Un positionnement net, à rebours de plateformes comme Spotify, qui n’ont pas opté pour un retrait global du contenu généré par IA.Cap sur la Californie, où le procureur général Rob Bonta ouvre une enquête sur la prolifération de matériel sexuellement explicite non consensuel produit via Grok, le modèle d’images de xAI. Des utilisateurs prennent des photos ordinaires de femmes et d’enfants pour les transformer sans consentement en scènes suggestives ou explicites diffusées notamment sur X. xAI a intégré un “mode épicé” générant du contenu explicite, utilisé comme argument de vente, et pointé comme facilitateur de la diffusion d’images sexualisant des personnes, y compris des mineurs. Une analyse évoque que, sur 20 000 images générées par xAI entre Noël et le Nouvel An, plus de la moitié représenteraient des personnes en vêtements minimalistes, certaines semblant être des enfants. Bonta, qui s’est déjà entretenu avec OpenAI en septembre au sujet d’interactions inappropriées avec des jeunes et a écrit en août à 12 grandes entreprises d’IA, rappelle l’obligation des acteurs de protéger les mineurs. En 2023, il a rejoint une coalition de 54 États et territoires sollicitant au Congrès une commission d’experts sur l’exploitation d’enfants via l’IA. Il s’oppose aux tentatives d’empêcher les États de réguler et affirme la volonté de défendre les lois californiennes.Toujours côté produits, OpenAI déploie ChatGPT Translate. Introduit le 15 janvier 2026, l’outil propose une interface dédiée et gratuite, sans compte, avec détection automatique de la langue et adaptation du ton et du registre. Certains tests font état de plus de 50 langues, d’autres d’une liste de 28 et d’un déploiement progressif des fonctions: dictée vocale et import de photos pour extraire du texte sont annoncés, mais pas disponibles pour tous; aux États‑Unis, une dictée limitée semble accessible, tandis que la traduction d’images est parfois inactive. Des boutons permettent de choisir un style naturel, académique ou formel, mais ces réglages s’appuient sur le service principal de ChatGPT: l’outil redirige souvent vers une fenêtre avec un prompt pré-rempli. Côté performances, la latence est plus élevée que Google Traduction ou DeepL. OpenAI met en avant l’apprentissage des langues et la prise en compte du contexte, avec un accent sur le ton et le registre plutôt que sur la simple correspondance mot à mot.Enfin, débat sur la fiabilité des modèles génératifs. Un article rappelle qu’ils reposeraient encore largement sur la mémorisation, sujet de désaccord avec Geoffrey Hinton. Quant à l’impact sur l’emploi, le Remote Labor Index estime qu’environ 2,5 % des postes seraient remplaçables par l’IA, un chiffre loin des scénarios de substitution massive. Les promesses d’améliorations par simple changement d’échelle paraissent limitées, et certains alertent sur le risque de fonder des choix économiques ou géopolitiques sur une technologie qui n’a pas ...
    続きを読む 一部表示
    6 分
  • L'IA aujourd'hui épisode du 2026-01-18
    2026/01/18
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’IA et le travail entre automatisation et micro-tâches, Bandcamp bannit la musique générée, enquête en Californie sur des images explicites produites avec Grok, et lancement de ChatGPT Translate sur fond de scepticisme envers les promesses de l’IA générative.Dans le podcast « Entre la chaise et le clavier », le sociologue Juan Sebastian Carbonell analyse l’impact de l’IA sur l’emploi. Il rappelle que l’automatisation peut supprimer des postes, dans la lignée du rapport Frey-Osborne de 2013 qui estimait 47 % des emplois menacés. Mais l’IA déplace aussi le travail et en crée sous forme de micro-tâches, souvent précaires mais indispensables pour entraîner et maintenir les systèmes. S’appuyant sur les travaux d’Antonio Casilli et Paola Tubaro, l’IA est décrite comme une « industrie extractive », dépendante de données et de main-d’œuvre. Carbonell, auteur d’« Un taylorisme augmenté », souligne que l’IA peut parfois servir de paravent à des stratégies classiques de licenciements. Reste la promesse de réorganiser les tâches: automatiser le répétitif pour dégager du temps vers des missions plus créatives, à condition d’investir dans la formation continue.On change de scène avec la musique en ligne: Bandcamp annonce l’interdiction de toute musique générée par IA sur sa plateforme. Objectif affiché: préserver une expérience « sans IA » pour artistes et auditeurs, en valorisant la création humaine. Les utilisateurs sont invités à signaler les morceaux suspects; la plateforme se réserve le droit de retirer les contenus, sans détailler son dispositif de vérification ni l’existence d’une équipe dédiée. Une position plus tranchée que celle d’autres services comme Spotify, qui n’ont pas banni globalement ces contenus.Autre dossier, côté régulation: le procureur général de Californie, Rob Bonta, ouvre une enquête sur la prolifération de contenus sexuellement explicites non consensuels produits avec Grok, le modèle d’images de xAI. Des rapports décrivent l’usage d’un « mode épicé » promu commercialement, permettant de transformer des photos ordinaires de femmes et d’enfants pour les sexualiser sans consentement. Une analyse cite plus de la moitié des 20 000 images générées par xAI entre Noël et le Nouvel An montrant des personnes en vêtements minimalistes, certaines semblant être des enfants; des allégations évoquent des images photoréalistes d’enfants dans des actes sexuels. Bonta rappelle ses démarches: soutien à une loi californienne sur la sécurité des chatbots pour mineurs, rencontres en septembre avec OpenAI au sujet d’interactions inappropriées avec des jeunes, et envoi en août d’une lettre à 12 entreprises d’IA. En 2023, il a rejoint une coalition de 54 États et territoires demandant au Congrès une commission d’experts sur l’usage de l’IA dans l’exploitation des enfants, et s’est opposé à une tentative d’interdiction fédérale de réguler l’IA au niveau des États.Côté outils, ChatGPT Translate fait son apparition pour concurrencer Google Traduction et DeepL. Une première description le présente comme gratuit, sans création de compte, couvrant 28 langues dont l’espagnol, le français et des variantes du chinois et du portugais. L’interface affiche deux blocs et une liste de langues; la traduction d’images est annoncée mais pas opérationnelle, et la dictée n’est pas disponible partout. Des boutons permettent d’affiner le style — naturel, académique ou formel — via un prompt côté ChatGPT. Latence notable par rapport à Google ou DeepL, et fonctionnalités encore incomplètes.Une autre présentation, datée du 15 janvier 2026, évoque une version plus étoffée: plus de 50 langues, adaptation du ton et du registre, interface dédiée, possibilité de dicter des phrases ou d’importer une photo, et quatre styles de rendu. Des limites persistent: difficultés ponctuelles d’affichage des traductions ou d’application des styles, avec redirection vers l’interface classique. OpenAI mise sur la qualité stylistique et le contexte pour des usages quotidiens — voyage, travail, études — plutôt que sur une stricte équivalence mot à mot.Enfin, un état des lieux plus critique rappelle que les grands modèles de langage demeurent peu fiables. Le débat sur la part de mémorisation reste vif, en désaccord avec des figures comme Geoffrey Hinton. Le Remote Labor Index estime qu’environ 2,5 % des emplois seraient réellement accomplissables par l’IA aujourd’hui. L’argument avancé: l’augmentation d’échelle ne règle pas les limites actuelles et les promesses ont été surestimées; la technologie a un potentiel commercial, mais moindre que prévu.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous ...
    続きを読む 一部表示
    5 分
  • L'IA aujourd'hui épisode du 2026-01-17
    2026/01/17
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’IA et le travail vu par un sociologue, Bandcamp bannit la musique générée, enquête en Californie sur du contenu explicite créé par IA, et la bataille des traducteurs en ligne avec ChatGPT Translate, sur fond de bilan mesuré de l’impact des LLM.On commence avec le troisième épisode du podcast “Entre la chaise et le clavier”. Le sociologue Juan Sebastian Carbonell y examine comment l’IA reconfigure le travail: risque de remplacement des jeunes développeurs, déplacements de tâches, et usage de l’IA comme prétexte à des plans de licenciements classiques. Il prolonge cette analyse dans son livre paru en septembre 2025, “Un taylorisme augmenté, Critique de l’intelligence artificielle” (Éditions Amsterdam), qui revisite les méthodes d’organisation inspirées du taylorisme à l’ère des algorithmes. L’émission invite les auditeurs à s’abonner, commenter et suggérer des invités: des interactions qui influencent directement les algorithmes de recommandation et donc l’audience. Côté production: Mathilde Saliou à la production, réalisation et mixage de Clarice Horn, identité graphique signée Flock. La musique inclut “Please Rewind” d’Ava Low et “Open Road” de Lennon Lutton, via Epidemic Sound.Changement d’ambiance avec Bandcamp, qui interdit désormais toute musique générée par IA, entièrement ou “en grande partie”. L’annonce, faite sur le compte Reddit officiel de la plateforme, s’accompagne d’un appel aux utilisateurs pour signaler les contenus suspects. Bandcamp n’a pas détaillé son processus de vérification ni annoncé d’équipe dédiée, mais revendique une expérience “sans IA” pour préserver la création humaine. Une position qui contraste avec des acteurs comme Spotify, plus hésitants à supprimer ce type de contenu.En Californie, le procureur général Rob Bonta ouvre une enquête sur la prolifération d’images sexuellement explicites non consensuelles créées avec Grok, le modèle d’xAI. Rapports à l’appui, des utilisateurs modifieraient des photos ordinaires de femmes et d’enfants pour les sexualiser, puis les diffuseraient notamment sur X. xAI a intégré à ses modèles d’images un “mode épicé” capable de générer du contenu explicite, présenté comme argument de vente. Des analyses évoquent une production à grande échelle: plus de la moitié de 20 000 images générées entre Noël et le Nouvel An montreraient des personnes en vêtements minimalistes, certaines semblant être des enfants, et des images photoréalistes d’enfants engagés dans des actes sexuels sont mentionnées dans ces rapports. Bonta rappelle ses actions: soutien à une législation visant à protéger les enfants des chatbots compagnons, rencontre en septembre avec OpenAI aux côtés de la procureure générale du Delaware, envoi en août d’une lettre à 12 grandes entreprises d’IA sur des interactions inappropriées avec des mineurs, et participation en 2023 à une coalition de 54 États et territoires demandant au Congrès une commission d’experts sur le CSAM impliquant l’IA. Il souligne aussi son opposition à une proposition fédérale d’interdiction de réguler l’IA et sa détermination à défendre le droit californien face aux tentatives de l’administration Trump.Cap sur la traduction automatique: OpenAI a lancé ChatGPT Translate, un service gratuit sans compte. Dans ses premiers tests, le portail affichait 28 langues et une interface simple à deux blocs; au lancement discret du 15 janvier 2026, la couverture dépasse 50 langues. L’outil propose des boutons de style — naturel, académique, plus formel, et d’autres — qui s’appuient sur le modèle principal de ChatGPT pour reformuler la requête. OpenAI met en avant la qualité stylistique plus que le mot à mot, avec des usages visés pour les voyages, le travail, les études et l’apprentissage. Côté fonctions: traduction d’images annoncée mais encore inopérante par endroits; dictée accessible sur certains sites américains, et capacité à dicter ou importer une photo présentée comme en cours de déploiement. Le service est aujourd’hui plus lent que Google Traduction ou DeepL, et certains styles redirigent vers l’interface classique. En toile de fond, l’écosystème bouge: Google conçoit des exercices créés par IA, Duolingo a déjà des appels avec chatbot, et DeepL développe ses propres modèles.Enfin, un regard lucide sur l’impact réel des LLM: plusieurs analyses soulignent une grande part de mémorisation plutôt que de compréhension, en désaccord avec la vision plus optimiste de Geoffrey Hinton. Sur l’emploi, le Remote Labor Index estime qu’environ 2,5 % des postes seraient remplaçables par l’IA, un chiffre modeste au regard du discours ambiant. Le constat: la technologie est solide et ...
    続きを読む 一部表示
    6 分