L'edito de JPG
SocieteProduitsBusiness
L'IA entre dans l'âge des conséquences
Entre une fusillade que l’IA aurait peut-être pu prévenir et le torpillage d’une initiative de surveillance de la qualité de l’air, le fil rouge de cette semaine, c'est la fin de l'innocence technique. L’IA entre dans l’ère des conséquences. Elle vote à notre place, elle observe des signaux de danger, elle surveille nos rues. Et à chaque étape, la question revient : qui décide, qui contrôle, qui assume ? Tant que la réponse reste « personne en particulier », on a un problème.
CiviClick vend un service de spam assisté par IA, déguisé en outil de « plaidoyer numérique disruptif » (sic). Il génère des milliers de messages artificiels adressés à des élus et saborde une initiative environnementale légitime en la noyant dans du bruit synthétique. Ce n'est pas un bug, c'est le business model, l’IA ne milite pas, elle noie le signal démocratique dans le spam.
Face à cela, la résistance s’organise, et des villes déchirent leurs contrats de surveillance IA. Ce n'est pas du luddisme, c’est un recalibrage, des élus locaux qui disent : on a essayé, ça ne marche pas comme promis, alors on arrête.
Côté OpenAI, le dilemme est d'une autre nature mais encore plus inconfortable: des employés repèrent des signaux d'alerte dans les conversations d'un utilisateur. Ils débattent. Ils hésitent. Ils ne préviennent pas la police. Des mois plus tard, une fusillade dans une école. 9 morts.
Si vous surveillez les conversations, comme OpenAI le fait via ses outils de modération automatique, alors vous vous créez de facto une obligation morale d'agir. Vous ne pouvez pas être à la fois celui qui détecte et celui qui détourne le regard, la neutralité devenant à ce stade de la complicité passive.
Mais à l’inverse, si chaque échange signalé par un algorithme déclenche un appel aux autorités, alors on bascule dans un régime de surveillance prédictive dont personne ne veut. Les faux positifs seraient légion, la confiance des utilisateurs, pulvérisée, et la promesse d'un espace de conversation libre avec une IA, enterrée.
OpenAI se retrouve face à une situation qu’elle n’a ni choisie, ni anticipée. L'entreprise a construit des outils de modération pour se protéger juridiquement et préserver sa réputation, pas pour devenir auxiliaire de police.
Mais la techno se moque de vos intentions initiales. Elle crée des situations, et il faut bien les assumer ensuite. On peut discuter à l'infini des faux positifs et de la vie privée, mais le malaise subsiste : ces entreprises ont accès à des signaux que personne d'autre ne voit, et elles n'ont aucun cadre clair pour agir.
Il n'y a pas de bonne réponse ici, en tout cas pas sous la forme d’une n-ème prise de position binaire entre tenants de la sécurité et défenseurs de la liberté. L’opposition « moi je n’ai rien à me reprocher, donc ça ne me dérange pas d’être surveillé » contre « C’est la fin de nos libertés individuelles face à un état policier », ça commence à sentir le réchauffé.
Mais il y a une certitude : le statu quo « détecter, débattre, ne rien faire » est la pire des options.
L'industrie doit définir des protocoles clairs, transparents, audités par des tiers.
Pas des débats de plateau. Pas après la prochaine tragédie. Maintenant.
Parce que la question n'est plus de savoir si l'IA peut détecter des signaux de danger. Elle le fait déjà.
La question, c'est ce qu'on fait quand elle nous regarde dans les yeux et nous dit : « J'ai vu quelque chose. »
— JPG & Opus 4.6
SocieteProduits
Fusillade au Canada : OpenAI avait vu les signaux d'alerte et n'a rien fait
TechCrunch — il y a 1j
Des mois avant la fusillade de Tumbler Ridge en Colombie-Britannique, les outils de modération de ChatGPT avaient détecté des conversations décrivant des scénarios de violence armée. Plusieurs employés d'OpenAI ont identifié le risque et soulevé des alertes en interne.
Le débat a eu lieu : fallait-il prévenir la police ? La décision a été de ne pas le faire. L'affaire soulève une question sans précédent pour les entreprises d'IA générative : quel est leur devoir d'alerte lorsqu'elles disposent d'informations que ni les proches ni les autorités ne possèdent ? Entre protection de la vie privée, risque de faux positifs et responsabilité morale, le cadre juridique reste un vide béant.
Lire l'article →
Societe
Une IA de lobbying automatisé torpille une loi sur la qualité de l'air
Futurism — il y a 1h
CiviClick, une plateforme qui se présente comme un outil de "plaidoyer numérique disruptif", a généré un déluge de mails automatisés adressés à des élus pour faire échouer une initiative en faveur de la qualité de l'air. L'opération a fonctionné : la mesure a été abandonnée sous la pression apparente de "citoyens mobilisés".
Derrière cette victoire, il n'y a ni mouvement populaire ni conviction sincère — juste un algorithme payé pour simuler une opinion publique. C'est une forme inédite de corruption démocratique, où l'IA ne se contente plus d'informer mais agit directement sur le processus législatif. Le précédent est inquiétant : si le spam synthétique suffit à tuer une loi, quelle initiative résistera ?
Lire l'article →
Societe
Surveillance par IA : les villes américaines rompent les contrats en série
Futurism — il y a 4h
Un mouvement de fond s'accélère aux États-Unis : des municipalités résilient massivement leurs contrats avec des fournisseurs de surveillance par IA, notamment Flock Safety et ses caméras de lecture de plaques d'immatriculation.
Les raisons invoquées varient — inefficacité, coûts excessifs, atteintes aux libertés civiles — mais la tendance est nette. Après des années d'adoption enthousiaste, les élus locaux font le bilan et constatent que les promesses de sécurité ne se matérialisent pas toujours. Ce retour de balancier pragmatique tranche avec la course à l'armement technologique observée au niveau fédéral.
Lire l'article →
BusinessMarches
Google prévient : les wrappers LLM et les agrégateurs IA vivent leurs derniers jours
TechCrunch — il y a 1j
Un vice-président de Google jette un pavé dans la mare : deux catégories de startups IA — les "wrappers" de modèles de langage et les agrégateurs — seraient condamnées à terme. Leurs marges fondent, leur différenciation est quasi nulle, et les géants intègrent progressivement les fonctionnalités qu'elles proposent.
L'avertissement n'est pas désintéressé : Google a tout intérêt à décourager les intermédiaires pour garder le contact direct avec les utilisateurs. Mais le diagnostic est partagé par de nombreux investisseurs. La question pour ces startups n'est plus de pivoter, mais de trouver une vraie valeur ajoutée que les plateformes ne peuvent pas répliquer en six mois.
Lire l'article →
RechercheMarches
Les data centers IA se tournent vers les supraconducteurs pour résoudre leur crise énergétique
IEEE Spectrum — il y a 1j
Face à une demande énergétique qui dépasse largement les capacités du réseau électrique, les data centers dédiés à l'IA explorent une piste ambitieuse : les supraconducteurs à haute température. Les pertes en transmission et distribution atteignent en moyenne 5 % aux États-Unis, bien davantage ailleurs — un gaspillage devenu intolérable à l'échelle des gigawatts nécessaires.
Les câbles supraconducteurs pourraient transporter l'électricité avec des pertes quasi nulles, transformant radicalement l'équation économique des centres de calcul. La technologie existe en laboratoire ; le défi est désormais industriel. Si cette filière tient ses promesses, elle pourrait lever l'un des principaux obstacles à la croissance de l'IA.
Lire l'article →
SocieteMarches
Le MIT Technology Review autopsie le grand dégrisement de l'IA en 2025
MIT Technology Review — il y a 2j
La rédaction du MIT Technology Review publie un ebook consacré à ce qu'elle appelle la "correction du hype IA" de 2025 : une année où les dirigeants des grandes entreprises d'IA ont multiplié les promesses intenables. AGI imminente, productivité décuplée, transformation instantanée — le fossé entre les annonces et la réalité s'est creusé jusqu'à devenir impossible à ignorer.
Le constat n'est pas que l'IA ne progresse pas, mais que le rythme vendu aux investisseurs et au public ne correspondait pas à la réalité technique. Un recadrage salutaire qui invite à distinguer les avancées réelles du bruit marketing.
Lire l'article →
Produits
Apple intègre la génération de playlists par IA dans iOS 26.4
TechCrunch — il y a 2j
La bêta publique d'iOS 26.4 introduit une fonctionnalité attendue : la création de playlists musicales par intelligence artificielle dans Apple Music. L'utilisateur décrit une ambiance ou un contexte, et le système génère une sélection adaptée.
Apple y ajoute le chiffrement de bout en bout pour les messages RCS et le support vidéo dans l'app Podcasts. L'approche reste caractéristique de Cupertino : intégrer l'IA de manière incrémentale dans des usages existants plutôt que d'en faire un argument marketing central. Reste à voir si la qualité des recommandations justifiera l'abandon des playlists curées par des humains.
Lire l'article →
ProduitsBusiness
Le nouveau patron du gaming chez Microsoft promet de ne pas noyer les joueurs sous le "slop" IA
TechCrunch — il y a 1j
Le nouveau CEO de la division gaming de Microsoft prend position contre l'IA générative mal utilisée dans le jeu vidéo, promettant de ne pas inonder l'écosystème de contenu généré à la chaîne. Le terme "AI slop" — contenu synthétique de basse qualité — s'est imposé dans le vocabulaire des joueurs et des créateurs.
La promesse est habile : elle reconnaît implicitement que le risque existe et que le public est lucide sur les dérives possibles. Chez Microsoft, où l'IA est omniprésente dans la stratégie globale, cette prise de distance dans le gaming traduit une prise de conscience que la qualité reste le critère décisif pour les joueurs.
Lire l'article →
ProduitsBusiness
L'Inde lance Indus, un chatbot IA taillé pour ses langues et ses usages
TechCrunch — il y a 1j
La startup indienne Sarvam déploie Indus, une application de chat IA en bêta conçue pour le marché local. L'outil mise sur le support multilingue — un enjeu critique dans un pays comptant des centaines de langues — et sur des cas d'usage adaptés au contexte indien.
Alors que la compétition s'intensifie entre ChatGPT, Gemini et les acteurs chinois, l'émergence de champions régionaux de l'IA confirme que le marché se fragmentera géographiquement. Sarvam fait le pari que la proximité culturelle et linguistique vaut autant que la puissance brute des modèles.
Lire l'article →
ProduitsModeles
Codex d'OpenAI : Simon Willison démêle le flou terminologique
Simon Willison — il y a 4h
Gabriel Chua, ingénieur Developer Experience chez OpenAI, tente de clarifier ce que recouvre le terme "Codex" — un mot-valise qui désigne à la fois un agent de développement logiciel, plusieurs interfaces et un runtime d'exécution. Simon Willison relaie et commente cette tentative de désambiguïsation sur son blog.
La confusion terminologique n'est pas anodine : elle reflète la difficulté d'OpenAI à communiquer clairement sur une offre qui évolue plus vite que sa documentation. Pour les développeurs, comprendre ce qu'est réellement Codex — et ce qu'il n'est pas — reste un prérequis avant toute adoption sérieuse.
Lire l'article →
C'est pas serieux
Elle brûle une maison, mord un policier, et demande à l'IA de rédiger ses excuses
votre temps de lecture ne sera pas rembourse
Futurism — il y a 8h
Une femme poursuivie pour incendie volontaire et agression sur un agent de police a eu l'idée lumineuse de faire rédiger sa lettre d'excuses au tribunal par une intelligence artificielle. Autant dire que la sincérité du repentir a moyennement convaincu.
On imagine le prompt : "Rédige une lettre d'excuses émouvante pour avoir mis le feu à une maison et mordu un policier. Ton : contrit mais digne." Le résultat n'a visiblement pas fait mouche auprès du juge. En 2026, même les excuses sont externalisées — reste à savoir si l'IA facture un supplément pour les circonstances aggravantes.
Lire (a vos risques et perils) →