Compilation du mar., 07 oct. 2025, liste linuxfr-news Sommaire :
1. [Lettre LinuxFr.org] Sortie de Crème CRM en version 2.7 - [email protected] 2. [Lettre LinuxFr.org] Nouvelles sur l’IA de septembre 2025 - [email protected]
--- Begin Message ---Sortie de Crème CRM en version 2.7
Le 2 septembre 2025 est sortie la version 2.7 du logiciel de gestion de la relation client Crème CRM (sous licence AGPL-3.0), un peu plus d’un an après Creme 2.6 (5 août 2024).
Au programme notamment, le passage à Django 5.2, les types de fiches personnalisés et un système de processus automatisés. Les nouveautés sont détaillées dans la suite de la dépêche.
- lien nᵒ 1 : Site officiel
- lien nᵒ 2 : Démo en ligne
- lien nᵒ 3 : Le dépôt de source
- lien nᵒ 4 : Images Docker de démo
Sommaire
Description du logiciel
Crème CRM est un logiciel de gestion de la relation client, généralement appelé CRM (pour Customer Relationship Management). Il dispose évidemment des fonctionnalités basiques d’un tel logiciel :
- un annuaire, dans lequel on enregistre contacts et sociétés : il peut s’agir de clients, bien sûr, mais aussi de partenaires, prospects, fournisseurs, adhérents, etc. ;
- un calendrier pour gérer ses rendez‐vous, appels téléphoniques, conférences, etc. ; chaque utilisateur peut avoir plusieurs calendriers, publics ou privés ;
- les opportunités d’affaires, gérant tout l’historique des ventes ;
- les actions commerciales, avec leurs objectifs à remplir ;
- les documents (fichiers) et les classeurs.
Crème CRM dispose en outre de nombreux modules optionnels le rendant très polyvalent :
- campagnes de courriels ;
- devis, bons de commande, factures et avoirs ;
- tickets, génération des rapports et graphiques…
L’objectif de Crème CRM est de fournir un logiciel libre de gestion de la relation client pouvant convenir à la plupart des besoins, simples ou complexes. À cet effet, il propose quelques concepts puissants qui se combinent entre eux (entités, relations, filtres, vues, propriétés, blocs), et il est très configurable (bien des problèmes pouvant se résoudre par l’interface de configuration) ; la contrepartie est qu’il faudra sûrement passer quelques minutes dans l’interface de configuration graphique pour avoir quelque chose qui vous convienne vraiment (la configuration par défaut ne pouvant être optimale pour tout le monde). De plus, afin de satisfaire les besoins les plus particuliers, son code est conçu pour être facilement étendu, tel un cadriciel (framework).
Du côté de la technique, Crème CRM est codé notamment avec Python/Django et fonctionne avec les bases de données MySQL, SQLite et PostgreSQL.
Principales nouveautés de la version 2.7
Voici les changements les plus notables de cette version :
Le passage à Django 5.2
La nouvelle version LTS (Long Time Support, car maintenue pendant 3 ans) du cadriciel Web est sortie en avril 2025.
Pour les personnes qui déploient Creme, cela implique de nouvelles versions minimales :
- La version minimale de Python est maintenant la 3.10
- Pour les systèmes de gestion de base de données (SGBD) les versions minimales sont SQLite 3.31, MySQL 8.0.11, PostgreSQL 14 & MariaDB 10.5.
Python 3.13 est désormais géré officiellement.
Les types de fiches personnalisés
Il a bien sûr toujours été possible de créer ses propres types de fiches (entités) via du code (c’est même plutôt simple, notamment grâce aux outils que fournis Django).
Mais ici il s’agit de créer des types de manière visuelle, via l’interface de configuration. Pour créer un nouveau type il suffit de lui donner un nom (genre “Boutique”), ainsi que son nom au pluriel (donc “Boutiques” dans notre exemple). Ensuite des champs personnalisés peuvent être ajoutés, comme pour n’importe quel type de fiche. Et évidemment vous pouvez utiliser derrière tous les outils de configuration classiques pour construire l’interface qui vous convient (blocs, boutons, formulaires, menu…).Techniquement, les tables correspondant aux types sont en fait toutes créés dès l’installation (mais seuls les types activés sont visibles) ce qui permet de fonctionner sereinement même sur les SGBD ne gérant pas les transactions de schéma. C’est pourquoi le nombre de types personnalisés est limité (à 20 en l’occurrence, cela devrait être largement suffisant en pratique).
Ce nouveau système était attendu depuis longtemps, et devrait encore un peu abaisser la barrière d’entrée en permettant d’éviter d’écrire du code dans pas mal de cas.
Les processus automatisés
Ce nouveau système permet de programmer des actions qui seront effectuées de manière automatique lorsque certains évènements se produisent. Pour mieux comprendre les possibilités offertes, voici un processus créé lors de l’installation de Creme 2.7 : lorsqu’une fiche Opportunité d’affaire est modifiée et que son nouveau statut est un statut considéré comme gagné, alors la société cible de l’Opportunité devient cliente (si elle ne l’était pas déjà évidemment).
Dans cette première version, les évènements qui peuvent déclencher un processus sont :
- une fiche est créée
- une fiche est modifiée
- une propriété (il s’agit d’une sorte de tag) est ajoutée à une fiche
- une relation est ajoutée entre 2 fiches
Les actions actuellement disponibles sont :
- ajouter une propriété
- ajouter une relation
- envoyer un courriel
Cette version initiale nous a demandé pas mal de travail afin de trouver une conception satisfaisante, mais de nombreuses améliorations sont d’ores et déjà prévues (notamment les évènements temporels & une action qui peut modifier une fiche).
Les processus automatisés étaient, à l’instar des types personnalisés, très attendus ; et combiner ces 2 nouveaux systèmes ouvre pas mal de perspectives.
La version plus détaillée est ici
Quelques autres améliorations notables
- La génération des numéros des Factures/Devis/Bons de commande a été entièrement revue. Elle se configure maintenant depuis l’interface (là où avant on pouvait juste rentrer des préfixes dans le fichier de configuration) et offre de nombreuses options.
- La configuration des boutons peut désormais se faire par rôle (comme c’était déjà le cas avec les blocs, formulaires, etc.).
- Les vues de liste & les filtres peuvent être clonés (afin de gagner du temps, plutôt que de partir de zéro).
- Le calendrier a été mis-à-jour (version 6.1.18 de la bibliothèque _javascript_ FullCalendar), et un nouveau bloc permet d’afficher son calendrier sur la page d’accueil.
- Pas mal de code de suppression a été amélioré, que ça soit pour empêcher plus souvent la suppression à cause de dépendances (plutôt que supprimer des choses en cascade), ou pour mieux afficher lesdites dépendances bloquantes.
Le futur
La prochaine version devrait être plus courte que la 2.7 (qui a été un peu plus grosse que prévu à la base), afin de mieux coller aux sorties de Django. À l’année prochaine !
Commentaires : voir le flux Atom ouvrir dans le navigateur
--- End Message ---
--- Begin Message ---Nouvelles sur l’IA de septembre 2025
L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».
Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.
Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.
- lien nᵒ 1 : AI #132 Part 1: Improved AI Detection
- lien nᵒ 2 : AI #132 Part 2: Actively Making It Worse
- lien nᵒ 3 : AI #133: America Could Use More Energy
- lien nᵒ 4 : AI #134: If Anyone Reads It
- lien nᵒ 5 : AI #135: OpenAI Shows Us The Money
- lien nᵒ 6 : OpenAI #14: OpenAI Descends Into Paranoia and Bad Faith Lobbying
- lien nᵒ 7 : Book Review: If Anyone Builds It, Everyone Dies
- lien nᵒ 8 : Reactions to If Anyone Builds It, Anyone Dies
- lien nᵒ 9 : More Reactions to If Anyone Builds It, Everyone Dies
- lien nᵒ 10 : Claude Sonnet 4.5: System Card and Alignment
- lien nᵒ 11 : Claude Sonnet 4.5 Is A Very Good Model
Sommaire
Résumé des épisodes précédents
Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :
- System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
- Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
Anthropic public Claude Sonnet 4.5
Claude Sonnet 4.5 is the best coding model in the world. It's the strongest model for building complex agents. It’s the best model at using computers. And it shows substantial gains in reasoning and math.
Code is everywhere. It runs every application, spreadsheet, and software tool you use. Being able to use those tools and reason through hard problems is how modern work gets done.
Claude Sonnet 4.5 makes this possible. We're releasing it along with a set of major upgrades to our products. In Claude Code, we've added checkpoints—one of our most requested features—that save your progress and allow you to roll back instantly to a previous state. We've refreshed the terminal interface and shipped a native VS Code extension. We've added a new context editing feature and memory tool to the Claude API that lets agents run even longer and handle even greater complexity. In the Claude apps, we've brought code execution and file creation (spreadsheets, slides, and documents) directly into the conversation. And we've made the Claude for Chrome extension available to Max users who joined the waitlist last month.
Traduction :
Claude Sonnet 4.5 est le meilleur modèle de codage au monde. C'est le modèle le plus performant pour créer des agents complexes. C'est le meilleur modèle pour utiliser des ordinateurs. Et il affiche des gains substantiels en raisonnement et en mathématiques.
Le code est partout. Il fait fonctionner chaque application, tableur et outil logiciel que vous utilisez. Être capable d'utiliser ces outils et de raisonner à travers des problèmes difficiles, c'est ainsi que le travail moderne s'accomplit.
Claude Sonnet 4.5 rend cela possible. Nous le publions avec un ensemble de mises à niveau majeures de nos produits. Dans Claude Code, nous avons ajouté les points de contrôle—l'une de nos fonctionnalités les plus demandées—qui sauvegardent votre progression et vous permettent de revenir instantanément à un état précédent. Nous avons actualisé l'interface du terminal et lancé une extension native VS Code. Nous avons ajouté une nouvelle fonctionnalité d'édition de contexte et un outil de mémoire à l'API Claude qui permet aux agents de fonctionner encore plus longtemps et de gérer une complexité encore plus grande. Dans les applications Claude, nous avons intégré l'exécution de code et la création de fichiers (tableurs, présentations et documents) directement dans la conversation. Et nous avons rendu l'extension Claude pour Chrome disponible aux utilisateurs Max qui se sont inscrits sur la liste d'attente le mois dernier.
Le message est assez clair : Anthropic met les bouchées doubles sur l’apprentissage par renforcement pour l’utilisation de Claude en tant qu’assistant de code. Sur les benchmarks fournis par Anthropic, ce nouveau modèle prend la première place. Les premiers benchmarks indépendants et divers retours subjectifs semblent possiblement confirmer cette prétention au podium — au coude à coude avec GPT-5. Les améliorations hors de ce cas d’usage semblent bien plus modestes.
L’annonce habituelle d’un jailbreak a rapidement suivi.
Au niveau de la sécurité des modèles, Anthropic a décidé d’appliquer pour la première fois son niveau de sécurité 3 (ASL-3) à la ligne Sonnet (c’était déjà le cas pour Opus). Cela signifie que vos conversations — y compris par l’API — passent par un modèle supplémentaire classifiant la sensibilité du sujet, bloquant certains sujets sensibles (principalement CBRN).
La System Card nous révèle certaines observations intéressantes : ce nouveau modèle a fait un bond (pas vraiment désiré) dans sa capacité à détecter qu’il est dans le contexte d’une évaluation plutôt que dans un contexte réel, ce qui complexifie évidemment les évaluations dans ce domaine. Anthropic est toutefois assez confiant que cela n’influe pas significativement les résultats, en notant que Sonnet ne se comporte pas d’une manière significativement différente dans les cas où il détecte l’évaluation des cas où il ne le détecte pas. Comme à l’accoutumée pour Anthropic, l’évaluation sur le sujet de la sécurité des modèles s’est faite conjointement avec deux organismes externes, Apollo Research et UK AISI.
Sonnet 4.5 est une amélioration sur à peu près tous les axes mesurés, permettant à Anthropic de lui mettre l’étiquette « le modèle le plus aligné », au coude à coude avec GPT-5. À noter que ça ne signifie pas un usage en toute sécurité : sur par exemple l’injection de prompt dans le cadre d’un agent, avec 10 essais un attaquant a toujours un taux de succès de 40%.
En vrac
CloudFlare introduit Web Bot Auth et Signed Agent. Le premier permet à un bot de s’identifier lui-même à l’aide d’une signature cryptographique, ce qui permet de vérifier que son comportement est conforme aux termes d’utilisation (par exemple, le respect de robots.txt) et de l’exclure en cas de violation de ces termes. Le second a pour but d’associer un bot à un utilisateur réel. L’objectif à terme est de fournir un cadre pour permettre à l’IA d’interagir avec le web pour le compte de l’utilisateur.
Le premier ministre de l’Albanie nomme une IA, Diella, comme ministre des marchés publics, dans un contexte de lutte contre la corruption.
OpenAI publie GPT-5-codex, une variante de GPT-5 spécialisée sur les tâches de programmation.
Des économistes forment un groupe de travail sur le sujet de l’impact d’une future hypothétique IA « transformative » (qui a la capacité d’automatiser la plupart des emplois réalisables par des humains) et publie plusieurs papiers sur la question.
OpenAI annonce une mise à jour de ses politiques de confidentialité appliquées à ChatGPT. En particulier, les conversations utilisateurs sont maintenant scannées automatiquement, et les plus problématiques passées à des humains pour décider des actions à prendre, allant de la fermeture des comptes à prévenir les autorités.
En mai, nous avions rapporté que OpenAI annonçait abandonner sa tentative de casse du siècle. Comme certains le pensaient, ce n’était que partie remise ; une lettre ouverte demande plus de transparence sur le processus de restructuration de l’opération récemment réaffirmé par OpenAI.
Math Inc présente Gauss, un agent pour la formalisation de preuves mathématiques. Son premier succès est d’avoir formalisé en Lean le Théorème des nombres premiers, en complétant le projet non-terminé de Alex Korontorovich et Terence Tao. Sur le même sujet, un papier évalue la capacité de GPT-5 à prouver des conjectures simples (prouvable par un étudiant en université en moins d’une journée) mais non prouvées (car formulées extrêmement récemment). GPT-5 arrive à prouver 3 sur les 5 testées.
Les IA de OpenAI et DeepMind obtiennent une médaille d’or à l’International Collegiate Programming Contest, y compris un problème qu’aucune équipe humaine n’a su résoudre dans le temps imparti.
Un groupe d’experts, de politiques et autres figures publiques appelle à la mise en place de « lignes rouges » à ne pas franchir sur le développement de l’IA, et de réels mécanismes de régulation pour les imposer.
Publication de If Anyone Builds It, Everyone Dies, par Eliezer Yudkowsky et Nates Soares, présentant la thèse que créer une super-intelligence artificielle, dans les conditions et l’état actuel des connaissances, causerait de manière quasi-certaine l’extinction de l’espèce humaine. Ils suggèrent l’adoption de traités internationaux limitant le développement de l’IA.
OpenAI et Apollo Research publient un papier sur le sujet des tendances de l’IA à « tricher » dans divers environnements (contourner les critères d’évaluation par exemple). Ils montrent qu’il est possible d’éliciter un certain nombre de comportements indésirables dans GPT-5 (comme par exemple "sandbagging" : volontairement échouer certaines évaluations pour ne pas paraître « trop dangereux »). Les chercheurs pointent le fait que la solution naïve, entraîner l’IA à ne pas reproduire ces comportements, pose immédiatement la question de « l’IA a-t-elle appris à ne pas le faire, ou a appris à le faire sans être détectée ? » — et évaluent à la place la récente méthode d’alignement de OpenAI, Deliberative alignment, reportant une baisse significative des comportements indésirables. Il est à noter également que les modèles actuels montrent déjà dans leurs chaînes de pensée une certaine capacité à détecter qu’ils sont dans un cadre de test/d’évaluation, et que o3 a déjà développé des méthodes (grossières) pour échapper à la détection.
Un papier explore la raison pour laquelle les modèles de langage ne sont pas déterministes en pratique, et propose une solution pour les situations où le déterminisme est important.
Un papier d’OpenAI propose une explication sur la raison de la persistance des hallucinations : principalement parce que la phase d’apprentissage par renforcement ne récompense pas la réponse « je ne sais pas » quand le modèle ne sait pas.
Un autre papier approche expérimentalement la question « les modèles de langage raisonnent ou ne font-ils que mémoriser et régurgiter ? ». La méthodologie est de créer une entité fictive (« Kevin est né en 1998 à Paris… ») de toute pièce qui ne peut pas être présent dans l’ensemble d’entraînement, d’entraîner un modèle existant dessus, puis de poser une question indirecte (qui peut être déduite, mais pas explicitement donnée) sur cette entité (« Quelle est la langue maternelle de Kevin ? »). Le résultat est équivoque : les modèles arrivent à faire cette déduction quand une des deux entités est réelle (dans notre exemple, Paris), mais pas quand les deux sont fictives (Kevin est né dans (Ville française inventée de toute pièce)).
Une équipe de biologistes utilise une IA pour créer des bactériophages (un virus ciblant certaines bactéries), avec succès.
Sur l’utilisation de l’IA dans l’économie réelle, Anthropic met à jour son Economic Index, et OpenAI publie leur équivalent.
Nouveau benchmark, faire jouer les modèles à Loups-garous. Le score final était assez prévisible (GPT 5 prend la première place), mais l’analyse en profondeur des parties est intéressante. Principe similaire avec Among AIs (l’IA jouant à Among Us). Également dans le domaine des benchmark, publication de SWE-Bench Pro, tâches de programmation réelles et complexes, non-présentes dans les données d’entraînement. VCBench, quant à lui, tente d’évaluer l’IA sur la tâche d’investissement dans le capital-risque — et trouve que l’IA surpasse la plupart des investisseurs humains sur leurs évaluations (avec l’énorme problème toutefois que l’IA évalue rétrospectivement en 2025 des décisions prises en 2015-2020, tandis que les humains évaluaient prospectivement en 2015-2020 des décisions de 2015-2020).
Anthropic publie un guide sur l’écriture d’outils à destination de l’IA.
En parlant d’outils, une piqûre de rappel sur le fait que la sécurité d’un système utilisant une IA lisant des données d’une source externe est toujours un problème ouvert : démonstration qu’il est possible d’exfiltrer des données sensibles à l’aide de ChatGPT, en envoyant un mail à la victime et en attendant que ladite victime connecte ChatGPT à son compte mail.
Reverse-engineering du système de mémoires de Claude et ChatGPT.
Anthropic publie un rapport technique intéressant sur trois incidents ayant conduit à une dégradation de performances de Claude, ayant eu lieu en août.
Grèves de la faim devant les locaux de Anthropic et DeepMind demandant l’arrêt de la course à l’IA.
Humoristique : Si l’on jugeait les humains comme on juge l’IA…
Pour aller plus loin
Par Zvi Mowshowitz
- Yes, AI Continues To Make Rapid Progress, Including Towards AGI : beaucoup continuent d’interpréter ChatGPT 5 comme une indication d’un ralentissement dans les progrès de l’IA, cet article critique cette interprétation.
- AI Craziness Notes : aperçu des événements des derniers mois sur le sujet des IA flagorneuses, en particulier sur leur propension à suivre l’utilisateur dans des directions délirantes (parfois dans le sens clinique du terme). Sur un sujet extrêmement proche, voir également l’essai The Rise of Parasitic AI.
- OpenAI Shows Us The Money : Nvidia qui annonce un investissement de 100 milliards dans OpenAI, des annonces constructions de datacenters de 10 GW… un résumé de l’ampleur de l’investissement dans l’IA.
- On Dwarkesh Patel's Podcast With Richard Sutton : réactions sur une interview de Richard Sutton.
Sur LinuxFR
Dépêches
- Revues de presse de l’April :
- Le Frido 2025
Journaux
- [~Signet] IA, la grande escroquerie
- Anthropic accepte de payer $1.5 milliard pour atteinte au droit d'auteur
- L'impact du LLM sur l'Open-Source
- Du balai avec la commande gdu
- Et l’intelligence humaine, alors ?
- L'IA devenue outil du quotidien
Liens
- Intelligence artificielle : le vrai coût environnemental de la course à l’IA [LONG article] ( lien original, discussion LinuxFR ) ;
- Cahiers de doléances : ce que les Français ont dit ( lien original, discussion LinuxFR ) ;
- Apertus, un nouveau LLM suisse open source ( lien original, discussion LinuxFR ) ;
- Using Claude Code to modernize a 25-year-old kernel driver ( lien original, discussion LinuxFR ) ;
- Google admits the open web is in ‘rapid decline’ ( lien original, discussion LinuxFR ) ;
- La tech au bord du gouffre financier ( lien original, discussion LinuxFR ) ;
- Entre mathématiques et informatique, Stéphane Mallat médaillé d'or 2025 du CNRS ( lien original, discussion LinuxFR ) ;
- Evaluation des IA : souffler dans l'algotest ( lien original, discussion LinuxFR ) ;
- Belgique: interdiction de l'usage de l'IA "DeepSeek" dans les administrations fédérales ( lien original, discussion LinuxFR ) ;
- How thousands of ‘overworked, underpaid’ humans train Google’s AI to seem smart ( lien original, discussion LinuxFR ) ;
- le Centre pour l'Alignement des Centres d'Alignement d'IA parle au basilic de Roko ( lien original, discussion LinuxFR ) ;
- En Albanie, le chef du gouvernement nomme un "ministre" généré par l’IA ( lien original, discussion LinuxFR ) ;
- Je vous demande de vous arrêter de parler de l’IA - La chronique de Thomas VDB dans "La dernière" ( lien original, discussion LinuxFR ) ;
- IA : les sous-traitants de Google ont licencié 200 salariés demandant de meilleures conditions ( lien original , discussion LinuxFR ) ;
- [YT][Élisa Fromont] 50 ans d'intelligence artificielle, et après ? (Conf pour les 50 ans de l'IRISA) ( lien original, discussion LinuxFR ) ;
- L’IA au cœur d’une guerre des sources : un administrateur Wikipédia des Pyrénées-Orientales témoigne ( lien original, discussion LinuxFR ) ;
- On sait enfin ce que demandent les gens à ChatGPT ( lien original, discussion LinuxFR ) ;
- Le calcul social à la chinoise existe déjà chez nous – Entretien avec Hubert Guillaud ( lien original, discussion LinuxFR ) ;
- Le taux de fausses informations répétées par les chatbots d’IA a presque doublé en un an ( lien original, discussion LinuxFR ) ;
- LinkedIn va utiliser les données personnelles de ses utilisateurs pour entraîner son IA ( lien original, discussion LinuxFR ) ;
- Le CEO de Microsoft redoute la disparition de son entreprise à l'ère de l'IA ( lien original, discussion LinuxFR ) ;
- Coder avec l'IA dans des codebases complexes : au-delà du "vibe coding" ( lien original, discussion LinuxFR ) ;
- Les assistants de codage IA augmentent la productivité sur la création des failles de sécurité ( lien original, discussion LinuxFR ) ;
- Faire perdre du temps aux développeurs ( lien original, discussion LinuxFR ) ;
- Fedora considers an AI-tool policy ( lien original, , discussion LinuxFR ) ;
- Microsoft a retiré à Israël l'usage de sa technologie de surveillance de masse sur des palestiniens ( lien original, discussion LinuxFR ) ;
- Deutsche Bank avertit que l'éclatement de la bulle de l'IA grippera l'économie américaine ( lien original, discussion LinuxFR ) ;
- ChatGPT serait un excellent outil pour dynamiter un mariage solide ( lien original, discussion LinuxFR ) ;
- Un service de bus autonomes s'arrête parce que le vendeur arrête le support logiciel ( lien original, discussion LinuxFR ) ;
- Le syndicat américain SAG-AFTRA condamne l'usage d'un acteur IA par des studios ( lien original, discussion LinuxFR ) ;
- Traductions par IA - "Certains éditeurs se fichent de sortir un livre pourri" ( lien original, discussion LinuxFR ) ;
Commentaires : voir le flux Atom ouvrir dans le navigateur
--- End Message ---
Fin de compilation de la liste linuxfr-news - mar., 07 oct. 2025
