lundi.dev

Tous les lundis, la tech ensemble
Tous les anciens épisodes

…dans ma jeunesse on n’avait qu’une orange et 128 Mo de RAM

lundi.dev du lundi 23 mars 2026

Avec 8 Go aujourd’hui, t’as plus rien

Choc ! Choc ! Donald Knuth n’était pas le seul à être tombé de sa chaise ces dernières semaines : toute la communauté des journalistes et des influenceurs « tech » était en ébullition lors de l’annonce d’un nouvel… ordinateur. Oui, habituellement ce sont les téléphones qui se plient ou qui sont super légers qui les secouent, mais là, c’est l’annonce d’un ordinateur bien construit, très polyvalent, et surtout, vraiment pas cher pour son créneau : 700 euros, voire 600 euros pour les étudiant·e·s. Ah, j’allais oublier : ça vient d’Apple, ceux qui historiquement se faisaient connaître pour faire payer des trucs communs à des prix… audacieux, disons-le.

Sauf que voilà, patatras : ce nouveau MacBook Neo n’a que 8 Go de mémoire vive. Et ça a semblé vraiment troubler une bonne partie du public habituel et technophile : comment les gens pourront s’en sortir au quotidien avec 8 Go ? Et c’est ce qui m’a personnellement retourné le cerveau ; comment en est-on arrivé à un point où 8 Go de RAM, ça peut semble peu pour certains ?

Je sais que mes premiers cheveux gris n’ont pas encore vraiment poussé (malgré mes futurs 35 ans dans moins d’un mois), mais je me souviens d’un temps où avoir huit gigaoctets de RAM, c’était être « laaaaaaaarge »… et ce fameux temps ne date pas de si longtemps ! Au printemps 2014, je me suis acheté un Dell XPS 13 pour mon usage personnel ; on parlait alors d’un PC assez premium, et les 8 Go de RAM ne levaient aucun sourcil, bien au contraire. C’était « laaaaaaarge ».

Vous me direz qu’en douze printemps, les choses ont beaucoup changé dans nos besoins… mais est-ce vraiment le cas ? Certes, la haute définition est arrivée partout, mais elle n’utilise presque pas votre RAM ; les jeux sont plus gourmands, mais ils s’appuient surtout sur la « V-RAM », celle intégrée à vos cartes graphiques… et de toute façon, jouer sur un portable d’entrée de gamme ça n’a jamais été vraiment évident.

Non, ce qui a changé, c’est que nous nous sommes habitué·e·s à nager dans des gigas de mémoire vive abondante qui n’attendaient que d’être utilisés. Le rythme de miniaturisation et réduction des coûts des puces ont permi aux constructeurs de doubler régulièrement la capacité de nos machines. Ça s’est notamment accéléré lorsque la RAM des ordinateurs portables a commencé à être soudée à la carte mère pour des raisons tantôt présentées comme pragmatiques ou énergétiques, tantôt comme économiques (heureusement, on en revient) : il fallait rassurer les clients sur le fait qu’ils n’auraient pas eu pas besoin d’en rajouter de toutes façons.

Que faire avec autant de RAM, donc ? Pour la plupart des utilisateurs, pas grand-chose, mais pour les développeurs d’applications utilisées par ce grand public, c’était l’occasion en or de généraliser une pratique qui était très rare y'a 12 ans : écrire ses interfaces sous la forme de pages web, encapsulées dans des petits navigateurs, sur lesquelles on applique une grosse étiquette « application pour ordinateur », et hop-là, emballé c’est pesé, téléchargé, et en fond sur votre portable qui se met donc à ramer.

Systématiquement pointée du doigt comme le coupable idéal, la brique Electron a bon dos. Nommée ainsi en 2015 (tiens tiens tiens), elle a fourni les bases utiles pour l’incroyable éditeur de code Atom, qui a inspiré Visual Studio Code, le plus utilisé au monde aujourd’hui. Cette mécanique a été répliquée un peu partout, de Spotify à Teams en passant par Slack, avec des subtilités (pas tous n’utilisent un Chromium embarqué comme Electron : certains utilisent le moteur du système). Même certains panneaux de réglages de macOS sont des WebViews subtilement déguisées !

Or, le Web est un ensemble de technologies complexes (HTML, CSS, Javascript, mais aussi SVG, TLS, etc.) qui ont du sens dans un navigateur ; même en mutualisant les ressources entre applications via des WebView de l’OS, on y perd souvent en performance, et surtout, en efficacité mémoire, en embarquant des centaines de fonctionnalités inutiles pour la plupart de ces applications.

L’autre coupable, bien plus niche, touche de plein fouet les développeurs et développeuses : la conteneurisation généralisée des processus de développement. Les environnements Docker et ses dérivés peuvent être très gourmands en mémoire, et les systèmes hôtes peuvent avoir du mal à gérer ces technologies de manière efficace sur certaines machines portables. Windows et macOS sont notamment sensibles à ce problème, vu que ces deux systèmes doivent émuler Linux pour faire tourner ces images, ajoutant une couche d’indirection et donc de la complexité pour gérer la mémoire de manière optimale.

Comment sortir de ce pétrin ? Une réponse un peu « réac » serait de sortir du « tout React » (vous l’avez ?), et de rappeler que les interfaces natives ou les bons vieux binaires seuls peuvent aider à réduire la consommation mémoire. Sauf que ça serait oublier l’avantage du Web et de Docker : le fameux « Code Once, Deploy Everywhere », si inspirant et pratique qu’il était déjà le fer de lance de Sun, via Java et sa JVM dans les années 2000 ! En réalité, la réponse s’impose d’elle-même : les prix de la RAM ayant explosé à cause des appétits en investissements matériels des géants de la tech ces dernières années (poussés par la sacro-sainte course à l’IA ultime), la pression va être toujours plus forte sur les équipes de développement de ces mêmes géants qu’elles se souviennent que la RAM de leurs clients n’est pas gratuite…


Les 5 tabs

Aujourd’hui, je continue dans le même esprit que l’édito en vous parlant de manque de respect pour votre bande passante, pour vos potentiels handicaps, pour vos aspirations au bien commun (par des intérêts particuliers), pour votre quotidien sous Windows, et pour vous de la part de vos clients, ou des prétendues personnes se présentant comme les clients de vos clients : on ne va jamais s’en sortir.

  • The 49MB Web Page
    Comment peut-il être possible que les pages Internet des grands journaux soient aussi lourdes ? Ce tour d’horizon réalisé par Shubham Bose est un bon rappel de l’état actuel de ce web commun, auquel on n’est confronté que si l’on désactive quelques instants nos bloqueurs de publicités (vous en avez un, n’est-ce pas ?). La recherche d’un modèle économique sain n’est pas une excuse pour imposer des pages qui ressemblent visuellement et techniquement à des poubelles en feu !
    Le Monde arrive à rester bon citoyen sur ma machine (environ 3 Mo et 92 requêtes), mais Le Parisien dépasse les 40 Mo et les 500 requêtes (pardon ?!), BFMTV dépasse les 1500 requêtes, tout cela est absurde.
    Ça m’énerve tellement qu’il n’est pas impossible que j’en fasse un billet à l’occasion. Quel manque de respect pour son public…

  • Accessibilité numérique des services publics – seulement 6,5% des démarches essentielles sont conformes à la loi !
    C’est difficile de rendre un site « moderne » accessible. Enfin, non, ça ne l’est pas forcément tant que ça si on suit les bonnes pratiques de notre profession, mais c’est difficile de les suivre si on ne les connaît pas ou si personne dans les projets ne s’assure que les demandes des uns et des autres sont compatibles avec leur respect. Le résultat, c’est qu’il y a des trous géants dans la raquette, et que ça touche des centaines de passages obligés pour des centaines de milliers d’usagers, et la volonté politique pour changer ça n’est pas franchement au rendez-vous.

  • La Suite numérique de l’État : critique des critiques
    Je vous ai chanté les mérites de La Suite dans le deuxième numéro de cette newsletter, début février ; cette belle initiative de la DINUM, le bras « numérique et innovation pratique » de l’État (aussi appelé beta.gouv.fr). L’idée est simple : au lieu de redévelopper cent fois les mêmes outils ou de les payer cher sur l’étagère et de ne pas pouvoir les modifier ou les héberger comme on le souhaite, autant se baser sur des briques libres existantes et ne développer que ce qui est nécessaire par dessus pour le déployer pour tous les agents publics. Du bon sens, du bon usage des deniers publics, de la souveraineté, bravo à tous.
    Sauf qu’évidemment, ça ne plaît pas à celles et ceux qui fournissent ces fameux logiciels disponibles sur l’étagère, qui crient à la concurrence déloyale et à l’usage déraisonné de l’argent public (« ptdr » dirais-je), en s’appuyant notamment sur un rapport de la Cour des Comptes qui analysait les coûts du programme… avant qu’il soit à son terme. Bon, c’est aussi le rôle des magistrats et ils ne pouvaient pas forcément prévoir que Visio soit un grand succès, tout comme les autres outils de la besace numérique que consitue LaSuite, mais c’est rigolo à lire après coup.
    Ce billet de Pierre-Yves Gosset (pyb, de chez Framasoft) est passionnant pour remettre un peu l’église au milieu du village et rappeler pourquoi c’est important que La Suite existe, qu’elle soit soutenue, et que tout le monde y gagnera au final.

  • Our commitment to Windows quality
    Quel étrange exercice de langue de bois de l’équipe chargée du développement de Windows : avouer à demi-mot qu’après une décennie à oublier complètement leurs utilisatrices et utilisateurs dans l’équation, il fallait peut-être qu’ils se remettent à prioriser l’amélioration du quotidien et corriger les bugs flagrants qui irritent les milliards de personnes qui doivent utiliser Windows tous les jours.
    Peux-t-on espérer que cet aveu pousse également les équipes de macOS chez Apple à accepter de passer du temps cette année à faire de même, en passant un coup de ponceuse sur Liquid Glass ? Bon, en vrai, ça peut s’appliquer à toutes les équipes chez toutes les grosses boîtes de la tech’ : au lieu de courir après la dernière fonctionnalité à la mode, passer un peu de temps sur la qualité de vos interfaces et de vos logiciels, ça ferait du bien à tout le monde.

  • EnshittifAIcation
    Le titre rend peu hommage à la substance de cette note de blog, qui est plutôt un témoignage de multiples échanges Stefano Marinelli, un administrateur système en freelance, avec plusieurs de ses clients. Bernés par des chatbots LLMs qu’ils croient sur parole ainsi que par des témoignages de leurs propres clients eux aussi bernés par ces mêmes chatbots, ils en arrivent à demander des choses absurdes en étant persuadés de leur bon droit, sans aucun recul, mettant notre protagoniste dans une posture kafkaesque où le bon sens disparaît. Cauchemardesque.


Le changelog

En vrac, voilà quelques liens vers ce que j’ai trouvé d’intéressant depuis deux semaines et la dernière newsletter, le dernier stream ayant été assez « express ».

  • An iPhone-hacking toolkit used by Russian spies likely came from U.S military contractor
    Il n’est pas possible d’ouvrir de portes dérobées qui ne s’ouvrent qu’aux gentils. Il serait temps pour nos décideurs et décideuses de le comprendre !

  • Dolphin Progress Report: Release 2603
    Encore un superbe « progress report » de l’émulateur Dolphin (qui simule donc des Gamecubes ou des Wiis), toujours rempli de belles anecdotes et de cas concrets d’améliorations de leur moteur. Une bonne bouffée d’inspiration à chaque fois.

  • Gaming is embracing AI, but GDC proves nobody actually knows what to do with it
    Lecture un peu rassurante (?) qui montre que malgré une envie immense de toute industrie de mettre de l’intelligence artificielle partout, les studios de jeux vidéo, pourtant prompts à faire des coupes budgétaires et à prendre des raccourcis partout (en broyer les âmes des personnes travaillant sur leurs jeux), se retrouve comme une poule devant un couteau face aux LLMs et aux IA génératives. Si on ajoute à ça la pression de plus en plus grande du public pour des contenus sans pesticides sans contenu d’IA générative, c’est un peu rassurant sur l’avenir proche de cette industrie-là.

  • AI still doesn't work very well, businesses are faking it, and a reckoning is coming
    Dans le même genre, cet article du tabloïd numérique The Register fait le point sur l’état de l’art des LLMs appliqués au code, et souligne qu’on n’a jamais été aussi proche de l’éclatement de la bulle même hors considérations financières : juste, ça ne marche pas si bien et surtout pas aussi bien que ce que promettent les entreprises à longueur de présentations.

  • Wikipedia:Writing articles with large language models
    Ne vous faites pas avoir par le titre : c’est une page de recommendation de la Wikipédia en anglais à propos de l’usage des LLMs pour la contribution à l’encyclopédie, qui dit en substance : « ne le faites pas s’il vous plaît ». Ça n’est pas une décision prise à la légère de la part des équipes volontaires, mais le soutien pour cette formulation franche, simple et directe est sans appel.

  • Anthropic : What 81 000 people want from AI
    En attendant, les créateurs du chatbot Claude ont demandé à leurs utilisateurs ce qu’ils en faisaient, ce qu’ils craignaient de l’avenir avec ces « intelligences artificielles », et si c’est évidemment à prendre avec des pincettes, c’est intéressant à lire — tout comme la forme, c’est fou tous ces articles de blog d’entreprises qui ressemblent à des long-forms interactifs et lêchés qu’on voyait avant uniquement dans la presse…

  • Astral to join OpenAI
    Oui, c’est un peu le drame de la semaine dernière : l’équipe derrière uv, ty et ruff, ces outils si pratiques dans l’écosystème Python, viennent de se faire racheter par OpenAI, qui évidemment assure qu’ils continueront à laisser cette équipe le temps de continuer à travailler sur ces outils. Si vous voulez une vision plus optimiste de la chose, le blogueur Simon Willison a écrit ses pensées sur cette acquisiton, et qui souligne qu’au pire, ça se forke.

  • XML is a cheap DSL
    Audacieuse opinion, mais intéressante néanmoins : en vrai, est-ce qu’XML ça ne serait pas davantage adapté pour certains cas de langages « ad-hoc » pour encoder de la connaissance ou de la configuration, plutôt que d’autres alternatives comme YAML ou JSON ? Pas convaincu à 100% par la démonstration (et ça reste si verbeux…), mais ça peut nourrir votre propre réflexion.


Quoi de neuf chez Stan ?

Ma psychologue essaye de me convaincre que je fais beaucoup de choses en ce moment, alors que je n’ai pas l’impression d’avancer. Qui croire, une professionnelle qui a le recul, ou mon propre esprit embrûmé par mes envies contradictoires d’adulte récemment diagnostiqué et traité pour un TDAH ?

Bref, toujours pas d’avancées sur Tempoquiz, mais j’ai pu préparer mes slides pour dimanche (voir plus bas) et pu porter le site de lundi.dev de NuxtJS vers Astro, et je me dis que ça ferait un bon post de blog pour expliquer pourquoi je l’ai fait… de quoi m’occuper pour mes quasi 30 heures d’avion cette semaine ?


Une fois n’est pas coutume, je ne vous retrouverai pas la semaine prochaine en stream, vu que je serai dimanche à l’ATmosphereConf à Vancouver au Canada pour une présentation qui se déroulera dans la soirée du dimanche soir (heure de Paris), normalement ça sera retransmise en ligne. Suivez-moi sur Bluesky (c’est dans le thème !) pour être au courant des détails le jour J. Le lendemain, jour de stream, je serai donc dans l’avion du retour.

En attendant, si vous êtes abonné·e·s à la newsletter et que vous me lisez depuis votre boîte de réception, n’hésitez pas à répondre à cet e-mail avec le nombre de gigas de RAM vous avez dans votre machine habituelle et celle du boulot ! Et aussi vos pires anecdotes de gestion mémoire… je ne manquerai pas de temps pour vous lire cette semaine, au dessus des nuages.

À très vite,

— Stan (@signez.fr)

C’était la version web de la newsletter de lundi.dev du lundi 23 mars 2026.

Vous pouvez vous abonner à cette newsletter pour la recevoir dès 11h un lundi sur deux, ou souscrire au flux dédié avec votre lecteur RSS/Atom habituel.