Le 29/09/2024 à 11:18, Marc SCHAEFER via gull a écrit :
Les cartes Ethernet modernes permettent de décharger le CPU en traitant
toutes sortes de chose dans la carte:

    - calcul des checksums TCP, UDP et IP
    - émulation du protocole TCP (scatter-gather)

J'avais souvenir que les CPUs étaient saturés avec une utilisation intensive de connexions à 10 Gb/s. C'était sans doute avec les premières cartes de ce type que n'avaient, sans doute, pas ces modes intégrés. C'est probablement à la suite de la montée en puissance des cartes (pour du 25 Gb/s et plus) que l'on a vu éclore cette pratique destinée à décharger le CPU et le bus PCIE et mémoire. Ça me semble logique. D'ailleurs, je vois qu'il existe maintenant des cartes pour faire 2x200 ou 400 Mb/s. Sans cette émulation je pense que l'on aurait des problèmes de performance.

Oui, "violation" du modèle ISO, mais ça fait très longtemps que le modèle TCP/IP est destiné à répondre aux besoins spécifiques de ce protocole, tout en se reposant sur les standards établis. C'est une petite "entorse", mais qui évite justement des problèmes de congestion lorsque l'on monte en bande passante. Il y a aussi des réflexions qui sont menées pour éviter ces problèmes de performance, tel que que TCP Fast Open, QUIC, etc. Mais les réflexions vont au-delà des simples problèmes de performance. Il y a aussi des questions de sécurité, de SDN, d'intégration de nouvelles technologies (5G, Iot, etc.), etc. Il y a donc fort à parier que les cartes du futur vont intégrer de plus en plus de firmware destiné à soulager le(s) CPU(s) de la gestion de certains protocoles, et peut-être des choses comme TLS, HTTP3, etc. On verra.

Le "debuging" des problèmes de connexions dans un environnement cloud et utilisant massivement Kubernetes et le SDN va devenir... assez intéressant. :-)

dc

C'est surtout l'émulation du protocole TCP (en jolie violation du modèle
en couche OSI), le TCP/TSO, qui permet à l'OS de limiter les
interruptions.  En effet, la carte présente à l'OS un MTU bien plus
grand que le MTU d'Ethernet, le kernel prépare des paquets TCP de
grandes tailles, et ceux-ci sont ensuite découpés par la carte (*),
qui exécute le véritable protocole TCP, et génère les confirmations
factices pour le TCP du kernel.

Exemple: un paquet d'environ 8000 octet est envoyé plutôt que 5 paquets,
soit en comptant les confirmations un gain de 10x en moins
d'interruptions.

Symptôme: wireshark montre des gros paquets de taille supérieure
au MTU usuel Ethernet; mais entre les 2 machines les routeurs
voient les tailles réelles (MTU 1500).

Initialement, il y avait parfois des bugs de firmware: j'avais sorti
l'analyseur en mode bridge pour voir ce qui se passait.

Activer 
TSO:https://www.ibm.com/docs/en/linux-on-systems?topic=offload-tcp-segmentation

Evidemment, c'est aussi valable en virtualisation
https://docs.vmware.com/en/VMware-vSphere/7.0/com.vmware.vsphere.networking.doc/GUID-FB4F8DB7-B4AC-4442-9B0B-B776F0C7BCCB.html

(*) le firmware, souvent
_______________________________________________
gull mailing list
gull@forum.linux-gull.ch
https://forum.linux-gull.ch/mailman/listinfo/gull

--
----------
Daniel Cordey
Mail :d...@pxcluster.com
Tel Esp : +34 623 517-666
Tel And : +376 692-550
_______________________________________________
gull mailing list
gull@forum.linux-gull.ch
https://forum.linux-gull.ch/mailman/listinfo/gull

Répondre à