Le 01/03/19 à 20:47, Jefsey a écrit :
Je pense que l'on n'échappera pas à une révision globale de la sécurité
internet en oubliant son côté "minitel" (télématique d'accès aux
serveurs) pour en venir à une véritable multimatique (maillage direct de
qui veut avec qui veut) et une révision du routage correspondante.

Tout à fait d'accord,

mais au-delà du /contexte technique des expérimentations possibles/ (Europe, Chine, Afrique, Amérique du Sud), * il faut songer au *déclin de puissance des USA* (confer Giovanni Arrighi *Adam Smith à Pékin: ou la promesse du modèle chinois*). * ils n'ont pas compris qu'ils ont perdu définitivement le contrôle de la salle de jeu /construite volontairement non sûre/ . La NSA et les USA ne la maîtrisent *plus* , au niveau mondial en tout cas.

Attention !

La raison est que la "salle de jeu" n'est plus maîtrisable par personne. Elle est devenue quasiment "naturelle" (la nature étant selon Hobbes "l'art que Dieu utilise pour gérer l'univers" et que l'homme sait pas si mal copier). Cela veut simplement dire que nous devons cesser de faire une différence technosophique entre le naturel et l'intégration de l'"artificiel".

NB. (philosophie : traitement des questions que l'homme pose à l'homme, technosophie : traitement des questions que la techne de l'homme lui pose).

De façon pratique, la priorité pour l'instant est de tirer ensemble les conclusions du livre qu'Olivier Auber va publier - et des travaux sur les travaux sur l'ascendence d'Ulanowics (exomémoire des écosystèmes ?). En gros : de l'ouverture causale.

Je précise : le "paradigme" que tous partagent est - au fond des choses - celui de la clôture causale (la conséquence de Newton, c'est à dire: "tout effet physique a une cause physique"). Ceci conduit à un nécessaire réduction au matérialisme philosophique . L'alternative (la métaphysique) a été voulue scientifiquement réfutée : la métaphysique suppose un monde créé comme visible et invisible : la complétude scientifique est visible.

Cet argument ne tient pas pour deux types de raisons :
1) un suspensif : la science repose sur un apprentissage logique (mathématique) de l'univers. Goëdel a montré l'incomplétude de la mathématique. Est-ce une situation unique aux mathématiques ou la complétude ne peut existe
 2) des prémisses borgnes au débat :
a) nous n'avons pas accès à l'intégralité de l'univers que par l'approfondissement (passer derrière sa seule phénoménologie) de sa complexité nous commençons à en sonder la multitudinité (étendue)
b) multitudinité que nous retrouvons dans notre capacité de virtualisation.
c) nous étendons sa création (car là nous voyons que ce que nous faisons est création pérenne et partageable) à un univers "lisible". Lisible par des outils de mesure qui permettent non seulement de le lire, mais d'en modifier la nature locale (expérience EPR), Lisible par le fait des textes des expériences et des pensées que nous accumulons (data et mèmes = idées de Platon). Lisible par la rémanence mnèmique (cf. Ampère) : lecture active lors des décisions fonctionnelles de l'ensemble des traces du passé (mnème patrimoine historique du passé de chacun/commun/,etc.) qui font l'"avenir" (possibles) des choses dont la composition sera leur "futur" commun. Ce dont il s'agit n'est donc ni de magie, ni de miracles. Mais de lois naturelles (ou sociétales, etc.) ce que l'on nomme la "nomologie" que nous ne connaissons pas, alors que l'émergence de l'équilbre nomologique des choses les affectes. Les analyses et expériences scientifiques s'ajoutent actuellement. Hypnose, empathie, cellules mirroir, etc.

Ce que montrera Auber est que ce que j'appelle l'ontalité (l'espace des êtres, ou "ontolités" - être-objets) qui résultent du maillage en réseau (analysé, physique, expérimenté ou imaginé). Nous avions les monades autonomes, les systèmes construits et maintenant les amas rémanents, disons écosystèmes ou agoras, leur "être" étant maintenu par leur entéléchie (Aristote : une idée à verifier/réfuter par la science).

Une fois que l'on a compris cela l'on peut se retourner vers la diktyologie de Paul Mathias et tenter une mise en cohérence multimatisée (pour traiter d'ontolités et pas d'objets ou même de systèmes, dans les interligences d'ontalités protégées - agoras réelles ou virtuelles [nebs : nébulaire du catenet réel/virtuel des ressouces digitales privées]) .après avoir approfondi l'anoptique de leurs mnèmes.

Ouaou ! cela fait beaucoup de concepts totalement nouveaux dont les relations sont en cours de recherches. Mais ils semblent devenir solidement récurrents. C'est donc une voie à garder solidement à l'esprit. AMHA cela vient d'une double ontalité de l'univers à la fois : - globalement incommensurable (cf. multitude, c'est à dire une catégorie sans cause première, formelle, final ; trop grand).
- localement mesurable (cf. expérience des fentes de Yong/EPR)
Il y a des "effondements" de l'incommensurable dans le mesurable. Les ordinateurs quantiques vont nous habituer à ce que l'on peut en tirer.

PS#1 L'internet n'a pas été construit sûr, et ne l'est pas (e.g. écrivez des lettres en *texte seul* pour éviter les contenus actifs non maîtrisables)

Bien malheureusement le lisible est sémantique et nous sommes sans couche présentation (OSI 6). C'est la première à rétablir pour des firewalls sémantiques. Et pouvoir concevoir des contre-mesures. Les OPES (cf. RFC 3835, etc.) nous y aidrait ?

PS#2 Compte-tenu des lois adoptées par l'Europe et la Chine, construisons le logiciel libre /OpenAdGuard/ en *ReactiveML* <http://reactiveml.org>

Je n'ai pas de pratique de ReactiveML qui me paraît assez bien orienté "lisible" (un texte et ses conséquences à analysé), mais non à sa quatrième "isibilité" : notre monde nous est "imprévisible", en raison de son maillage universel (l'interligence - ce par quoi tout est lié - de son hyperespace - l'inconnu dynamique accessible par hyperliens temporels).

Je vais lire la thèse de Louis Mandal à son sujet. Cela donnera sans doute des idées pour le travail sur l'interligence.

C'est là où le multiagent temps réel me semble notre meilleure option. Mon expérience QNX me l'a montré, mais QNX est propriétaire et un OS bare-metal. C'est pourquoi je me soucie de comprendre erlang, sa machine virtuelle beam (qui ne fuit pas à la différence de Java) de sa programmation sous élixir et d'une langue interagent universelle (numlang) que la multitude pourrait accepter dans la pratique - non pour développer des applications, des solutions, etc. des systèmes, mais pour composer des ontolités.

Soyons donc plus rapides que les Chinois. Ne prenons pas de retard. Expérimentons CATENET en Europe et pour expérimenter, bétonnons et verrouillons notre solution et expérimentation locale avant de vouloir l'étendre.

Le CATENET a été inventé et testé par Louis Pouzin à l'INRIA. Il me semble que c'est sur la foi de cette ligne INRIA que les Chinois dialoguent avec nous sur l'aspect profond de l'IA. Mais nous n'avons pas l'architecture de la multitude retirée en 1986 par l'abandon de la couche OSI six présentation (nous charabions, faute d'ontologie/taxonomie communes). Il nous faut d'abord rétablir la multitude. C'est ce que fait sa n-ième insurgence historique : les gilets jaunes (avec sans doute plus de chance, car la singularité technologique en cours et à l'heure, les a déclenchés, mais nous aide).

Je pense que la gouvernance référendaire (référendum d'initiative citoyenne, ou démocratie participative) réclame une cobotcratie poussée qui réclame la capacitation numérique juridique, technique, et contrôlée de chacun, dans le contexte d'une multitude numérique ainsi énactée et augmentée, respectueuse des données privées.

C'est la pré-entreprise de mon projet d'entreprise de 1977 qui se poursuit. Ma réflexion "Plan M" qui prend du temps, est d'enfin la transformer en la smart-up de mon 5ème âge (pérennité épigémnémique (autocatalysante) posthume).

P.S. Quel DNS a été et est utilisé dans Milnet à sa séparation d'ARPANET et au-delà?

Le "DNS" est une évolution du "11" qu'ils ont étudié. Son problème est sa rigidité ICANN (unicité politique, absence de recherche novative). Il ne s'est pas architecturellement adapté (DNSSEC est du bon code seulement). Le problème général de l'IETF est le manque d'approfondissement de son excellent Tao https://www6.ietf.org/tao. J'ai bon espoir que l'on pourra résoudre dans un contexte de synergie multitudinaire, à la suite de l'effort australien de FastMail sur JMAP. C'est long, mais un bon building block.

bétonnons et verrouillons notre solution et expérimentation locale avant de vouloir l'étendre.

Nous sommes dans un monde à l'échelle des nations et maintenant des métropoles et de leurs glocalités virtuelles (ce que la RFC 6852 sur le paradigme de normalisation moderne pourrait qualifier de communautés globales).

Leurs "catenets virtuels" sont ce que j'appelle donc leur "neb" (nébulaire propre), techniquement un "VGN" (virtual glocal network, ce que l'on appelait une classe sous Tymnet, un closed-user-group/CUG sous OSI : tous ceux qui peuvent accéder aux CPUs/Services Etendus [partage/traitement des hyperdata] d' intérêt communs).

Il suffirait que la DINSI nous aide à stabiliser un français mathémagorique (linguistique mathématique pour la cyberagora des citoyens français et de leur cobotique citoyenne) : un IEML (cf. Pierre Levy https://www.researchgate.net/publication/239606178_IEML_BILAN_ET_PERSPECTIVES) incluant les ontologies de l'administration, des impôts, des universités, des assos, des médecins, etc., etc. donc sans confusion possible des paradigmes (sens des taxèmes). Et laisser faire en aidant des barcamps de travail par l'AFNOR. Coût : quelque centaine de milliers d'euro, réunions à la BNF et/ou à Montpellier. Mais qui va expliquer cela dans le Grand Débat ? (je vais tenter de le faire pour prendre date).

jfc
_______________________________________________
comptoir mailing list
[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com

Répondre à