Le 01/03/19 à 20:47, Jefsey a écrit :
Je pense que l'on n'échappera pas à une révision globale de la sécurité
internet en oubliant son côté "minitel" (télématique d'accès aux
serveurs) pour en venir à une véritable multimatique (maillage direct de
qui veut avec qui veut) et une révision du routage correspondante.
Tout à fait d'accord,
mais au-delà du /contexte technique des expérimentations possibles/
(Europe, Chine, Afrique, Amérique du Sud),
* il faut songer au *déclin de puissance des USA*
(confer Giovanni Arrighi *Adam Smith à Pékin: ou la promesse du
modèle chinois*).
* ils n'ont pas compris qu'ils ont perdu définitivement le
contrôle de la salle de jeu /construite volontairement non sûre/ .
La NSA et les USA ne la maîtrisent *plus* , au niveau mondial en tout cas.
Attention !
La raison est que la "salle de jeu" n'est plus maîtrisable par
personne. Elle est devenue quasiment "naturelle" (la nature étant
selon Hobbes "l'art que Dieu utilise pour gérer l'univers" et que
l'homme sait pas si mal copier). Cela veut simplement dire que nous
devons cesser de faire une différence technosophique entre le naturel
et l'intégration de l'"artificiel".
NB. (philosophie : traitement des questions que l'homme pose à
l'homme, technosophie : traitement des questions que la techne de
l'homme lui pose).
De façon pratique, la priorité pour l'instant est de tirer ensemble
les conclusions du livre qu'Olivier Auber va publier - et des travaux
sur les travaux sur l'ascendence d'Ulanowics (exomémoire des
écosystèmes ?). En gros : de l'ouverture causale.
Je précise : le "paradigme" que tous partagent est - au fond des
choses - celui de la clôture causale (la conséquence de Newton, c'est
à dire: "tout effet physique a une cause physique"). Ceci conduit à
un nécessaire réduction au matérialisme philosophique . L'alternative
(la métaphysique) a été voulue scientifiquement réfutée : la
métaphysique suppose un monde créé comme visible et invisible : la
complétude scientifique est visible.
Cet argument ne tient pas pour deux types de raisons :
1) un suspensif : la science repose sur un apprentissage logique
(mathématique) de l'univers. Goëdel a montré l'incomplétude de la
mathématique. Est-ce une situation unique aux mathématiques ou la
complétude ne peut existe
2) des prémisses borgnes au débat :
a) nous n'avons pas accès à l'intégralité de l'univers que par
l'approfondissement (passer derrière sa seule phénoménologie) de sa
complexité nous commençons à en sonder la multitudinité (étendue)
b) multitudinité que nous retrouvons dans notre capacité de virtualisation.
c) nous étendons sa création (car là nous voyons que ce que nous
faisons est création pérenne et partageable) à un univers "lisible".
Lisible par des outils de mesure qui permettent non seulement de le
lire, mais d'en modifier la nature locale (expérience EPR),
Lisible par le fait des textes des expériences et des pensées que
nous accumulons (data et mèmes = idées de Platon).
Lisible par la rémanence mnèmique (cf. Ampère) : lecture active lors
des décisions fonctionnelles de l'ensemble des traces du passé (mnème
patrimoine historique du passé de chacun/commun/,etc.) qui font
l'"avenir" (possibles) des choses dont la composition sera leur
"futur" commun.
Ce dont il s'agit n'est donc ni de magie, ni de miracles. Mais de
lois naturelles (ou sociétales, etc.) ce que l'on nomme la
"nomologie" que nous ne connaissons pas, alors que l'émergence de
l'équilbre nomologique des choses les affectes. Les analyses et
expériences scientifiques s'ajoutent actuellement. Hypnose, empathie,
cellules mirroir, etc.
Ce que montrera Auber est que ce que j'appelle l'ontalité (l'espace
des êtres, ou "ontolités" - être-objets) qui résultent du maillage en
réseau (analysé, physique, expérimenté ou imaginé). Nous avions les
monades autonomes, les systèmes construits et maintenant les amas
rémanents, disons écosystèmes ou agoras, leur "être" étant maintenu
par leur entéléchie (Aristote : une idée à verifier/réfuter par la science).
Une fois que l'on a compris cela l'on peut se retourner vers la
diktyologie de Paul Mathias et tenter une mise en cohérence
multimatisée (pour traiter d'ontolités et pas d'objets ou même de
systèmes, dans les interligences d'ontalités protégées - agoras
réelles ou virtuelles [nebs : nébulaire du catenet réel/virtuel des
ressouces digitales privées]) .après avoir approfondi l'anoptique de
leurs mnèmes.
Ouaou ! cela fait beaucoup de concepts totalement nouveaux dont les
relations sont en cours de recherches. Mais ils semblent
devenir solidement récurrents. C'est donc une voie à garder
solidement à l'esprit. AMHA cela vient d'une double ontalité de
l'univers à la fois :
- globalement incommensurable (cf. multitude, c'est à dire une
catégorie sans cause première, formelle, final ; trop grand).
- localement mesurable (cf. expérience des fentes de Yong/EPR)
Il y a des "effondements" de l'incommensurable dans le mesurable. Les
ordinateurs quantiques vont nous habituer à ce que l'on peut en tirer.
PS#1 L'internet n'a pas été construit sûr, et ne l'est pas (e.g.
écrivez des lettres en *texte seul* pour éviter les contenus actifs
non maîtrisables)
Bien malheureusement le lisible est sémantique et nous sommes sans
couche présentation (OSI 6). C'est la première à rétablir pour des
firewalls sémantiques. Et pouvoir concevoir des contre-mesures. Les
OPES (cf. RFC 3835, etc.) nous y aidrait ?
PS#2 Compte-tenu des lois adoptées par l'Europe et la Chine,
construisons le logiciel libre /OpenAdGuard/ en *ReactiveML*
<http://reactiveml.org>
Je n'ai pas de pratique de ReactiveML qui me paraît assez bien
orienté "lisible" (un texte et ses conséquences à analysé), mais non
à sa quatrième "isibilité" : notre monde nous est "imprévisible", en
raison de son maillage universel (l'interligence - ce par quoi tout
est lié - de son hyperespace - l'inconnu dynamique accessible par
hyperliens temporels).
Je vais lire la thèse de Louis Mandal à son sujet. Cela donnera sans
doute des idées pour le travail sur l'interligence.
C'est là où le multiagent temps réel me semble notre meilleure
option. Mon expérience QNX me l'a montré, mais QNX est propriétaire
et un OS bare-metal. C'est pourquoi je me soucie de comprendre
erlang, sa machine virtuelle beam (qui ne fuit pas à la différence de
Java) de sa programmation sous élixir et d'une langue interagent
universelle (numlang) que la multitude pourrait accepter dans la
pratique - non pour développer des applications, des solutions, etc.
des systèmes, mais pour composer des ontolités.
Soyons donc plus rapides que les Chinois. Ne prenons pas de retard.
Expérimentons CATENET en Europe et pour expérimenter, bétonnons et
verrouillons notre solution et expérimentation locale avant de
vouloir l'étendre.
Le CATENET a été inventé et testé par Louis Pouzin à l'INRIA. Il me
semble que c'est sur la foi de cette ligne INRIA que les Chinois
dialoguent avec nous sur l'aspect profond de l'IA. Mais nous n'avons
pas l'architecture de la multitude retirée en 1986 par l'abandon de
la couche OSI six présentation (nous charabions, faute
d'ontologie/taxonomie communes). Il nous faut d'abord rétablir la
multitude. C'est ce que fait sa n-ième insurgence historique : les
gilets jaunes (avec sans doute plus de chance, car la singularité
technologique en cours et à l'heure, les a déclenchés, mais nous aide).
Je pense que la gouvernance référendaire (référendum d'initiative
citoyenne, ou démocratie participative) réclame une cobotcratie
poussée qui réclame la capacitation numérique juridique, technique,
et contrôlée de chacun, dans le contexte d'une multitude numérique
ainsi énactée et augmentée, respectueuse des données privées.
C'est la pré-entreprise de mon projet d'entreprise de 1977 qui se
poursuit. Ma réflexion "Plan M" qui prend du temps, est d'enfin la
transformer en la smart-up de mon 5ème âge (pérennité épigémnémique
(autocatalysante) posthume).
P.S. Quel DNS a été et est utilisé dans Milnet à sa séparation
d'ARPANET et au-delà?
Le "DNS" est une évolution du "11" qu'ils ont étudié. Son problème
est sa rigidité ICANN (unicité politique, absence de recherche
novative). Il ne s'est pas architecturellement adapté (DNSSEC est du
bon code seulement). Le problème général de l'IETF est le manque
d'approfondissement de son excellent Tao https://www6.ietf.org/tao.
J'ai bon espoir que l'on pourra résoudre dans un contexte de synergie
multitudinaire, à la suite de l'effort australien de FastMail sur
JMAP. C'est long, mais un bon building block.
bétonnons et verrouillons notre solution et expérimentation locale
avant de vouloir l'étendre.
Nous sommes dans un monde à l'échelle des nations et maintenant des
métropoles et de leurs glocalités virtuelles (ce que la RFC 6852 sur
le paradigme de normalisation moderne pourrait qualifier de
communautés globales).
Leurs "catenets virtuels" sont ce que j'appelle donc leur "neb"
(nébulaire propre), techniquement un "VGN" (virtual glocal network,
ce que l'on appelait une classe sous Tymnet, un closed-user-group/CUG
sous OSI : tous ceux qui peuvent accéder aux CPUs/Services Etendus
[partage/traitement des hyperdata] d' intérêt communs).
Il suffirait que la DINSI nous aide à stabiliser un français
mathémagorique (linguistique mathématique pour la cyberagora des
citoyens français et de leur cobotique citoyenne) : un IEML (cf.
Pierre Levy
https://www.researchgate.net/publication/239606178_IEML_BILAN_ET_PERSPECTIVES)
incluant les ontologies de l'administration, des impôts, des
universités, des assos, des médecins, etc., etc. donc sans confusion
possible des paradigmes (sens des taxèmes). Et laisser faire en
aidant des barcamps de travail par l'AFNOR. Coût : quelque centaine
de milliers d'euro, réunions à la BNF et/ou à Montpellier. Mais qui
va expliquer cela dans le Grand Débat ? (je vais tenter de le faire
pour prendre date).
jfc
_______________________________________________
comptoir mailing list
[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com